使用ChatGPT插件增强学生和机构的学习体验
使用ChatGPT插件增强学习体验
介绍
ChatGPT迅速崭露头角,成为最先进的对话式人工智能模型之一,以其在各种主题上生成类似人类的文本的能力吸引了用户。虽然免费版的ChatGPT受到了欢迎,但学生和机构的ChatGPT插件允许用户自定义他们的体验,浏览网络,并访问针对特定行业或兴趣定制的专业知识模块。
ChatGPT插件为改善大学和机构学生的教育体验提供了平台。这些插件可以根据学术需求定制聊天机器人的回应,引入专业工具和资源。插件增加了主模型的功能,可以是语言翻译服务、学科特定的见解,或解决具有挑战性的数学问题。此外,它们可以促进新的和改进的学习方法,以满足不同的学习偏好。
学习目标
- 了解ChatGPT插件的基本用例。
- 深入研究受学生和教育机构欢迎的ChatGPT插件的精选列表。
- 分析实际应用场景,了解学生如何使用这些插件来学习新概念、理解、分析和解决问题。
- 深入探讨ChatGPT插件在数据分析中的基于代码的输入和输出生成。
本文作为数据科学博文的一部分发表。
生成式人工智能和ChatGPT插件
生成式人工智能已经彻底改变了我们以数字方式创建、分析和交互的方式,使机器能够从给定的输入产生新颖的输出。虽然ChatGPT因其生成连贯和上下文相关的回应的能力而成为一个受欢迎的平台,但插件的整合使其具有了更专业的功能、与其他软件的无缝集成以及针对多个行业(包括教育机构和学生)的定制用户体验。
受学生欢迎的ChatGPT插件
一些受学生欢迎的ChatGPT插件包括:
- Diagrams: Diagrams插件为ChatGPT-4提供了使用图表进行视觉解释的功能。它支持Mermaid、GraphViz、PlantUML等不同的语法。用户可以处理解释或对现有图表进行修改。
- ScholarAI: ScholarAI是一个可以用于访问同行评审的学术论文和研究成果的插件。使用此插件,学生可以快速查询相关的同行评审研究,确保数据对于改进科学研究和获取见解是可信的。
- Chat With PDF: Chat With PDF可以通过ChatGPT访问和查询互联网上的PDF文件。这个强大的工具简化了从PDF中获取见解的过程,只需提及链接即可。学生可以通过提问或寻求文档内容的具体细节来获取信息。
- Wolfram:Wolfram插件通过连接到计算工具、数学函数、有组织的信息、最新数据和可视化功能来增强ChatGPT的功能。这可以进一步与Diagrams等其他插件结合起来,从输入图表中读取、处理和计算数学数据。
- Video Insights:Video Insights插件帮助实时分析视频内容并获得有价值的见解。学生可以使用该插件快速回顾和复习长时间讲座视频中的关键概念,并创建笔记。
- Open lecture:Open lecture插件可用于访问大学级别的内容和讲座。它可以将大学讲座、书籍和学习笔记的数字档案保存在您的口袋中。
- Code Interpreter: Code Interpreter是一个多功能插件,可以增强AI聊天机器人上传数据、编写和编辑代码以及执行不同的操作和分析的能力。您可以要求ChatGPT分析数据、创建图表、编辑文件、执行数学运算,并将其用于数据分析等。
Diagrams插件
让我们深入了解图表插件及其用法。图表插件可用于创建可视化图表,以表示复杂的思想和过程。通过利用其功能,学生可以通过描述来绘制数字图表。
例如:数据科学的学生想要可视化神经网络,并通过描述其特征和细节来创建图表。
提示:描述一个具有5个隐藏层的神经网络。在图表中添加所有类型的细节,如每个隐藏层中的权重的随机值,每个隐藏层中的偏差的随机值,每个层中的多个神经元,激活函数和其他信息。使用gpt4,不使用插件。
ChatGPT的回复
输入层:这是数据输入网络的地方。该层中的神经元数量与输入特征的数量相对应。
隐藏层(1到5):这些层是魔法发生的地方。隐藏层中的每个神经元都接收来自前一层的所有神经元的输入,处理它(使用权重、偏差和激活函数),并将其输出发送到下一层的所有神经元。
输出层:该层产生最终的预测或分类。这里的神经元数量通常与类别或输出的数量相对应。
输入层
| 神经元1
| 神经元2
| ...
| 神经元N
隐藏层1
| 神经元1(权重:0.5,偏差:0.3,激活函数:ReLU)
| 神经元2(权重:0.7,偏差:0.2,激活函数:ReLU)
| ...
| 神经元M
隐藏层2
| 神经元1(权重:0.6,偏差:0.1,激活函数:ReLU)
| 神经元2(权重:0.8,偏差:0.4,激活函数:ReLU)
| ...
| 神经元O
隐藏层3
| 神经元1(权重:0.4,偏差:0.5,激活函数:ReLU)
| 神经元2(权重:0.9,偏差:0.2,激活函数:ReLU)
| ...
| 神经元P
隐藏层4
| 神经元1(权重:0.3,偏差:0.3,激活函数:ReLU)
| 神经元2(权重:0.7,偏差:0.6,激活函数:ReLU)
| ...
| 神经元Q
隐藏层5
| 神经元1(权重:0.5,偏差:0.4,激活函数:ReLU)
| 神经元2(权重:0.6,偏差:0.7,激活函数:ReLU)
| ...
| 神经元R
输出层
| 神经元1(权重:0.8,偏差:0.5,激活函数:Sigmoid)
| 神经元2(权重:0.9,偏差:0.6,激活函数:Sigmoid)
| ...
| 神经元S
后续提示:现在使用图表插件根据上述数据创建一个神经网络。
ChatGPT的回复
以下是带有每个神经元加权值和偏差的神经网络图表:
在这个图表中:
每个圆圈代表一个神经元。隐藏层和输出层中神经元内部的标签表示该神经元的权重(W)和偏差(B)。
连接(以蓝色表示)表示数据的流动以及神经元之间的权重。
图表可以进一步改变或改进。可使用特定的原始GraphViz格式创建图表,可以在kroki.io上进行测试。使用这种格式,用户可以自动创建特定的图表,并以准确的方式修改值和更改布局。
让我们看一个简单的例子:
后续提示:将上述图表的Graphviz原始格式粘贴到kroki.io中。
ChatGPT的回复
digraph G {
rankdir=LR;
node [shape=circle, style=filled, color=lightblue];
subgraph cluster_0 {
label="输入层";
I1;
I2;
I3 [label="..."];
I4;
}
subgraph cluster_1 {
label="隐藏层1";
H11 [label="W: 0.5\nB: 0.3"];
H12 [label="W: 0.7\nB: 0.2"];
H13 [label="..."];
H14;
}
subgraph cluster_2 {
label="隐藏层2";
H21 [label="W: 0.6\nB: 0.1"];
H22 [label="W: 0.8\nB: 0.4"];
H23 [label="..."];
H24;
}
subgraph cluster_3 {
label="隐藏层3";
H31 [label="W: 0.4\nB: 0.5"];
H32 [label="W: 0.9\nB: 0.2"];
H33 [label="..."];
H34;
}
subgraph cluster_4 {
label="隐藏层4";
H41 [label="W: 0.3\nB: 0.3"];
H42 [label="W: 0.7\nB: 0.6"];
H43 [label="..."];
H44;
}
subgraph cluster_5 {
label="隐藏层5";
H51 [label="W: 0.5\nB: 0.4"];
H52 [label="W: 0.6\nB: 0.7"];
H53 [label="..."];
H54;
}
subgraph cluster_6 {
label="输出层";
O1 [label="W: 0.8\nB: 0.5"];
O2 [label="W: 0.9\nB: 0.6"];
O3 [label="..."];
O4;
}
{I1 I2 I3 I4} -> {H11 H12 H13 H14} [color=blue];
{H11 H12 H13 H14} -> {H21 H22 H23 H24} [color=blue];
{H21 H22 H23 H24} -> {H31 H32 H33 H34} [color=blue];
{H31 H32 H33 H34} -> {H41 H42 H43 H44} [color=blue];
{H41 H42 H43 H44} -> {H51 H52 H53 H54} [color=blue];
{H51 H52 H53 H54} -> {O1 O2 O3 O4} [color=blue];
}
将此Graphviz图像原始代码粘贴到kroki.io中,我们可以看到该图。图表的每个部分都可以灵活更改。
Chat with PDF Plugin
Chat With PDF插件对于学生快速总结PDF并记录关键思想非常有用。例如,数据科学研究人员可以快速总结并记录研究论文的要点。以下是关于“大型语言模型综述”的论文的示例。
提示:总结以下关于大型语言模型的PDF: https://arxiv.org/pdf/2307.06435.pdf
ChatGPT的回答:提供的PDF摘录似乎主要包含有关各种大型语言模型(LLM)及其配置、数据集和参考文献的详细信息。以下是根据提取的内容进行的概述。
该文档讨论了各种LLM,包括但不限于:
- ERNIE 3.0
- Jurassic-1
- HyperCLOV A
- Gopher
- GPT-NeoX-20B
- BLOOM
- Galactica
- GLaM
- LaMDA
- MT-NLG
- AlphaCode
- Chinchilla
- PaLM
- AlexaTM
- Sparrow
- U-PaLM
- GLM
- CodeGen
- LLaMA
- PanGu-Σ
- Bloomberg GPT
- 等等。
数据集
- QuAC: 使用隐藏的维基百科文本模拟学生和教师之间的信息寻求对话。它引入了在机器理解数据集中找不到的独特挑战。
- COPA: 评估模型在开放域常识因果推理中的进展。每个问题都包括一个前提和两个备选项,模型必须选择更合理的备选项。
- WSC(Winograd Schema Challenge): 一个阅读理解任务,系统必须解决文本中的引用,通常需要世界知识和推理。
- RACE: 从中国的英语考试中收集的阅读理解数据集,用于评估人工智能模型对于理解和回答长篇复杂文章中的问题。
- StrategyQA: 需要对多个证据进行推理,以评估人工智能模型的战略推理能力。
- CSQA(CommonsenseQA): 一个要求常识知识的问答数据集。
- GLUE(General Language Understanding Evaluation): 用于训练、评估和分析自然语言理解系统的资源集合。它包括各种测试任务,测试了广泛的语言现象。
架构
- 层归一化: 对LLMs的性能和训练稳定性有着显著影响。LLMs中更常见的是预归一化(归一化输入而不是输出)。一些模型在嵌入层之前还使用了额外的层归一化以保持稳定性。然而,关于预归一化在某些尺度之外的益处存在争议。
- 位置编码: 影响LLMs的性能和训练稳定性。不同的模型使用不同的位置编码技术,如ALiBi和旋转位置编码,得到不同的结果。
- 并行注意力: 这涉及将注意力和前馈层并行处理。
该文档还深入探讨了各种LLMs中使用的架构模块,强调架构和训练策略的微小变化对性能和稳定性的重大影响。文章讨论了层归一化、位置编码和并行注意力对LLMs性能的影响。
Wolfram插件
学生可以使用Wolfram插件通过文本描述解决数学问题、绘制图形等。下面是使用Wolfram插件解决一个简单的线性回归数学问题的示例:
提示:使用Wolfram插件解决以下问题:
问题:线性回归分析
一位研究人员正在研究学生学习时间与期末考试成绩之间的关系。从10名学生的样本中收集到的数据如下:
任务:
- 将数据绘制成散点图,x轴表示“学习时间”,y轴表示“考试成绩”。
- 计算最佳拟合直线(线性回归线)的方程。
- 使用该方程,预测学习了7个小时的学生的考试成绩。
- 计算决定系数(R^2)并解释其含义。
- 讨论数据中的异常值或模式。
ChatGPT的回答
以下是对给定数据进行线性回归分析的结果:
- 最小二乘法最佳拟合(线性回归线方程):y= 5.02597x + 45.1039
拟合诊断
- AIC(阿卡伊克信息准则):6.21293
- BIC(贝叶斯信息准则):7.12068
- R2(决定系数):0.998999
- 调整R2:0.998874
最小二乘法拟合图
残差图:
使用方程 y=5.02597x+45.1039,我们可以预测学习了7小时的学生的考试成绩:
y=5.02597(7)+45.1039
让我们计算这个预测。
对于学习了7小时的学生,预测的考试成绩约为 y≈80.29。
总结
- 给定数据的最佳拟合线(线性回归线)的方程为 y=5.02597x+45.1039。
- 学习了7小时的学生的预测考试成绩约为80.29。
- 决定系数 R2 为0.998999,表示考试成绩变化的约99.9%可以通过学习小时数来解释。这表明两个变量之间存在着良好的线性关系。
- 残差图和较高的 R2 值表明线性模型很好地拟合了数据。
代码解释器插件(高级数据分析插件)
高级数据分析插件(之前称为代码解释器)可以用于上传 CSV 文件、对其进行分析、运行某些机器学习模型并预测输出。以下是一个示例:
Moonlanding.csv 数据集包含了所有登月尝试的信息。让我们请求 ChatGPT 数据分析插件进行 EDA 并显示结果。
提示:这是关于所有登月的数据集。对其进行探索性数据分析并显示所有结果。
ChatGPT 的回复
# 尝试使用不同的编码读取数据集
moon_landing_data = pd.read_csv('/mnt/data/Moonlanding.csv', encoding='ISO-8859-1')
# 显示前几行
moon_landing_data.head()
# 数值列的汇总统计信息
summary_stats = moon_landing_data.describe()
# 每列的数据类型和非空计数
data_info = moon_landing_data.info()
unique_values = moon_landing_data.nunique()
summary_stats, unique_values
基本统计信息
- 数据集包含 158 条记录。
- 所有列的数据类型均为对象(字符串)。
- “Additional Information” 有一个缺失值。
- 有 147 个唯一的任务名称,但有 158 个唯一的航天器名称,这表明一些任务可能有多个航天器,或者同一任务名称被多次使用。
- “Carrier Rocket” 有 51 种唯一类型,最常见的是 “Proton-K/D”。
- 数据集中包含来自 22 个不同运营商的记录,其中 “United States NASA” 是最常见的。
- 有 13 种唯一的任务类型,最常见的是 “Orbiter”。
- “Outcome” 列有 6 种唯一值,最常见的是 “成功”。
import matplotlib.pyplot as plt
import seaborn as sns
# 设置图形和轴
plt.figure(figsize=(12, 6))
# 根据结果分布绘制任务的分布情况
sns.countplot(data=moon_landing_data, y='Outcome',
order=moon_landing_data['Outcome'].value_counts().index, palette="viridis")
plt.title('基于结果的任务分布情况')
plt.xlabel('任务数量')
plt.ylabel('结果')
plt.tight_layout()
plt.show()
这个可视化提供了关于登月任务根据结果分布的洞察:
- 大部分任务都成功完成。
- 有相当数量的任务面临发射失败。
- 还有一些任务的结果被归类为“部分失败”或“任务失败”。
可视化揭示了月球任务的时间分布:
- 20世纪50年代末至60年代见证了月球任务的激增。这一时期对应着美国和苏联之间的太空竞赛。
- 20世纪70年代末、80年代和90年代初期的月球任务有所下降。
- 从20世纪90年代中期延续至21世纪20年代,月球任务呈现出逐渐增加的趋势,表明对月球探索的兴趣再次高涨。
可视化揭示了月球任务基于类型的分布:
- 轨道飞行器任务是最常见的,表明许多任务旨在绕月球轨道飞行而无需着陆。
- 飞越和撞击器任务也相对频繁。
- 漫游器、样本返回和着陆器任务较少,表明涉及与月球表面物理交互的任务较少。
# 前5个最常用的运载火箭
top_rockets = moon_landing_data['Carrier Rocket'].value_counts().head(5)
top_rockets
运载火箭
用于月球任务最常用的前5个运载火箭是:
- Proton-K/D,共24次任务。
- Molniya-M,共12次任务。
- SLS Block 1,共11次任务。
- Saturn V,共10次任务。
- Luna,共9次任务。
这些信息展示了多年来选择用于月球任务的热门火箭。这就结束了我们对月球登陆数据集的初步探索性数据分析。
结论
ChatGPT是会话式人工智能演变的证明,不仅提供简单对话,还提供更多功能。插件的整合,尤其是针对学生和大学的插件,是改进学习方法的一种变革性方法。从使用Diagram插件提供可视化解释,到访问学术论文,或者使用Code Interpreter插件进行分析和探索性数据分析,ChatGPT插件为学生提供了多种用例。此外,这些插件可以无缝集成,比如将Diagram和Wolfram插件组合使用来可视化数学问题,展示了这些插件的协同作用和潜力。
主要观点
- 插件增强功能: ChatGPT Plus插件允许用户自定义体验、访问专业知识并与其他软件集成,以满足特定行业或兴趣。
- 教育转型: 对于学生和学术机构而言,插件如Diagram和Scholar AI提供量身定制的学习体验,促进从视觉解释到访问同行评审的研究。
- 插件的多功能性: 学生可以以简单提示的方式多种方式使用多个插件进行学习和创建教育内容。Diagram插件使创建和修改任何图表变得轻松,而Wolfram允许用户使用自然语言提示轻松解决简单到复杂的数学问题。
常见问题
本文中显示的媒体不归Analytics Vidhya所有,而是由作者自行决定使用。