AI本周动态,2023年7月31日:

AI动态,2023年7月31日:

 

欢迎来到VoAGI的首个”This Week in AI”版。这个每周精选的帖子旨在让您了解人工智能领域中最引人注目的发展。从影响我们对人工智能在社会中角色的开创性头条新闻到发人深省的文章、富有洞见的学习资源和突破我们知识边界的研究,这个帖子提供了对当前人工智能领域的全面概览。暂且不深入具体细节,但请期待探索各种多样的主题,反映了人工智能的广阔和动态本质。请记住,这只是将来许多每周更新中的第一个版本,旨在让您在这个不断发展的领域中保持更新和了解。请继续关注,祝阅读愉快!

 

头条新闻

  “头条新闻”栏目讨论了过去一周人工智能领域的热点新闻和发展动态。这些信息涉及政府的人工智能政策、技术进步和企业在人工智能领域的创新。

💡 AI巨头承诺在拜登-哈里斯政府领导下负责任地创新

拜登-哈里斯政府已经获得来自七家领先的人工智能公司(亚马逊、Anthropic、谷歌、Inflection、Meta、微软和OpenAI)的自愿承诺,以确保人工智能技术的安全、安全和透明发展。这些承诺强调了对人工智能未来的三个基本原则:安全、安全和信任。这些公司同意在发布之前对其人工智能系统进行内部和外部安全测试,分享管理人工智能风险的信息,并投资于网络安全。他们还承诺开发技术机制,确保用户知道内容是由人工智能生成的,并公开报告他们的人工智能系统的能力、限制以及适当和不适当使用的领域。这一举措是拜登-哈里斯政府更广泛承诺的一部分,旨在确保人工智能的安全和负责任发展,保护美国人民免受伤害和歧视。

  💡 Stability AI发布稳定鲸鱼:新的语言模型巨头

Stability AI及其CarperAI实验室宣布推出稳定鲸鱼1号和稳定鲸鱼2号,两个强大的开放访问的大型语言模型(LLM)。这些模型在各种基准测试中展示出卓越的推理能力,分别基于原始的LLaMA 65B和LLaMA 2 70B基础模型进行了微调。这两个模型都使用标准Alpaca格式的人工合成数据集进行了有监督的微调训练。稳定鲸鱼模型的训练灵感来自微软在其论文“Orca: Progressive Learning from Complex Explanation Traces of GPT-4”中使用的方法。尽管训练样本量只有原始Orca论文的十分之一,但稳定鲸鱼模型在各种基准测试中展现出了出色的性能。截至2023年7月27日,稳定鲸鱼2号是榜首模型,稳定鲸鱼1号排名第四。

  💡 Spotify首席执行官暗示未来AI驱动的个性化和广告能力

在Spotify的第二季度收益电话会议上,首席执行官丹尼尔·埃克暗示可能引入额外的AI功能到流媒体服务中。埃克提到AI可以用于创建更个性化的体验、概括播客内容和生成广告。他强调了最近推出的DJ功能的成功,该功能可以在音乐旁边提供由AI提供的评论。埃克还提到了使用生成式AI概括播客的潜力,使用户更容易发现新内容。此外,埃克讨论了AI生成的音频广告的可能性,这可以大幅降低广告商开发新广告格式的成本。这些评论出现在Spotify寻求专利的同时,该专利涉及一种AI驱动的“文本转语音合成”系统,可以将文本转换为具有情感和意图的类似人类的语音音频。

 

文章

  “文章”栏目呈现了一系列关于人工智能的发人深省的文章。每篇文章深入探讨了特定主题,为读者提供了关于人工智能的各个方面的见解,包括新技术、革命性方法和开创性工具。

📰 ChatGPT代码解释器:几分钟内进行数据科学

这篇VoAGI文章介绍了ChatGPT的代码解释器插件,这是一个可以分析数据、编写Python代码和构建机器学习模型的工具。作者Natassha Selvaraj演示了该插件如何用于自动化各种数据科学工作流程,包括数据摘要、探索性数据分析、数据预处理和构建机器学习模型。代码解释器还可以用于解释、调试和优化代码。Natassha强调,尽管这个工具功能强大高效,但应将其作为数据科学任务的基线使用,因为它缺乏领域特定知识,并且无法处理驻留在SQL数据库中的大型数据集。Natassha建议初级数据科学家和有志成为数据科学家的人应该学习如何利用像代码解释器这样的工具,使他们的工作更加高效。

📰 教科书是你所需要的一切:AI培训的革命性方法

这篇VoAGI文章讨论了微软研究员提出的一种新的AI培训方法,该方法使用合成教科书而不是大规模数据集。研究人员完全使用一本定制教科书训练了一个名为Phi-1的模型,并发现它在Python编码任务上表现出色,尽管它比GPT-3等模型要小得多。这表明训练数据的质量可能与模型的大小一样重要。当使用合成练习和解决方案进行精细调整时,Phi-1模型的性能也得到了提高,这表明有针对性的精细调整可以增强模型在特定训练任务之外的能力。这意味着这种基于教科书的方法可以通过将重点从创建更大的模型转向策划更好的训练数据来改变AI培训的方式。

📰 最新的提示工程技术将不完美的提示巧妙地转化为使用生成AI的出色交互

这篇文章讨论了一种提示工程的新技术,鼓励使用不完美的提示。作者认为追求完美的提示可能会适得其反,实际上,追求“足够好”的提示更加实用。生成AI应用程序使用概率和统计方法解析提示并生成响应。因此,即使多次使用相同的提示,AI也可能每次都产生不同的响应。作者建议用户利用不完美的提示并将它们聚合在一起以创建有效的提示,而不是追求完美的提示。文章引用了一项名为“请问我什么:一种将不完美的提示转化为强大的策略”的研究,该研究提出了一种通过聚合多个有效但不完美的提示的预测来将不完美的提示转化为强大的提示的方法。

学习资源

学习资源部分列出了对于渴望扩展他们在AI领域的知识的人来说有用的教育内容。这些资源既包括全面的指南,也包括专门的课程,适用于AI领域的初学者和经验丰富的专业人士。

📚 Cohere的LLM大学:进入大型语言模型的世界的门户

Cohere的LLM大学是一个全面的学习资源,专为对自然语言处理(NLP)和大型语言模型(LLM)感兴趣的开发人员设计。课程旨在为NLP和LLM提供坚实的基础,然后在此基础上发展实际应用。课程分为四个主要模块:“什么是大型语言模型?”,“使用Cohere端点的文本表示”,“使用Cohere端点的文本生成”和“部署”。无论您是新的机器学习工程师还是寻求扩展技能的经验丰富的开发人员,Cohere的LLM大学都提供了关于NLP和LLM世界的全面指南。

研究亮点

研究亮点部分突出了人工智能领域中的重要研究。该部分包括突破性研究,探索新理论,并讨论人工智能领域的潜在影响和未来发展方向。

🔍 大型语言模型在数据科学教育演变中的角色

题为“大型语言模型在数据科学教育演变中的角色”的研究论文讨论了大型语言模型(LLM)对数据科学家角色和责任的转变性影响。作者认为LLM的兴起正在将数据科学家的重点从实际编码转移到管理和评估由自动化AI系统执行的分析任务上。这种转变需要数据科学教育的重大演变,更加强调培养学生的多种技能。这些技能包括受LLM启发的创造力、具有AI引导的编程、批判性思维和跨学科知识。

作者还提出,LLM可以作为互动教学和学习工具在课堂中发挥重要作用。它们可以促进个性化教育并丰富学习体验。然而,将LLM整合到教育中需要仔细考虑,以平衡LLM的好处,同时培养互补的人类专业知识和创新。该论文建议,数据科学教育的未来很可能涉及人类学习者和AI模型之间的共生关系,两者可以相互学习并增强彼此的能力。