这个AI通讯简报是你所需要的一切 #69

这里有你所需的一切:AI通讯简报第69期

Louie带你了解本周AI世界的大事

谷歌加入微软和Adobe的阵营,宣布他们将致力于保护使用其AI服务的用户免受知识产权侵权的潜在诉讼,前提是这些用户使用的是谷歌云(Vertex AI)和工作空间(Duet AI)平台。然而,新闻稿未提及AI聊天机器人Bard,并明确表示不会将其保护范围扩展到用户故意试图“侵犯他人权益”的情况。虽然通常与AI相关的诉讼主要集中在实施该技术的公司上,而非使用平台的终端用户,但对于企业将谷歌AI服务纳入其产品来说,这仍然是明智的一种保障。

在其他新闻中,XLANG Lab推出了Lemur-70B以及其聊天变体,旨在开发一个在文本生成、编码能力和代理任务方面表现出色的模型。这使其与其他通常专注于其中一个领域的开源模型有所不同。该概念围绕着一个观念展开,即要使一个代理在推理和执行现实任务方面表现卓越,它必须在语言理解和编码技能方面表现出高水平的准确性。他们使用一个90B标记数据集预训练了LLaMA-2模型,该数据集在文本和编码样本之间保持1比1的比例,以创建Lemur模式。然后,他们使用包含30万个示例的数据集进行了有监督微调,以微调模型,从而开发出了Lemur-Chat。该模型在性能上可以超越其他开源模型,并实现类似于GPT-3.5的表现。他们还提供了他们的代码和最重要的数据集,这将有助于推动该领域的发展。

– Louie Peters — Towards AI联合创始人和首席执行官

感谢AI基础设施联盟,为您带来本期内容:

AI基础设施联盟刚刚发布了一个关于代理、LLM和智能应用的大型技术指南。它涵盖了提示工程、像LlamaIndex、LangChain和语义内核这样的主要框架,向量数据库、微调、开源和闭源模型、常见应用设计模式、LLM逻辑和推理等内容。GPT创造了当前生成AI的热潮,但那些能完成实际工作的应用将释放出下一波AI软件的潜力,而这个指南将帮助您开始构建这些应用。

立即获取您的免费副本!

Towards AI AI导师正式发布

上周,我们发布了我们的LLM课程。我们很高兴地宣布另一个相关项目:我们自己的AI导师

凭借Towards AI出版物中发布的成千上万篇文章,我们的LangChain和LLM课程的内容,并且还有其他优秀的资源,如Huggingface Transformers和维基百科,我们能够构建一个强大的检索增强生成(RAG)聊天机器人,它可以回答任何与AI相关的问题,并且甚至能够引用其信息来源!

RAG是一种降低产生幻觉风险并提供引用聊天机器人所分享知识的方法,让您能够深入了解并学习更多知识。所以,构建这样一个AI导师所需的唯一条件就是一个出色的聊天机器人(GPT)、一个伟大的知识库(Towards AI)和一些努力工作。

我们很高兴宣布它已经上线并免费提供!请尝试并给我们反馈,告诉我们如何改进!回答的内容过于简短、过于详细、错误的信息来源等等…帮助我们为您打造更好的服务!我们计划不断改进并保持免费为我们所有的学生提供服务!

试用我们的问答(Q&A)聊天机器人,为与LLM有关的任何问题提供答案,这是为GenAI 360套件构建的!

最热新闻

1.AI刚刚成功解读了一卷未展开的古希腊卷轴

来自内布拉斯加大学林肯分校的一名21岁学生使用人工智能解读了公元79年维苏威火山爆发后发现的一卷未展开的古希腊卷轴中的希腊字母。这名学生使用机器学习算法成功识别出了超过10个希腊字符,包括意为“紫色”的“porphyras”,并赢得了维苏威挑战赛。

2. Google将为生成式人工智能用户辩护,防止侵权索赔

Google加入了其他科技巨头,为其Google Cloud和Workspace平台上的生成式人工智能系统用户提供保护,以防被指控侵犯知识产权。尽管它们为软件(如Vertex AI和Duet AI)提供赔偿保障,但不包括故意进行侵权的内容操纵。

3. 介绍Lemur:用于语言代理的开源基础模型

XLANG实验室推出了名为Lemur-70B的新型开源LLM。它在代理基准测试中超越了其他模型,在语言和编码任务上表现出色。它在代码任务上的表现水平接近于GPT-3.5-turbo,缩小了商业模型在代理能力上的差距。

4. ChatGPT手机应用程序上个月创造了458万美元的收入纪录,但增长放缓

ChatGPT手机应用程序在9月份在全球范围内创造了下载和收入的纪录,共计1560万次下载,收入达460万美元。然而,增长率从30%下降到20%,表明ChatGPT+订阅每月19.99美元可能面临市场饱和。

五个5分钟读物/视频,助你继续学习

1.免费课程:训练和优化生产级LLM

该免费课程介绍了关于训练和优化生产级LLM的主题,包括LLM的介绍,理解Transformer和GPT架构,训练和优化LLM,使用RLHF改进LLM,以及部署LLM。

2. GPT-4的推理能力辩论

推理和问题解决能力仍然是像GPT这样的LLM关注的主题。本文介绍了GPT-4在面对谜题和逻辑题时如何模拟人类的推理能力。然而,偏见和幻觉可能影响其判断。

3.优化ChatGPT的自动生成摘要能力,超越GPT-4

研究人员发现,通过使用用GPT-4和CoD提示技术创建的合成数据集,GPT3.5在新闻文献摘要方面超越了GPT-4。这个经过优化的GPT3.5版本不仅速度提高了11倍,而且与GPT-4零-shot相比,成本效益提高了63%,同时仍然实现了类似的性能。

4. 7个减小大型语言模型的幻觉和偏见的技巧

本文深入探讨了减轻大型语言模型中的幻觉和偏见的策略。它讨论了对抗LLM这种倾向的一些技巧,例如推理参数调整、提示工程以及更高级的技术,以增强LLM的可靠性和准确性。

5. 研究人员发现LLM如何代表真理的线性结构

研究人员发现大型语言模型中存在将真实和虚假示例分开的线性结构,表明存在一个内部的“真理轴”。他们的工作提供了多个证据,表明LLM的表示可能包含一个特定的“真理方向”,表示事实真值。

论文和资料库

1.Prometheus:诱导语言模型的细粒度评估能力

Prometheus是一个开源的LLM,为大规模任务评估提供了一种经济高效的替代方案,相比GPT-4等专有LLM,使用得分标准和用户定义的指令,Prometheus展示了与GPT-4相当的性能,并且在实验结果中胜过ChatGPT等模型。

2. 微调对齐的语言模型会损害安全性,即使用户没有意图

微调LLM可能会损害其安全对齐性并带来潜在风险。即使只有少量的对抗训练示例,也会越狱模型如GPT-3.5 Turbo的安全防护措施。使用有害和良性数据集进行微调可能会无意地降低语言模型的安全对齐性。

4. SWE-bench:语言模型能否解决实际GitHub问题?

根据最近的研究,像LLM这样的语言模型在解决GitHub上的实际问题方面还有很长的路要走。专有模型如Claude 2和GPT-4只能在一个名为SWE-bench的评估框架中解决一小部分案例。

5. 检索与长上下文大型语言模型的结合

一项比较检索增强和扩展上下文窗口方法在下游任务中的研究发现,使用4K上下文窗口和简单的检索技术可以达到与16K窗口类似的性能。最佳表现的模型——检索增强的LLaMA2–70B模型,通过32K窗口,在问答和摘要任务中胜过GPT-3.5-turbo-16k。

喜欢这些论文和新闻摘要吗?在你的收件箱中获得每日总结

一起学AI社区版块!

本周梗图!

梗图分享自rucha8062

来自Discord的精选社区帖子

Hassan_0707创建了Oria Windows,使用户可以通过OpenAI控制他们的个人电脑。它将Open Interpreter和ChatGPT集成到Windows环境中,提供自动化、数据操作、网页抓取和自然语言理解的能力。在这里查看并支持社区成员!在帖子中分享你的反馈和问题.

本周AI投票!

加入Discord讨论

TAI 精选栏目

本周文章

重要的LLM论文:10月2日至10月8日,作者:Youssef Hosni

这篇文章总结了10月第一周发表的一些最重要的LLM论文。这些论文涵盖了塑造下一代语言模型的各种主题,从模型优化和扩展到推理、基准测试和性能提升。最后几节讨论了关于安全训练LLM以及确保其行为始终有益的论文。

我们的必读文章

LangChain 101:第2部分d. 用人工反馈进行LLM微调,作者:Ivan Reznikov

大型语言模型简介,作者:Abhishek Chaudhary

使用数据科学优化库存:使用Python的实践教程,作者:Peyman Kor

如果你有兴趣在Towards AI上发布内容,请查看我们的指南并注册。如果符合我们的编辑政策和标准,我们将会将您的作品发布到我们的网络上。

工作机会

LLM人工智能技术作家兼开发者 @Towards AI Inc(自由职业者/远程)

首席开源ML工程师 @亚马逊(美国/远程)

高级产品经理 – AI @Softheon(远程)

数据QA工程师 @Zyte(远程)

机器学习工程师 @Sifted.eu(远程)

ML数据助理 II @亚马逊(印度/远程)

产品经理,Hive 数据 @Hive(美国加利福尼亚州旧金山)

有兴趣在这里分享工作机会吗?请联系

如果您正在准备下一次机器学习面试,请务必查看我们领先的面试准备网站confetti

https://www.confetti.ai/