Learn more about Editors Pick - Section 15

麻省理工学院和香港中文大学的研究人员提出了LongLoRA(长期低秩适应):一种用于长上下文大语言模型(LLMs)的高效微调AI方法

大型语言模型(LLMs)的引入对人工智能领域带来了显著的进展。基于自然语言处理(NLP)、自然语言理解(NLU)和自然语言生成...

面对 LMSYS-Chat-1M:一个包含2500万条与25个最先进的LLM进行的真实世界对话的大规模数据集

大型语言模型(LLMs)已经成为各种人工智能应用的重要组成部分,从虚拟助手到代码生成。当与LLMs互动时,用户会根据不同的目...

这篇AI论文介绍了RMT:RetNet和Transformer的融合,开创了计算机视觉效率和准确性的新时代

在自然语言处理(NLP)领域首次亮相后,Transformer被转移到计算机视觉领域,并取得了显著的效果。与此不同的是,最近NLP界对...

清华大学研究人员推出OpenChat:一种新型的人工智能AI框架,通过混合质量数据增强开源语言模型

在快速发展的自然语言处理领域中,大型语言模型的能力已经成倍增长。全球的研究人员和机构不断推动这些模型的界限,以改善它...

这篇来自微软的AI论文介绍了一种新的训练语言模型的方法:模仿人类阅读理解,提高生物医学、金融和法律领域的性能表现

由于普通大型语言模型(LLM)过度饱和,领域特定的大型语言模型应运而生。现有的方法可划分为三大类别。第一种是使用通用和领...

用LangChain、Google Maps API和Gradio构建智能行程建议器(第一部分)

自从2022年底ChatGPT推出以来,对大型语言模型(LLM)及其在面向消费者的产品中(如聊天机器人和搜索引擎)的应用,产生了爆...

抖音推出AI标注工具,用于AI生成的内容

近年来,AI生成内容的爆发开启了创意表达的新领域。然而,这股合成媒体的激增也引发了观众对透明度和理解的担忧。本周,TikTo...

在视觉Transformer中的ReLU与Softmax:序列长度是否重要?来自Google DeepMind研究论文的见解

一个常见的机器学习架构是变压器架构。变压器的主要部分之一是注意力,它具有生成跨标记的概率分布的softmax。由于指数计算和...

大型语言模型令编译器优化的元AI研究人员感到惊讶!

“我们以为这篇论文会讲述LLM显而易见的缺陷,以激发未来克服这些缺陷的新思路。但是我们完全被惊讶地发现,训练充分的LLM不仅...

图像匿名化如何影响计算机视觉性能?探索传统与现实匿名化技术

图像匿名化是通过遮蔽可识别特征来保护个人隐私的一种方式。随着数字时代的进展,保护图像中的个人数据的需求越来越迫切。然...

斯坦福大学的研究介绍了PointOdyssey:一个用于长期点跟踪的大规模合成数据集

大规模注释的数据集已经成为各种计算机视觉任务中创建精确模型的高速公路。他们希望在这项研究中提供这样一条高速公路,以实...

Google DeepMind推出一种新的AI工具,可以对7100万个“错义”突变的影响进行分类

人类遗传学面临的最大挑战可以说是人类基因组的复杂性以及对健康和疾病有贡献的大量遗传因素的多样性。人类基因组由30亿个碱...

解锁电池优化:机器学习和纳米级X射线显微镜技术如何改变锂电池

一项开创性的倡议从著名研究机构中涌现出来,旨在揭开锂离子电池复杂的奥秘。研究人员采用创新的方法,利用机器学习精确地分...

东京大学的研究人员引入了一种新技术,用于保护基于人工智能的敏感应用程序免受攻击

近年来,人工智能(AI)的快速发展导致其在计算机视觉、音频识别等各个领域的广泛应用。这种使用的激增已经彻底改变了产业,...