Learn more about AI Shorts - Section 12
这篇AI论文介绍了Lemur和Lemur Chat,用于使自然语言和代码相协调,用于语言代理人
在广义上,智能代理是拥有感知、判断和行动能力的自主问题解决者,这些能力是基于从周围环境中收集的数据所建立的。最近对这...
揭示AI透明度:Anthropic的特征分组如何增进神经网络的可解释性
在最近的一篇论文《Towards Monosemanticity: Decomposing Language Models With Dictionary Learning》中,研究人员解决了理...
认识LLMWare:一种全能人工智能框架,用于整合基于LLM的生成式人工智能应用开发
尽管在过去一年大型语言模型LLMs引起了广泛关注,但许多企业仍在努力实现生成式人工智能的全部潜力,原因是将LLMs整合到现有...
能够语言模型取代程序员吗?来自普林斯顿大学和芝加哥大学的研究人员引入了SWE-bench:一种评估框架,通过GitHub上解决实际问题来测试机器学习模型
评估语言模型在解决现实世界软件工程挑战中的能力对于它们的进展至关重要。SWE-bench 是一个创新的评估框架,利用 Python 代...
Google Quantum AI展示了3个案例研究,探索与药物学、化学和核能相关的量子计算应用
各行各业都对量子计算的变革潜力赞不绝口,但其在有限大小问题上的实用性仍存在疑问。谷歌量子AI的合作研究旨在确定量子计算...
“遇见Decaf:一种面部和手部互动的新型人工智能单目变形捕捉框架”
“`html 三维立体(3D)跟踪是计算机视觉和人工智能领域的前沿领域。它专注于仅利用单个二维视频流来估计物体或场景的三...
耶鲁大学和谷歌的研究人员引入HyperAttention:一种加速大型语言模型以实现高效长距离序列处理的近似注意力机制
大型语言模型的快速发展为自然语言处理的突破铺平了道路,使得从聊天机器人到机器翻译等各种应用成为可能。然而,这些模型在...
这篇AI论文提出了一种基于NeRF的测绘方法,可以在边缘计算机上实现更高质量的重建和实时能力
在这篇论文中,研究人员介绍了一种名为H2-Mapping的基于NeRF的映射方法,旨在解决实时应用(如机器人技术、增强现实/虚拟现实...
糖霜AI发布了一套搭配图像和文本的自由创作许可的糖霜-25M数据集
处理和分析大量数据被称为大规模数据处理。它涉及提取有价值的见解,做出明智的决策和解决复杂问题。它在包括商业、科学、医...
认识POCO:一种新颖的人工智能框架,用于3D人体姿势和形状估计
从照片和移动图片中估计3D人体姿势和形状(HPS)是重建真实世界环境中的人体动作所必需的。然而,从2D图像中推断3D有很大的挑...
这篇AI研究提出了FireAct:一种新颖的人工智能方法,利用来自多个任务和代理方法的轨迹来微调语言模型
微调语言模型通常被忽视,用于创建语言代理,特别关注通过使用Google搜索API来增强它们在问答任务中的能力。System2 Research...
苹果和卡耐基梅隆大学的研究人员发布了永无止境的用户界面学习者:通过持续的机器学习改变应用程序的可访问性
机器学习在各个领域中的应用越来越广泛。它被广泛应用于包括用户界面(UI)在内的所有行业中,对于预测语义数据至关重要。这...
“多语言人工智能真的安全吗?揭示低资源语言中大型语言模型的漏洞”
GPT-4默认回答“抱歉,我无法提供帮助”以回应与政策或道德限制相违背的请求。当大型语言模型(LLMs)用于用户界面应用程序如聊...
“压缩检索文档能提升语言模型性能吗?这篇人工智能论文介绍了RECOMP:利用压缩和选择性增强改善检索增强的语言模型”
“`html 优化性能并同时管理计算资源是在日益强大的语言模型时代中的一个关键挑战。德克萨斯大学奥斯汀分校和华盛顿大学...
变形金刚如何处理较长的输入?卡内基梅隆大学和谷歌研究员揭示了一种新的方法(FIRE):相对位置编码的功能插值
基于Transformer的语言模型近年来提升了自然语言处理(NLP)领域。它们能够理解和生成类似人类的文本,为多个NLP任务带来了突...
大规模语言模型真的可以表演和推理吗?来自伊利诺伊大学厄巴纳-香槟分校的研究人员推出了LATS以提升决策能力
LLM(Language model)已经证明在推理和决策任务中具有重要价值。它们擅长将复杂的问题分解为顺序步骤,但通过自一致性和多步...
我们如何有效地压缩具有一位权重的大型语言模型?这项人工智能研究提出了PB-LLM:探索部分二进制化LLM的潜力
在大型语言模型(LLM)中,部分二值化LLM(PB-LLM)是一种先进的技术,可在不损害语言推理能力的情况下实现极低比特量化。PB-...
普林斯顿大学和Meta AI的研究人员介绍了MemWalker:一种首先将长文本处理成摘要节点树的新方法
采用了自注意力机制和模型规模和预训练数据的增加导致了大型语言模型(LLM)取得了显著进展。随着LLM的容量逐渐改善,用户更...
我们能把文本转化为科学矢量图吗?这篇人工智能论文介绍了AutomaTikZ并解释了TikZ的力量
最近,文本到图像生成的发展使得从简单的自然语言描述中创建详细的图形成为可能。使用稳定扩散(Stable Diffusion)和DALL-E...
一个新的AI研究通过计算机视觉揭示了锂离子电池的秘密
数十亿微小的粒子密集堆积在可充电锂离子电池电极中,起着存储和供应能量的关键作用。通过X射线电影对这个过程进行可视化提供...
- You may be interested
- 使用新的Amazon Kendra Alfresco连接器对...
- 加利福尼亚洛杉矶大学和卡内基梅隆大学的...
- 世界卫生组织发布了关于监管医疗人工智能...
- 探索高级生成式人工智能 | 条件变分自编码器
- Google DeepMind介绍了直接奖励微调(DRaFT...
- 不是 NeRF 需要的英雄,但是是 NeRF 需要...
- “什么是绿色洗白,以及我们如何使用分析来...
- 6 个免费实用的LLM笔记本帮助您开始进行LL...
- 在Power BI中开发和测试RLS规则
- QA-LoRA:在你的GPU上对一个量化的大型语...
- Hugging Face上的推理解决方案概述
- 探究区别:网站论文写作 vs. 人工智能
- 10个适用于数据科学备忘单的ChatGPT插件
- 这个基于人工智能的蛋白质语言模型可以解...
- “我们会解决幻觉问题,” Sam Altman说道