Learn more about Applications - Section 5

中国的这篇AI论文介绍了“Monkey”:一种新颖的人工智能方法,可提高大型多模态模型中的输入分辨率和上下文关联性

“` 大型多模型在处理和分析文本和图片等各种数据方面的能力使其变得越来越受欢迎。学者们已经注意到它们在各种多模态活...

《人文释放克劳德2.1:通过扩展上下文窗口和提高准确性,革新企业人工智能》

虽然存在各种各样的AI模型,但Anthropic最近发布的Claude 2.1解决了一些流行问题。与之前的模型不同,该模型拥有一个卓越的20...

Microsoft研究员提出的PIT(排列不变转换) 用于动态稀疏的深度学习编译器

最近,深度学习在研究针对动态稀疏性优化模型方面取得了巨大的进展。在这种情况下,稀疏模式只在运行时显示,对高效计算构成...

伦理苏黎世研究人员推出UltraFastBERT:一种使用0.3%的神经元进行推理,并在性能上与类似的BERT模型相媲美的BERT变体

瑞士苏黎世联邦理工学院的研究人员开发的UltraFastBERT解决了在推理过程中减少使用的神经元数量的问题,同时保持与其他模型相...

重新定义变形金刚:如何使用简单的前馈神经网络模拟注意机制以进行高效的序列到序列任务

来自苏黎世联邦理工学院的研究人员分析了利用标准浅层前馈网络来模拟变形器模型的注意机制的有效性,变形器模型是一种用于序...

加州大学圣地亚哥分校的研究人员推出了EUGENe:一种易于使用的深度学习基因组学软件

深度学习在生活的各个领域中被使用。它在各个领域都有其实用性。它对生物医学研究产生了重大影响。它就像一个智能计算机,可...

如何高效培训您的LLM?小规模实施的最佳实践

在关于大型语言模型(LLM)的最新进展的日常新闻洪流中,您可能会问:“我该如何训练我自己的模型?”如今,针对您特定需求的LL...

认识 PhysGaussian:一种将物理基础的牛顿动力学与三维高斯函数相融合,产生高质量新型动作合成的人工智能技术

最近,神经辐射场(NeRFs)的进展展示了3D图形和感知方面的进步。此外,最先进的3D高斯喷溅(GS)框架进一步增强了这些改进。...

“Inflection 推出 Inflection-2:全球最佳的 AI 模型,针对其计算类别和当今世界上第二最具能力的 LLM”

Inflection AI开发了一种具有最佳效果的大型语言模型。该公司表示,它的模型Inflection-2在全球排名第二,仅次于OpenAI的最新...

加州大学伯克利分校研究人员提出CRATE:一种用于深度学习中高效数据压缩和稀疏化的新型白盒变换器

近年来,深度学习在处理和建模大量高维和多模态数据方面的实际成功取得了指数级的增长。在这一成就中,深度网络发现数据中可...

斯坦福研究人员推出了BLASTNet:第一个用于基础流体动力学的大型机器学习数据集

斯坦福研究人员推出了一项被称为BLASTNet的突破性技术,开启了计算流体动力学(CFD)新时代。然而,这只是一个概念验证,并不...

请查看这个名为“游戏之子(SoG)”的新人工智能系统,它能够在各种游戏中击败人类,并学会玩新游戏

利用游戏作为人工智能绩效指标的传统已有很长历史。在各种完全信息游戏中,搜索和基于学习的方法表现良好,而基于博弈论的方...

中国的这项AI研究探索了人工智能的错觉心智:深入剖析大型语言模型中的幻觉

近年来,大型语言模型在自然语言处理领域引起了一场范式变革,带来了以往未曾有的语言创建、理解和推理的进步。然而,与LLM的...

这项AI研究提出了随机切片混合数据增强(RSMDA)来提高图像分类的新方法:一种增强神经网络准确性和鲁棒性的创新方法

数据增强是深度学习中的关键技术,它通过修改现有样本来创建新的训练数据。数据增强非常重要,因为它使训练数据多样化,提高...

这篇AI论文介绍了一种开创性的机器学习模型,用于高效预测氢燃烧:利用负设计和反应化学中的元动力学

势能表面(PES)代表原子或分子位置与与其相关的势能之间的关系。PES在理解分子行为、化学反应和材料性质方面至关重要。它们...

这项人工智能研究提出了可驾驶的三维高斯头像(D3GA):首个使用高斯喷点渲染人体的可控三维模型

印象派艺术运动是由19世纪的无名画家、雕塑家、版画家等创立的,其特点是“短小、断续的笔触,几乎无法传达形式”。最近的研究...

NVIDIA AI研究人员提出了Tied-Lora:一种新的人工智能方法,旨在提高低秩适应(LoRA)方法的参数效率

Nvidia的一组研究人员开发了一种名为Tied-LoRA的新技术,旨在提高低秩自适应(LoRA)方法的参数效率。该方法采用权重绑定和选...

增强连接性:边缘计算在物联网中的复兴

边缘计算和物联网结合实现实时效率、带宽优化和创新挑战仍然存在,但人工智能和机器学习的整合呼唤着