Learn more about AI Shorts - Section 28
麻省理工学院、哈佛大学和东北大学的“在一堆干草中寻找神经元”倡议采用了稀疏探测的方法
通常人们认为神经网络是可调整的“特征提取器”,它通过逐步从初始原始输入中细化适当的表示来学习。因此,问题就出现了:正在...
“LLM能够在您的iPhone上运行吗?认识MLC-LLM:这是一个开放框架,可以直接将语言模型(LLMs)带入一类带有GPU加速的平台”
大型语言模型(LLM)是人工智能领域当前的热门话题。在医疗保健、金融、教育、娱乐等广泛行业中已经取得了相当程度的进展。著...
一种新的人工智能理论框架,用于分析和限制机器学习模型中的信息泄漏
由于机器学习算法在复杂和敏感问题中的应用,ML算法引发了隐私和安全问题的关注。研究表明,ML模型可能通过攻击泄漏敏感信息...
扩散模型在图像分类中胜过生成对抗网络(GANs):这项人工智能研究发现,扩散模型在分类任务中表现优于类似的生成-判别方法,如BigBiGAN
学习统一、无监督的视觉表示是一项关键但困难的任务。许多计算机视觉问题可以分为两个基本类别:判别式或生成式。通过判别式...
一项新的AI研究提出了一种以提示为中心的方法来分析大型语言模型(LLMs)的能力
近年来,大型语言模型(LLMs)的使用急剧增长,彻底改变了自然语言处理(NLP)领域,尤其是促使LLMs生成开放式文本。开放式文...
“见梦境摄影棚:一种用于主题驱动的文本到图像生成的人工智能技术”
想象一下你的四足朋友在外面玩耍,或者你的汽车在独家展厅展示。创建这些虚构的场景是非常具有挑战性的,因为它需要将特定主...
这篇AI论文提出了一种名为Cones的新型基于梯度的方法,用于分析和识别扩散模型中的概念神经元
大脑的复杂结构使其能够执行令人惊叹的认知和创造性任务。根据研究,人类内侧颞叶的概念神经元对给定刺激的语义特征有不同的...
一项新的人工智能研究引入了多任务提示调整(MPT)来进行迁移学习
预训练语言模型(PLMs)通过微调在许多下游NLP任务上取得了显著的改进。虽然当前的PLMs可能包含数亿个参数,但传统的完全任务...
内盖夫本古里安大学的研究人员设计了一个能够识别社会规范违规行为的人工智能系统
《APA心理学词典》对社会规范进行了全面的定义,将其定义为在特定社会背景下指示典型和适当行为的社会确定标准。这些规范可能...
遇见Prismer:一个由专家组成的开源视觉语言模型的集合
最近有几种最新的视觉语言模型展示出了非凡的多模态生成能力。但通常情况下,这些模型需要在庞大的数据集上训练庞大的模型。...
“人类草图对于目标检测有什么作用?基于草图的图像检索的洞察”
自史前时代以来,人类一直使用素描来传达和记录思想。即使在语言存在的情况下,它们仍然无与伦比地具有表现力。想象一下当你...
斯坦福大学的研究人员开发了一种名为“RoentGen”的人工智能(AI)模型,该模型基于稳定扩散,并在大型胸部X射线和放射学数据集上进行了微调
潜在扩散模型(LDMs)是去噪扩散模型的一个子类,最近因为能够以高保真度、多样性和分辨率生成图像而变得重要。这些模型在推...
像一个注释者一样深入思考:数据集标注指南的生成
我们都对最近在AI模型方面的进步感到惊讶。我们看到生成模型如何革新,从一个时髦的图像生成算法到AI生成的内容与真实内容几...
遇见CHARM:一种新的人工智能工具,可在手术中解码脑癌基因组,实时进行肿瘤分析
在一项开创性的研究中,哈佛研究人员揭示了一种人工智能(AI)工具,能够在手术过程中快速解码脑肿瘤的DNA,提供关键信息,这...
我们知道LLMs可以使用工具,但你知道它们也可以制造新的工具吗?来认识一下LLMs作为工具制造者(LATM):一个闭环系统,允许LLMs制造自己的可重复使用工具
大型语言模型(LLMs)在广泛的自然语言处理任务中表现出色,并显示出实现某些人工智能普适特征的鼓舞人心证据。最近的研究还...
这篇AI论文提出了保留网络(RetNet)作为大型语言模型的基础架构:实现训练并行性、低成本推理和良好的性能
Transformer(变压器)最初是为了解决循环模型中的顺序训练问题而开发的,后来被公认为大型语言模型的事实标准架构。变压器的...
意大利的一项新的人工智能研究介绍了一种基于扩散的生成模型,能够同时进行音乐合成和音源分离
人类有能力同时处理多个声音源,无论是在音乐作曲或合成与分析,即源分离方面。换句话说,人脑可以从混合物中分离出单个声音...
微软和哥伦比亚大学的研究人员提出了LLM-AUGMENTER:一种人工智能系统,它通过一组即插即用的模块增强黑盒LLM
大型语言模型(LLMs)如GPT-3因其丰富的世界知识而被广泛认可,能够生成连贯和信息丰富的自然语言文本。然而,将这些知识编码...
斯坦福大学和DeepMind的研究人员提出了使用大型语言模型(LLMs)作为代理奖励函数的想法
随着计算和数据的发展,自主代理获得了更多的力量。在这种情况下,人们有必要对代理学习的策略进行一定程度的干预,并检查它...
斯坦福研究院推出FlashAttention-2:为长上下文语言模型带来速度和效率的飞跃
在过去的一年中,自然语言处理领域取得了显著的进展,因为出现了具有更长上下文的语言模型。其中包括具有32k上下文长度的GPT-...
- You may be interested
- 3D建模借助人工智能
- 使用StarCoder创建一个编码助手
- 微软的新人工智能方法可以预测分子的运动...
- “山姆·奥尔特曼被开除,不再担任OpenAI的...
- ‘What The Duck’ 已不再
- 如何成为Power BI开发人员?
- AI帮助机器人用全身来操作物体
- 如何通过正确的奖励机制产生不希望的目标
- 埃隆·马斯克宣布成立xAI公司,专注于人工智能
- 小型语言模型能够提供高性能吗?认识一下S...
- 扩散模型直播活动
- 如果你是一名数据科学家,你需要了解有关...
- 这项人工智能研究解决了在持续学习环境中...
- ChatGPT会取代数据科学家吗?
- Meta AI的另一个革命性大规模模型——DINOv2...