Learn more about Tech News - Section 24
通过MINILLM揭示人工智能的潜力:深入探讨从更大的语言模型到更小的对应模型的知识蒸馏
知识蒸馏是一种典型的策略,通过大型教师模型的监督训练小型学生模型来减少由于大型语言模型的快速发展而导致的过度计算资源...
认识TRACE:一种新的人工智能方法,使用全局坐标跟踪实现准确的三维人体姿态和形状估计
许多领域可以从最近估计的三维人体姿态和形状(HPS)的进展中受益并使用。然而,大多数方法只考虑一帧图像,估计相对于相机的...
友谊结束了,单模态已经不再是我的好朋友:CoDi是一种人工智能模型,可以通过可组合扩散实现任何到任何的生成
生成式AI是我们现在几乎每天都听到的术语。我甚至不记得我读过多少关于生成式AI的论文,并在这里总结了它们。它们令人印象深...
SalesForce AI研究员推出无需遮罩的OVIS:一种开放词汇实例分割遮罩生成器
实例分割指的是计算机视觉任务,即通过将它们视为不同的实体,将属于同一类别的多个对象在图像中进行识别和区分。在深度学习...
WAYVE 推出 GAIA-1 一种新的生成式人工智能模型,通过利用视频、文本和动作输入,创建逼真的驾驶视频,实现自主驾驶
汽车工业一直追求自动驾驶的目标,认识到其在改革交通和提高道路安全方面的潜力。然而,开发能够有效地在复杂的现实情景中导...
这篇来自谷歌的AI论文提出了一系列优化措施,通过在各种设备上执行大型扩散模型,共同实现了突破性的延迟指标
随着大型扩散模型在图像生成中变得更加普遍,模型大小和推理工作量已经大幅增长。由于资源限制,在移动环境中优化设备上的ML...
Meta AI通过Voicebox打破了障碍:一个前所未有的生成式人工智能模型——革命性地改变了语音合成领域
元学习研究人员最近在生成语音的生成AI方面取得了重大突破。他们开发了Voicebox,一种创新的AI模型,展示了最先进的性能和在...
微软研究人员提出BioViL-T:一种新颖的自我监督框架,引入了在生物医学应用中提高预测性能和数据效率的增强型技术
人工智能(AI)已经成为许多行业的重要破坏性力量,从技术企业的运营方式到如何在医疗保健领域的不同子领域中解锁创新。特别...
认识 TARDIS:一种人工智能框架,可以识别复杂空间中的奇异性,捕捉图像数据中的奇异结构和局部几何复杂性
我们从各个领域,包括科学、医学、社交媒体和教育数据中获取了大量的数据。分析这些数据是至关重要的。随着数据量的增加,从...
来自微软和加州大学圣塔芭芭拉分校的研究人员提出了LONGMEM:一种人工智能框架,使LLMs能够记忆长期历史
大型语言模型(LLMs)极大地改进了各种理解和生成任务的最新技术,彻底变革了自然语言处理。大多数LLMs通过从固定大小的本地...
本文测试了ChatGPT的幽默感:超过90%的ChatGPT生成的笑话都是同样的25个笑话
幽默可以提高人类的表现和动机,对于建立关系至关重要。它是影响心情和引导注意力的有效工具。因此,计算幽默具有极大的潜力...
认识FinGPT:一种开源的金融大型语言模型(LLMs)
由于人工智能的不断发展和进步,大型语言模型得到了增强,这对自然语言处理在各个领域产生了深刻的影响。在这场激进的颠覆中...
认识AdANNS:一种新颖的框架,利用自适应表示来改善ANNS管道不同阶段的准确度-计算权衡
为了获取与给定查询相似的信息,大规模的网络搜索引擎会训练一个编码器来包含查询,然后将编码器连接到一个近似最近邻搜索(A...
认识AnythingLLM:一款全栈应用程序,将您的内容转化为丰富的数据,以增强大型语言模型LLMs的相互作用
自OpenAI革命性的ChatGPT发布以来,人工智能领域,特别是大型语言模型(LLMs)方面的项目数量一直处于历史最高水平。这些项目中...
架构消融和蒸馏:AI文本到图像扩散模型高效压缩的路径
文本到图像扩散模型代表了一种开创性的方法,用于从文本提示生成图像。它们利用深度学习和概率建模的力量,捕捉语言和视觉概...
AI看到你看到的:Mind’s Eye是一种AI模型,可以将脑部扫描重建成图像
我们一直被理解大脑如何运作的挑战所吸引。神经科学领域已经取得了很大的进展,但我们仍然缺乏关于我们的大脑如何工作的可靠...
MIT研究人员提出了“简单伪标签编辑(SimPLE)”算法,以提高自训练中伪标签质量
麻省理工学院计算机科学与人工智能实验室的研究人员开发了一种新颖的方法来解决自然语言理解中大型语言模型(LLMs)所面临的...
认识 ChatDB:一种将符号内存以数据库形式添加到 LLMs 中的框架
大型语言模型(LLMs),例如GPT-4和PaLM 2,已经成为当代人工智能系统的重要组成部分,彻底改变了它们对自然语言处理的理解并...
探索指令调整语言模型:见识 Tülu-一套经过微调的大型语言模型(LLMs)套件
由OpenAI开发的著名ChatGPT是最近发布的大型语言模型(LLMs)的最佳示例之一。像ChatGPT这样的LLMs以其无可比拟的潜力和模仿...
微软人工智能推出鲸鱼(Orca):一个拥有130亿参数的模型,学习模仿大型基础模型(LFMs)的推理过程
大型基础模型(LFMs)如ChatGPT和GPT-4所展示的惊人的零样本学习能力引发了一个问题:这些模型是否可以在最小的人类干预下自...
- You may be interested
- 在2023年建造一个简单的人工智能应用程序...
- 中国上海交通大学的研究人员介绍了TransLO...
- 评估工业应用中大型语言模型的4个关键因素
- UCI和哈佛研究人员推出了TalkToModel,它...
- 为什么你几乎不能在家用Python计算出十亿...
- 莱斯大学和印度理工学院坎普尔校区宣布合...
- 大规模生物分子动力学的深度学习:哈佛大...
- 通过MM-VID解锁先进的AI视频理解,为GPT-4...
- 赫瑞瓦特大学和Alana AI的研究人员提出了F...
- 使用FastAPI和Docker为PyTorch模型提供服务
- OpenAI发布6项令人兴奋的ChatGPT功能,彻...
- “蒸馏低语:AI语音转文字技术的进展”
- 开始运行统计测试所需的基础概念初步介绍
- 如何使用Matplotlib创建一个口红图表
- 科学家利用人工智能和快速反应脑电图改善...