Learn more about Staff - Section 20
CMU研究人员推出BUTD-DETR:一种基于语言表达的人工智能(AI)模型,能够直接与语言表达相结合,并检测出语言表达中提到的所有物体
找到给定图像中的所有“对象”是计算机视觉的基础工作。通过创建一个类别词汇表并训练模型来识别该词汇表中的实例,可以避免“什...
「2023年顶级语音转文本人工智能工具」
智能转录软件是由人工智能和机器学习实现的最有价值的功能之一,它可以自动将音频和视频源转换为文本。这打开了无限的可能性...
稳定AI团队推出FreeWilly1和FreeWilly2:全新的开放获取大型语言模型(LLMs)
FreeWilly1及其继任者FreeWilly2是由Stability AI的CarperAI团队开发的功能强大的新开源大型语言模型(LLM)。这两个模型在使...
麻省理工学院、哈佛大学和东北大学的“在一堆干草中寻找神经元”倡议采用了稀疏探测的方法
通常人们认为神经网络是可调整的“特征提取器”,它通过逐步从初始原始输入中细化适当的表示来学习。因此,问题就出现了:正在...
“LLM能够在您的iPhone上运行吗?认识MLC-LLM:这是一个开放框架,可以直接将语言模型(LLMs)带入一类带有GPU加速的平台”
大型语言模型(LLM)是人工智能领域当前的热门话题。在医疗保健、金融、教育、娱乐等广泛行业中已经取得了相当程度的进展。著...
一种新的人工智能理论框架,用于分析和限制机器学习模型中的信息泄漏
由于机器学习算法在复杂和敏感问题中的应用,ML算法引发了隐私和安全问题的关注。研究表明,ML模型可能通过攻击泄漏敏感信息...
扩散模型在图像分类中胜过生成对抗网络(GANs):这项人工智能研究发现,扩散模型在分类任务中表现优于类似的生成-判别方法,如BigBiGAN
学习统一、无监督的视觉表示是一项关键但困难的任务。许多计算机视觉问题可以分为两个基本类别:判别式或生成式。通过判别式...
一项新的AI研究提出了一种以提示为中心的方法来分析大型语言模型(LLMs)的能力
近年来,大型语言模型(LLMs)的使用急剧增长,彻底改变了自然语言处理(NLP)领域,尤其是促使LLMs生成开放式文本。开放式文...
“见梦境摄影棚:一种用于主题驱动的文本到图像生成的人工智能技术”
想象一下你的四足朋友在外面玩耍,或者你的汽车在独家展厅展示。创建这些虚构的场景是非常具有挑战性的,因为它需要将特定主...
这篇AI论文提出了一种名为Cones的新型基于梯度的方法,用于分析和识别扩散模型中的概念神经元
大脑的复杂结构使其能够执行令人惊叹的认知和创造性任务。根据研究,人类内侧颞叶的概念神经元对给定刺激的语义特征有不同的...
一项新的人工智能研究引入了多任务提示调整(MPT)来进行迁移学习
预训练语言模型(PLMs)通过微调在许多下游NLP任务上取得了显著的改进。虽然当前的PLMs可能包含数亿个参数,但传统的完全任务...
内盖夫本古里安大学的研究人员设计了一个能够识别社会规范违规行为的人工智能系统
《APA心理学词典》对社会规范进行了全面的定义,将其定义为在特定社会背景下指示典型和适当行为的社会确定标准。这些规范可能...
遇见Prismer:一个由专家组成的开源视觉语言模型的集合
最近有几种最新的视觉语言模型展示出了非凡的多模态生成能力。但通常情况下,这些模型需要在庞大的数据集上训练庞大的模型。...
“人类草图对于目标检测有什么作用?基于草图的图像检索的洞察”
自史前时代以来,人类一直使用素描来传达和记录思想。即使在语言存在的情况下,它们仍然无与伦比地具有表现力。想象一下当你...
斯坦福大学的研究人员开发了一种名为“RoentGen”的人工智能(AI)模型,该模型基于稳定扩散,并在大型胸部X射线和放射学数据集上进行了微调
潜在扩散模型(LDMs)是去噪扩散模型的一个子类,最近因为能够以高保真度、多样性和分辨率生成图像而变得重要。这些模型在推...
2023年数据科学家必备的前十个AI Chrome扩展程序
Grammarly GO 深入的记录。它考虑您的背景、偏好和目标,可以为您提供高质量的待办事项列表、笔记、建议和草稿。在今天快节奏...
像一个注释者一样深入思考:数据集标注指南的生成
我们都对最近在AI模型方面的进步感到惊讶。我们看到生成模型如何革新,从一个时髦的图像生成算法到AI生成的内容与真实内容几...
遇见CHARM:一种新的人工智能工具,可在手术中解码脑癌基因组,实时进行肿瘤分析
在一项开创性的研究中,哈佛研究人员揭示了一种人工智能(AI)工具,能够在手术过程中快速解码脑肿瘤的DNA,提供关键信息,这...
我们知道LLMs可以使用工具,但你知道它们也可以制造新的工具吗?来认识一下LLMs作为工具制造者(LATM):一个闭环系统,允许LLMs制造自己的可重复使用工具
大型语言模型(LLMs)在广泛的自然语言处理任务中表现出色,并显示出实现某些人工智能普适特征的鼓舞人心证据。最近的研究还...
这篇AI论文提出了保留网络(RetNet)作为大型语言模型的基础架构:实现训练并行性、低成本推理和良好的性能
Transformer(变压器)最初是为了解决循环模型中的顺序训练问题而开发的,后来被公认为大型语言模型的事实标准架构。变压器的...
- You may be interested
- 研究帮助解释了自拍照如何被用于沟通
- CMU研究人员发现神经网络行为的关键洞见:...
- 谷歌发布“双子座”和其他一系列人工智能工具
- 决策树是如何解决回归问题的?
- AI登上太空!NASA将推出类似ChatGPT的航天...
- “从零开始训练BERT的终极指南:完结篇”
- “NVIDIA如何通过对变革者和市场领先者的投...
- 将DeepMind的研究与Alphabet产品相结合
- 理解独立性以及在因果推断和因果验证中的...
- 我为什么没有放弃成为数据科学家的梦想的8...
- 自然语言处理高级指南
- 可视化维度诅咒的真实程度
- 使用Kafka和Risingwave构建一条Formula 1...
- 开发内容策略的10个最佳ChatGPT提示
- 5 个免费课程,掌握生成式人工智能’...