Learn more about Staff - Section 21

一项新的研究提出了基于软自供电摩擦电纳米发电机和深度学习辅助数据分析的水下三维触觉张力结构(U3DTT)技术

AUV,全称为“自主水下车辆”,在发现深水下的事物方面具有广泛的应用。它探索了深水下的一切,这些地方很难探索和到达。海底的...

斯坦福研究院推出FlashAttention-2:为长上下文语言模型带来速度和效率的飞跃

在过去的一年中,自然语言处理领域取得了显著的进展,因为出现了具有更长上下文的语言模型。其中包括具有32k上下文长度的GPT-...

Meta的战略智慧:Llama 2可能成为他们的新社交图谱

在引起科技行业关注的举动中,Meta最近宣布发布了Llama 2,这是其免费、开源的大型语言模型(LLM)的第二个版本。作为一个使...

“认识Lamini AI:一款革命性的LLM引擎,让开发者轻松训练ChatGPT级别的语言模型”

从零开始教授LLM是具有挑战性的,因为需要大量时间来理解为什么微调模型失败;微调小数据集的迭代周期通常以数月计算。相比之...

MLCommons介绍MedPerf:一种用于评估AI模型在临床疗效方面的开源平台

评估人工智能模型在大型多样化的实际数据集上的效果对于医疗人工智能的临床应用至关重要。MLCommons,一个开放的全球工程社区...

见证ImageReward:一种突破AI生成能力和人类价值观鸿沟的革命性文本到图像模型

在机器学习中,基于文本输入可以生成图像的生成模型近年来取得了重大进展,各种方法都显示出了有希望的结果。虽然这些模型引...

斯坦福研究人员提出了EVAPORATE:一种新的人工智能方法,将语言模型的推理成本减少了110倍

大型语言模型现在经常成为头条新闻。凭借其卓越的能力和在各个领域的应用,几乎每天都会发布一篇新的研究论文或LLM的新更新。...

谷歌AI引入了符号调整:一种简单的微调方法,通过强调输入-标签映射来提高上下文学习

语言模型在上下文中调整输入-标签对,其中自然语言标签被重新映射为任意符号。对于给定的任务,模型必须依赖上下文中的输入-...

麻省理工学院和加州大学伯克利分校的研究人员引入了一个框架,使人类能够用最少的努力迅速教会机器人他们想要它做什么

与纽约大学和加州大学伯克利分校合作,麻省理工学院的研究人员开发出一种划时代的框架,使人类能够有效地教导机器人如何在家...

认识Concrete ML:一个开源的基于全同态加密的工具包,有助于保护隐私并实现安全的机器学习

人工智能和机器学习在过去几年中显示出巨大的生产力提升。机器学习的核心是通过维护各种手段的隐私和保密性来拥有高质量的数...

多模态语言模型:人工智能(AI)的未来

大型语言模型(LLM)是能够分析和生成文本的计算机模型。它们通过对大量文本数据进行训练,以提高在文本生成和编码等任务中的...

一篇新的人工智能论文解释了大型语言模型作为一般模式机器可以具有的不同专业水平

LLMs,即大型语言模型,被教导将编织在语言结构中的许多模式纳入其中。它们在机器人学中被用作高级规划器,用于遵循指令的任...