实验室会议:一系列新的实验性人工智能合作

Lab Meeting New Experimental AI Collaboration

无论是开发产品、推进硬件还是进行新的研究,我们知道最重要的是将技术置于实际人们的手中。多年来,我们一直与各个领域的个人和社区合作,塑造新兴技术以满足他们独特的需求。

Labs.google 是我们继续通过实验来测试假设、相互学习和共同创建新技术的地方。但我们也希望创建一种展示我们现有和未来各种学科合作的方式。

这就是为什么我们宣布 Lab Sessions,这是一系列与远见者进行的实验性人工智能合作 – 从艺术家到学者,科学家到学生,创作者到创业者。您可以在下面或 labs.google/sessions 上查看我们的前三个会话。

Dan Deacon x 生成 AI

我们最近的一个会话是与作曲家和数字音乐家 Dan Deacon 合作的。Dan 与 Google 研究人员合作,为 Google I/O 2023 创作了一场演出前的表演。Dan 使用我们的文本到音乐模型 MusicLM 进行了实验,为一首新歌创造了新的声音。他使用了我们的对话 AI Bard 来帮助他写一篇引导冥想的文章。他还探索了我们的生成视频模型 Phenaki,将他的歌词转化为舞台上的视觉投影。您可以自己尝试使用 Bard 和 MusicLM 进行实验。

10:25

Lupe Fiasco x 大型语言模型

我们还与说唱歌手和麻省理工学院访问学者 Lupe Fiasco 合作,看看人工智能如何增强他的创作过程。当我们开始试验 PaLM API 和 MakerSuite 时,很明显 Lupe 不希望 AI 为他写歌词。相反,他希望 AI 工具能帮助他在自己的写作过程中。

因此,我们一起着手构建了一套新的定制工具。Lupe 的歌词和语言技巧为我们提供了全新的视角,我们可以用大型语言模型进行提示和创作。最终的结果是一个名为 TextFX 的实验,您将找到 10 种面向作家、说唱歌手和文字工匠的 AI 动力工具。试试吧,如果您想更详细地了解该实验的构建过程,请查看这篇博文或开源代码。

10:25

Georgia Tech 和 RIT/NTID x 手语识别

自去年以来,我们一直与来自佐治亚理工学院和罗切斯特理工学院的聋人技术研究所的学生合作,探索人工智能计算机视觉模型如何以新的方式帮助人们学习手语。

与 Google 研究人员和 Kaggle 社区一起,学生们开发了一个名为 PopSignAI 的游戏。这个泡泡发射游戏基于麦克阿瑟-贝茨沟通发展清单,教授 250 个美国手语 (ASL) 手势。这些手势是教导儿童语言的第一个概念。95% 的聋哑婴儿出生于聽力正常的父母,他们通常不会使用 ASL。

您可以在 Play Store 和 iOS 应用商店下载游戏自己试试,或者前往 popsign.org 了解更多信息。

10:25

展望未来

利用人的好奇心、创造力和同理心来发挥人工智能的潜力。我们很高兴分享更多的 Lab Sessions,并看看我们可以一起将人工智能带到哪里。