每日(人工智能)物品的设计
人工智能美妆与时尚:每日设计之道
构建出色生成式人工智能工具的UI/UX原则
唐·诺曼(Don Norman)在1988年的设计经典著作《The Design of Everyday Things》中提出了用户体验原则,这些原则对于影响出色的硬件和软件设计产生了影响。尽管诺曼的例子是关于门把手和电灯开关等模拟实例,但他的原则广泛适用于包括生成式人工智能产品在内的软件。在关于生成式人工智能的所有炒作中,很容易忘记,即使是最复杂的模型驱动的产品,如果缺乏良好的UI/UX,也将失败。
许多新的人工智能工具引起了很大的兴趣,但用户保留率却不高(参见这里的细节,由红杉资本提供)。人工智能的炒作带来了“游客”注册,但新用户很难理解或从产品中获得真正的价值。这是经典的“幻灭谷”,指的是核心技术(生成式模型)跳跃发展,而支持技术(UI/UX设计)滞后。
本文详细介绍如何将三个核心用户体验概念应用于生成式人工智能产品: 1)可供性,2)反馈,3)约束。 将这些概念应用于生成式人工智能将得出我们将要探索的结论,其中包括:
- 不要追求一杆进洞
- 用户反馈并非免费
- 怀疑对待聊天机器人界面
以下示例来自工作效率工具(部分灵感来自我在Tome的工作中,这是一个用于塑造和共享想法的AI驱动的VoAGI),但这些策略广泛适用于开发工具、社交媒体和电子商务等领域。
主题1:反馈
对用户提供快速清晰的关于所请求操作的反馈对于任何技术都至关重要。对于生成式人工智能系统来说,反馈尤为重要,因为其输出的延迟和复杂性。而反馈是双向的,系统必须征求用户的相关反馈,而不会令人讨厌,以在近期为该特定用户生成更好的输出,并为VoAGI或长期使用的更好版本的产品开启。
构建低延迟系统
生成式人工智能模型的响应时间通常在几秒到十几秒之间。乍一看,等待十秒钟获得一个引人注目的备忘录、精美的图像或美妙的视频似乎不是什么问题。没有生成式人工智能,完成这些操作需要数小时,谁在乎花费10秒、1秒或100毫秒?
但用户并不是在优化机会成本的经济学家。他们已经习惯了非人工智能工具提供的快速响应,以至于被感知为即时。这导致用户在显然非即时的人工智能产品上面临许多挑战:
- 不确定系统是否在工作以及是否需要重试/重新启动。
- 迭代成本高。由于大多数情况下,AI生成的第一个成果并不完全符合用户的期望,用户希望进行迭代。
- 用户开始多任务的可能性很高。一旦用户切换离开您的应用程序,就无法保证他们将再次回来。
有一些可以缓解延迟影响的良好策略,这些策略早在生成式人工智能之前就已存在。这些策略包括加载动画、进度条和后台处理(将用户路由到另一个任务,并在当前任务完成时收到通知)。一种较新的策略, 即针对LLM功能的是,逐字(或逐字符)将文本流式传输到用户界面,而不是一次性呈现全部输出。由于许多模型的生成速度超过用户的阅读速度,这可以将感知延迟减少到接近零。
不要追求一杆进洞
减轻延迟的一种特别有效的策略是将工作流程分解为小步骤,在每个步骤中提供系统反馈并征求用户反馈。这使得用户能够不断向着预期输出的方向前进,并对系统能够准确地提供他们所需的内容充满信心。在经过设计良好的迭代工作流程中,初始步骤的延迟很低,用户对于最终输出符合期望的每个连续步骤的信任也在增加。如果您对于能够获得自己所需的成果非常有信心,那么您将愿意等待十秒钟完成最终步骤。
迭代工作流比增加延迟容忍度具有更强大的好处:它们使用户能够生成符合他们期望的输出。生成模型有时可以仅通过简单的用户提示生成用户想要的结果。从输入直接转到“完美输出”是一种令人惊喜的用户体验,就像打进洞一样。就像打进洞一样,这种情况非常罕见。
挑战并不在于模型有多“聪明”,而是模型需要什么上下文和信息来生成用户的愿景。考虑一个销售经理想要总结团队季度业绩的情况。她已经看过几十份季度销售报告,并且对公司规范(如语气、详细程度、长度和视觉布局等)非常熟悉。如果她需要一个同事为她撰写这样的报告,她只会要求“一份季度销售报告”,并期望同事已经了解这些规范。
因此,当这位销售经理想要从AI工具获取此类报告时,并不明显她需要告诉工具哪些规范,以及工具已经了解哪些规范。这就是迭代工作流特别有用的地方。她可以从一些简单而熟悉的东西开始,比如要求“一份季度销售报告”,然后工具可以帮助她准确地理解她的意图。Zach Lloyd在这篇关于AI设计的理性文章中称这种模式为“询问和调整”。

用户反馈并非免费
在许多经典机器学习产品中,每个用户交互都会为模型生成新的训练数据,改进产品的下一个版本。每个用户对搜索结果的点击都有助于改善搜索模型。每个用户标记为垃圾邮件的邮件都有助于垃圾邮件分类模型的改进。
但是,许多生成型AI产品缺乏用户交互机械地导致模型改进的“物理原理”。对于输出为复杂文本、图像等的AI产品,很难区分用户是出于无法获得所需输出而退出(感到沮丧,并放弃)还是出于满意而退出。一些产品征求用户主动选择提供反馈(例如赞/踩),但完成率往往非常低,而且反馈本身往往存在选择偏差。
设计一种工作流,其中用户自然的下一个动作表明他们对之前的AI输出的看法要好得多。一个最常见的模式是内联建议:如果用户接受建议并继续写作,那就是他们肯定看待建议的强烈信号。另一种模式是记录保存、编辑或分享的AI输出。尽管这些与用户满意度不是完全相关——用户可能分享一张图片,因为它特别奇怪——但当以聚合方式使用时,它们是相当不错的代理。
主题二:可负担性
可负担性是指示如何以及何时使用某种功能的提示(通常是视觉)。良好的可负担性使用户能够直观地与产品进行交互,而无需详细的说明或经验。我们将探讨生成式AI在用户旅程的三个阶段中的可负担性:发现AI的进入点,为AI提供正确的输入,以及使用AI的输出。
发现AI的进入点
许多工作工具正在添加大量的AI功能,并且这些功能适用于创造过程中的不同阶段。使用AI功能的高级进入点包括:
- 帮助我从零开始
- 扩展我已经开始的内容
- 编辑我已经创建的内容
这些不同的进入点导致了明显不同的界面,即使在AI界面演进的早期阶段也是如此。对于(1),自由文本或“空白画布”界面已经成为早期主导范式。对于(2),行内生成(即自动补全)倾向于主导文本生成功能(如Github Copilot),而“展示更多类似内容”倾向于主导图像生成功能(如Midjourney)。对于(3),界面倾向于突出显示、选择或上传现有内容(如Grammarly)。

对于发现了一个工具中的一个 AI 入口点的用户来说,很容易得出“这就是 AI 的所在地”并且未能发现其他功能。优秀的产品会在用户的工作流程中,当每个入口点最有可能有用时,向用户介绍它们的各种 AI 入口点。
输入 AI 的内容
许多生成型 AI 工作流的核心输入是自由文本输入,又称为“提示”。不幸的是,好的提示很复杂,快速发展,并且在不同的工具之间不一致。好的产品通过提供示例提示和工具提示等策略来帮助用户构建提示。
良好的界面还可以帮助用户理解 AI 的上下文以及其缺失的内容。与强大的 AI 一起工作时,合理的用户可能会认为无论他们在应用中看到什么,AI 也能看到并理解。例如,如果我可以看到我与 AI 的过去对话,那么 AI 肯定也意识到它(这是 ChatGPT 推广的行为)。但并非每个 AI 都是像这样工作的!有些系统知道用户先前的提示,有些系统甚至比过去的提示了解更多的上下文 – 有些只知道用户当前的交互,而对其他东西一无所知。用户不应该通过尝试来弄清楚系统知道什么和不知道什么。
使用 AI 输出
当系统产生生成型 AI 输出,并且输出很好时,人们很容易认为成功就在眼前。但即使输出很好,这对用户来说可能是一个令人困惑的时刻。
首先,新用户常常不知道如何保留输出。即使输出很好,许多用户也希望立即进行迭代,看看他们是否能从好到更好。但是担心可能会丢失现有工作的用户可能会犹豫和沮丧。
其次,用户可能会对如何改进输出感到困惑。假设他们使用了“从零开始”的 AI 功能,他们应该回到开始吗?他们是否需要转到其他 AI 入口点,如“扩展”或“编辑”?许多用户可能遇到过像 ChatGPT 这样的产品,其输出不可直接编辑;如果输出可以编辑,用户可能需要一个编辑功能。
主题 3:约束条件
约束条件限制输入和输出,以帮助用户更快、更好地工作。良好的约束对用户来说是清晰的。如果一个系统可以帮助用户实现一个目标 – 但只能部分地或者有时候做到 – 与其提供一个不可靠的体验,不如完全阻止该路径。
LLM(语言模型)从决定性软件中开启了广阔的新用户体验(这也是我喜欢从事它们的原因!),产品创造者应该渴望放松传统的约束条件。不过,无论 LLM 的智能程度如何,总会有一些需要经过思考的约束条件。
输入:不必害怕控制
受 ChatGPT 成功的启发,许多生成型 AI 工具将自由文本框作为其唯一的或主要的用户输入。但是,用户意图的许多方面最好通过分类或数值输入来表达。在创建文档时,大多数用户会考虑到诸如语言(分类)和长度(数值)之类的属性。用户可能不会在自由文本提示中提及这些属性,但这并不意味着他们不在乎。通过通过离散、有界的控件(如下拉菜单或滑块)征求这些输入,系统可以帮助征求它所需要的输入,以实现用户在脑海中的想法。并且有关如何帮助用户导航离散控件的成熟原则:设定良好的默认值,合理分组控件,并通过工具提示或标签解释控件。
在控件方面,设置良好的默认值是设计的关键部分。绝大多数情况下(超过90%),用户不会改变默认值,即使他们从更改中受益。一个结合了良好默认值与用户偏好变化的机会是通过硬编码规则或人工智能来动态调整默认值。
输出:不应该生成的东西
对于生成式人工智能产品来说,有很多情况下底层模型可以生成一些内容,但用户宁愿什么也不生成,而不是处理误导性或突兀的输出。
对于大多数与工作相关的任务来说,用户更愿意选择“我不知道”而不是可能是错误答案的答案,他们必须验证或反驳。这篇哈佛大学的研究在咨询公司BCG表明,当人工智能回答问题超出其“信心范围”,而用户不知道这个范围在哪里时,AI可能会降低工作质量,用户对输出不够仔细核查。
减少幻觉的方法在快速发展(例如,检索增强生成),我猜幻觉问题几年后会基本上被解决 – 但是现在,重要的是要考虑到事实性至关重要的输出的约束。
法律和伦理问题是限制面向用户输出的第二个原因。仅仅因为底层模型可以在某个主题上生成文本或图像,并不意味着这样做是道德的。然而,大部分时间,系统将用户请求分类为“超出范围”,用户的意图实际上是良性的。稍加帮助,用户可以重新表达他们的请求,以便保持合规性。例如,一些图像生成工具拒绝包含“孩子”一词的提示。但是,如果用户想生成一张有孩子的家庭图片,他们可以使用提示“四口之家”或“父母和儿子女儿”。关键是对用户明确约束。
随着生成式人工智能产品的流行,优秀的产品设计师和产品经理必须记住:成功不仅取决于人工智能的智能程度,还取决于产品如何引导用户进行人工智能工作流程。反馈、可操作性和约束等核心设计概念与以往一样重要,但它们的实施策略和模式正在快速发展。对于任何希望在初始炒作周期之外持久存在并交付持久、广泛应用产品的人工智能公司来说,恰当使用这些设计模式非常关键。





