机器学习的公众认知问题

机器学习认知问题

为什么机器学习的普及对于数据科学来说是一个优先事项,以及我们可以做些什么。

Photo by Andrew Seaman on Unsplash

最近,我听了一个播客,里面有一群聪明、思考深入的外行人(为了礼貌起见,我不会透露他们的名字),他们谈论了人工智能在医疗保健中的应用。我已经有些疑虑了,因为他们使用的术语是“人工智能”,我发现这个词经常意味着一切和一无所指。但是我继续听下去,他们讨论了如何将人工智能工具(实际上只是机器学习)纳入医疗实践的想法。这些工具包括基于症状提出诊断建议,以及根据患者生命体征和状况调整药物剂量,这些想法似乎很有前景和实用。

然而,下一刻我有些震惊,因为一位演讲者(一位医生)说(我是在转述)“似乎人工智能在数学方面变得更糟了”。这句话不仅在整个播客中让我记忆犹新,而且在整个周末都在我的脑海中挥之不去。

当受过教育、聪明的外行人对机器学习有如此混淆和错误的理解时,我们就有了一个问题。(我将避免使用“人工智能”这个术语,因为我真的认为它比澄清我们的意思更容易混淆。在这种情况下,这些人讨论的是机器学习和应用它的产品,即使他们对此并不知情。)

在医生的情况下,当他提到数学时,他可能是在指大型语言模型(LLMs)。他以某种方式被误导以为,一个训练有素、可以根据提示以复杂的方式安排单词的模型也能进行数学计算。但实际上它并不擅长这方面(它并没有经过训练!),而且他对机器学习的整个领域的印象都被这个事实所影响。

与这种误解相反,数据科学家知道LLMs只是更广泛的机器学习领域中的一小部分。许多其他算法和模型在数学计算方面表现出色,因为这是它们的具体目的。(正如我的一个朋友所说,当我告诉他这个故事时,“机器学习模型就是数学!”)然而,问题在于,数据科学家知道这一点,但大众却并不知道。

……数据科学家知道LLMs只是更广泛的机器学习领域中的一小部分。

我可以花一个整篇文章来讨论语言模型与其他形式的机器学习之间的区别,但这不是我今天真正感兴趣的内容。相反,我想谈谈为什么我们需要关心外行人是否了解机器学习的基本知识,以及可能产生的影响。

为什么我们要关心外行人是否了解机器学习?

作为一位转行成为数据科学家的社会学家,我非常关心人们如何与数据科学和机器学习互动。我对此有一种个人哲学:如果你的机器学习不能以某种方式使人们或我们周围的世界受益,那它就没有意义。我认为人类努力的目的应该是改善他人的生活,这也适用于机器学习。

然而,即使你不同意这种哲学,我认为你仍然应该关心普通大众是否了解机器学习的基本知识。如果人们缺乏这种理解,有价值、可信的工具的采用就可能停滞不前。

我的论点大致如下:

  1. 人们天生不具备理解和使用机器学习的能力。
  2. 缺乏对这些工具的理解,一些人可能会避而不用或不信任它们。
  3. 更糟糕的是,一些人可能由于错误信息而滥用这些工具,导致不利的后果。
  4. 在经历了滥用的负面后果之后,人们可能不愿采用未来可能改善他们生活和社区的机器学习工具。

机器学习只能发挥作用到人们能够最大化其功能的程度。我在自己的生活中经常看到和听到类似我开始时提到的轶事,人们对机器学习有着极其错误的先入为主的观念,他们在这个错误的基础上建立了心理框架。这导致他们对机器学习的整个认知地图都是错误的。

对于数据科学领域来说,这意味着我们在构建越来越先进的机器学习服务方面的工作受到限制,不是由我们能够获取的GPU数量,而是由我们解释我们构建的内容以及教育公众如何使用它的能力所限制。

……我们在构建更先进的机器学习服务方面的工作受到限制,不是由我们能够获取的GPU数量,而是由我们解释我们构建的内容的能力所限制。

人们天生没有准备好理解机器学习

我最近读了一篇名为“为什么约翰尼无法激励”的文章(Zamfirescu-Pereira、Wong、Hartmann和Yang,2023年4月)。这让我对非数据科学家特别是对生成式人工智能以及机器学习的思考有了很多启示。

我可能以后会单独写更多关于这篇文章的内容,但对于这个论点来说,有价值的观点是:人们倾向于将他们与其他互动的已有框架应用于他们与机器学习系统互动的过程中,导致结果不理想和用户的沮丧。

人们倾向于将他们与其他互动的已有框架应用于他们与机器学习系统互动的过程中,导致结果不理想和用户的沮丧。

现在,我认为这是可以修复的。我实际上认为人类始终需要学习如何使用新工具,而且我们肯定能够做到。想想我们是如何逐渐学会使用计算机,然后是智能手机的。一开始并不清楚该怎么做或如何让设备“理解”我们。

这主要通过时间的推移,设备设计的改进(例如,技术向我们靠近)和教育来解决。例如,我小时候,年长的或技术不熟练的人可以在当地社区大学参加免费或低成本的计算机课程。目标不是学习编程,而只是学会有效地使用计算机,因为它们是非常有用的工具。

我认为这个过程对于机器学习也可以起作用,但也有一些不同之处。首先,很多机器学习对我们来说是抽象的,或者被包装在一个拟人化的界面中(例如LLM聊天机器人的情况)。机器学习模型的许多结果进入我们的生活,而我们却没有意识到它们的存在,比如搜索结果个性化或基于预测的应用程序中的提醒,仅举几例。在生成式人工智能的情况下,大部分机器学习隐藏在对话聊天机器人的表面下,我们天然倾向于像与任何人类对话伙伴一样与其互动。然而,这是一个错误,正如我上面提到的文章中所描述的那样。目前,与LLM最好的结果并不是通过“像与一个人交谈”来实现的。

有些人不会使用他们不理解的事物

这个现实创造了一些我们需要意识到的条件。首先,许多人不会接受机器学习完全有益且容易的说法。许多人看待生成式人工智能的新时代时感到惊慌而不是兴奋。这对许多人来说是可以理解的反应。首先,我们有很多文化参考和经验,教会我们“太聪明”的计算机是危险的,我们应该对它们保持警惕。

人们对个人计算机也有类似的感觉。有些人可能担心它们可能具有的能力和力量,或者对自己真正理解和使用它们感到紧张。社区大学的计算机课程让犹豫不决的人逐渐与计算机建立了舒适的关系。不幸的是,我没有看到数据科学领域对今天公众中的不确定成员采取同样的关心。

采用新技术总是具有挑战性的,不是因为人们愚蠢或不好奇,而是由于对潜在风险的真正关注。承认这些关注并展示预防负面结果的承诺可以提高机器学习在公众中的可信度。

其他人会滥用他们不理解的事物

另一方面,有很多人已经全身心地投入到与机器学习的互动中,尤其是LLMs。人们将其用于各种事情,包括各行各业的工作以及娱乐。炒作和媒体报道提高了人们对LLM技术及其潜力的认识,几乎每家有电脑的公司都在努力将AI纳入其业务战略中。

然而,所有这些兴奋背后也存在着负面的一面。当人们开始使用机器学习,比如LLMs,他们开始注意到技术存在的问题以及无法达到过高期望的方面。也许聊天机器人无法理解你的问题,或者模型的预测并不总是完美的,但最终用户期望机器不会犯任何错误。为什么他们期望如此?因为他们对机器学习的了解来自流行文化和炒作。我们数据科学家没有花时间解释哪些期望是合理的,哪些仍然是科幻材料。

在滥用不理解的工具之后,人们将害怕使用未来的新工具

那么,当我们在为普通用户提供机器学习解决方案时过度承诺但未能兑现时,会发生什么?在许多情况下,我们将失望和幻灭的人们本可以成为新技术的伟大倡导者。他们将更不愿意尝试下一个版本,或者在未来使用机器学习,因为他们曾经给它一个机会,但却被辜负了。

想象一下这个例子:律师使用ChatGPT为一份简要文件获取引用。当这个故事传出来时,数据科学界对这位律师进行了严厉批评。“谁会这样做?他们不知道ChatGPT在准确性方面是不能依赖的吗?”

即使这些后果是相当粗心造成的,我对这位律师感到非常遗憾。ChatGPT的承诺对公众来说几乎是神奇的,媒体对它的近乎奇迹般的功能的描述加剧了这种观念。很多人是通过阅读这个案例第一次了解到ChatGPT会通过“说谎”来欺骗你。

这些误解源于将LLMs拟人化,假设它们具有人类的推理和辨别真理的能力。实际上,ChatGPT是一个非常复杂的模型,根据你给出的提示将单词排列成句子。它被训练成产生非常易懂的语言。但是ChatGPT没有“真理”或“谎言”的概念。它没有内部嵌入来表示某个事物是否准确。因此,当新闻报道ChatGPT说谎或“产生幻觉”时,这都有点误导。

然而,重要的是,现在我们有一群人看到了这个新闻,更不用说所涉及的律师了,他们现在对于从ChatGPT获取的任何内容是否可靠都充满焦虑。整个情景真的没有帮助他们理解LLMs的概念,也当然没有帮助将机器学习应用于有益处的广泛目标。有人因为对模型工作原理的缺乏教育而受到了伤害,其他人则对此嗤之以鼻,现在我们创造了更多的怀疑者,他们将在未来回避至少某些形式的机器学习。

所有这些都导致了同样的问题,即当一个技术没有得到适当的公众教育时,我们将把公众教育任务交给不可靠和有偏见的来源,这些来源的优先事项与更大的利益无关。只需询问当今任何一位公共卫生专业人士试图增加疫苗接种率。如果我们不提前为公众教育做好准备,机器学习很容易走上同样不幸的道路。

我们可以做什么来解决这个问题?

作为数据科学从业者,我们如何弥合我们的技术专长与公众意识之间的鸿沟?作为一名前教育工作者,我非常关心这个问题。公众是否真正理解机器学习对我们有什么益处很重要,因为我们有机会通过它做很多好事。

我认为我们可以做的一件事是将更多的时间和精力投入到公众教育中。现在,我并不是说每个路人都需要学习反向传播或编码器架构的教程。(这就像说人们需要学习微芯片才能成为有效的电脑用户。)但我确实认为人们需要了解关于机器学习的一些基本要素,以便成为技术的知情用户,包括目前可能的伦理、风险和限制。作为一个领域,数据科学需要了解一个人需要成为成功和有效的机器学习用户所需的信息,并思考如何分享这些信息。

如果我们没有看到LLMs如此戏剧性地成为公众的一部分,我们可能可以等一等。基本的预测模型结果通常由数据科学专业人员进行中介,模型的输入经过精心设计,结果以一种周到的方式呈现。然而,在LLM聊天机器人的情况下,情况并非如此。人们可以随心所欲地输入任何内容,没有人能够控制返回的内容。用户需要更多的知识来负责地生成和消费这些信息。

其次,我认为数据科学作为一个领域需要更加积极和坚决地反对过度炒作和夸大机器学习的真正能力和潜力。我发现大部分这种情况出现在吸引点击的媒体或者一些理论上更可信的新闻报道中。别误会,机器学习确实令人惊叹,并且可以做出令人难以置信的事情!然而,它并不完美,我们不应该让任何人在没有反驳的情况下假装它是完美的。

通过忽视这个问题,我们有可能阻碍机器学习的进步,不仅仅是在技术上的进步(尽管国会对机器学习的理解不足可能会产生这种影响),而是在实际生活中应用的进步。我不希望看到这项技术的巨大潜力因为我们没有帮助公众做好准备而被边缘化或者最小化。

查看更多我的作品,请访问www.stephaniekirmer.com。