我们如何预见与人工智能的关系?
我们如何预见与人工智能的关系?
人工智能让我们变得愚蠢还是聪明?我们如何看待与人工智能的关系?
当前阶段或超级通用人工智能(AGI)之后的人机交互一直是争论的焦点。无论你站在消极一方还是积极一方,我都想解开人工智能对我们思维的影响。在人工智能普及的世界里,人类会变得更聪明还是更不聪明?
首先,人工智能并不是生活中的全新部分,我们已经习以为常,当我们听取亚马逊的推荐或在TikTok上无尽滚动等等。它们非常了解我们,了解我们的兴趣,并通过推荐给我们(广告的现代版本——推荐系统)来指导我们做事。有些人认为这是“阴谋”,而科技爱好者则认为这有助于我们避免思考琐碎的事情。我亲自见过这场辩论。
技术确实提高了生产力,但也通过自动化消除了许多任务。
曾经人们被雇来手动计算,然后他们得到计算器来帮助他们,以免在纸上进行过多的计算时间和精力,现在他们有计算机和Excel来代替他们进行数学计算。
- MIT和哈佛的研究人员推出了一种革命性的基于人工智能的计算方法:以更少的实验高效地准确定位最佳的基因干预方案
- Meta AI推出AnyMAL:未来多模态语言模型的先驱,桥接文本、图像、视频、音频和动作传感器数据
- 日本柴田学院的研究人员以深度学习革新脸部方向检测技术:突破隐藏面部特征和拓展视野角度的挑战
曾经人们被雇用来手动停电梯以准确停在某一楼层,现在他们已经自动化,只需要在定位时进行一些维修即可运行。目前,机器负责30%的任务,剩下的由人类负责。
计算器并没有让会计变笨来进行空中计算,而是更加高效和精确。自动电梯让一些专家技术人员能够胜任他们的工作,但并不是每个人都能胜任这份工作。人工智能是下一个革命。预测称,人和机器的混合将达到50:50,这是一个巨大转变。这就是为什么很多人担心,担心他们无法跟上并在人工智能更好、更便宜和更高效地完成工作之前使自己装备好。
无论如何,本文并不是关于人工智能是否会夺走我们的工作。这将消耗劳动力,对于那些落后的人来说是劳动力的成本。根据IBM的一项调查,全球超过1.2亿名工人将在未来三年内需要接受再培训,因为人工智能对工作的影响。
毕竟,这里讨论的是我们的智能;人工智能能否扩展我们的思维,使其更具创造力、创新性和生产力?
我们把我们的智慧交给了数据。是的,这在很大程度上是真实的,大多数人工智能工具所训练的数据都是由我们人类产生的。我们产生的数据越多,它们获得的智能越多。这就是为什么欧洲国家关注他们的公民数据,以及欧洲民众自己也如此关注。
我们一直在人类思维和人工智能之间划定了一条界线,我们是创造者,而它们(机器)是被创造者。我们把智力任务交给了它们。我们比它们优越。让我们重新组织这个观点;相反地,我们人类和人工智能都是在合作和融合,融洽和结合,形成整体。
延伸思维的概念是由哲学家安迪·克拉克(Andy Clark)和大卫·查尔默斯(David Chalmers)定义的,它认为“认知”不仅仅发生在我们的脑海中,换句话说,心智不仅仅是大脑的所在之处,它可以延伸到外部世界、物理对象中。例如,在苹果发布智能手机之后不久,它就能够完成我们曾经自己做的任务,比如记住电话号码、导航等。
同样地,我们也可以看到“延伸身体”,例如,在我们头部植入Neuralink的芯片,或者《钢铁侠》中的外部装置等。这些都是上述融合技术与人类的例证。我们可以将这个想法推广到能力方面。
事实上,这在21世纪对人类有益。智能手机帮助盲人或视力低下的人通过检测门或为聋人提供实时字幕等方式导航,等等。虽然科技在其历程中取得了很大进步,但仍然需要进一步改进,但它有潜力。(Apple展示创新无障碍功能 — Apple)尽管科技在进展过程中已经取得了很大的成就,但仍需进一步改进。 (让我们讨论:科技如何赋予残障人士能力?— The Valuable 500)
实现这种融合需要满足三个条件:
- 每个部分都有自己的因果责任(或责任),同时它们之间紧密连接,构建一个完整的系统
- 所有系统正如思维所想地运作
- 如果外部系统(不是全部但至少一个)丢失了,整体的行为能力应该会下降
到目前为止,我们一直在利用技术来提高我们的生产力,如果我们对自己诚实的话,这个方法相当有效。根据另一位哲学家约翰·达纳赫(John Danaher)的观点,人类与技术结合的“外部”和“内部”形式在增强方面存在明显但有消除差异的区别。他认为,如果技术能够改善人们在新环境中的心理健康或行为,它就是对人类增强的一种行为。
如果[延伸思维假设]是真实的,那么我们总是通过使用技术来增强人类的思维。
约翰·达纳赫(John Danaher)-为什么内部道德提升可能比外部道德提升在政治上更好。
因此,我们也可以将同样的类比应用于我们人类可以直接利用的AI工具(例如ChatGPT等)。是的,我们无法轻易地将其应用于所有AI工具。为什么呢?因为其中一些工具在我们的控制之下,我所说的控制是指我们可以触发它们的动作,比如提示一个AI聊天机器人,请求Alexa/Siri帮忙等等。另一方面,有些工具在我们的控制之下,比如Instagram/TikTok的算法,亚马逊的推荐系统等。还有一些则超出了我们的控制。
对此,David Chalmers在一个演讲中讨论了我们是否可以将大型语言模型(LLMs)视为延伸思维的一部分。他质疑我们是否可以将像ChatGPT这样的AI工具视为延伸我们思维的工具,因为在给出正确提示的情况下,聊天机器人会为我们提供有用的信息。令人惊讶的是,他说像ChatGPT这样的技术可能过于独立以至于无法成为思维的延伸。
延伸思维理论仅适用于一些AI工具,随着它们变得更加自治,就越难将它们视为思维的延伸。
他论述并讨论了我们何时以及为什么认为一项新技术是思维的延伸的标准;最后,他得出一个思考的问题:“这个过程是延伸认知吗?”。他做了一件有趣的事情,我们也可以向GPT-4提出同样的问题:
有趣的是,有一篇论文发表题为“Do Large Language Models Know What Humans Know?”(大型语言模型知道人类知道什么吗?)[2209.01515] Do Large Language Models know what humans know? (arxiv.org),他们对错觉任务进行了研究,结果表明人类82.7%的时间是正确的,而大型语言模型在74.5%的时间内是正确的,这相当令人印象深刻;但是这个大型语言模型并没有完全描述出人类的行为。这说明仅仅靠语言统计就足以产生一些错误的信念,但并不能完全解释人类行为。
另一方面,越来越多地依赖人工智能来推荐(甚至是极端的指令)我们该做什么,有人认为这使我们的大脑变得愚笨和缺乏创造力。这并不是一个新的讨论课题,曾经在Google上进行过讨论(谷歌是否让我们变傻?),现在又针对人工智能的新进展进行讨论(生成型人工智能是否会让我们变傻?)。
人类和人工智能之间最早面临的挑战之一可追溯到90年代末,是Deep Blue和世界冠军国际象棋选手Garry Kasparov之间的故事。他与IBM机器Deep Blue进行了多场比赛的胜负。详细讲述这个故事超出了本文的范畴,所以我们只提到Kasparov在他的书中提到的一个教训,《Deep Thinking: Where Machine Intelligence Ends and Human Creativity Begins》(深度思维:机器智能的边界与人类创造力的起点)。
他认为我们人类能做到的任何事情,机器都能做得更好。与阿兰·图灵等伟大的思想家和计算机科学家不同,他认为国际象棋是智力的终极测试。他并不反对人工智能,事实上,他相信一个简单的等式,人加上机器可以在他们的专业领域打败一个天才。您还可以观看Deep Thinking | Garry Kasparov | Talks at Google的视频。
事实上,这已经成为现实。2016年,DeepMind的人工智能AlphaGo与围棋世界冠军李世石进行了一系列对弈。李世石只赢了其中一场,失去了其余的比赛。这个故事在国际象棋上也有类似的情况;我们应该意识到围棋比国际象棋更困难,因为它具有极大的移动自由,导致有无数的策略。
后来,DeepMind的一位员工在没有了解围棋的情况下,只凭AI的推荐就能战胜围棋世界冠军。如果您对人加机器的主题感兴趣,可以观看HBR的视频或阅读《Human + Machine: Reimagining Work in the Age of AI》(人类+机器:重新想象人工智能时代的工作)这本书。
一些演讲和书籍对理解本文会很有用
您的手机是否成为了您的一部分?| David Chalmers | TEDxSydney
感谢Ali Moezzi阅读本文的草稿。