围绕人工智能的扩展和采用存在的5个问题

5 issues surrounding the expansion and adoption of artificial intelligence

多年来,人们对人工智能对社会的影响越来越关注。但是,自从流行的聊天机器人ChatGPT问世以来,这种关注才真正增长。公众和经验丰富的数据专业人士的想象力都被释放出来。当涉及到人工智能时,许多人都会问类似的问题。因此,人们不禁要问,存在哪些担忧,我们如何在数据科学领域以及其他领域中解决这些问题?

在接下来的几个部分中,我们将关注一些与人工智能相关的这些担忧,并介绍一些解决方法。

担忧一:人工智能的偏见和公平性

公平性和偏见不仅仅是人工智能领域的一个孤立问题,而是整个领域普遍存在的问题。但是,由于人工智能算法是使用大量数据进行训练的,如果这些数据包含偏见,即使程序员们并不希望如此,人工智能系统也可能继承和延续这些偏见。在不同领域的人工智能程序中可以看到这种情况。

人工智能正在迅速进入人力资源领域,并成为整个招聘过程的一部分。如果模型存在偏见,可能会导致合格的申请人错失职业机会。在一些申请系统中,可能需要关键字来筛选潜在候选人。如果没有正确训练或缺乏对某些领域重要性的上下文,它可能会无故地排斥整个群体的人。

许多数据科学家都知道,数据的价值在于数据的收集和整理的基础。因此,为了解决这个特定的问题,有几件事情可以做。首先,确保训练数据是多样化、代表性的,并且不包含偏见的假设是至关重要的。然后,当然,您必须确保数据的清洁和维护。最后,需要对人工智能系统进行持续监控。可以在部署过程中进行监控,并根据需要进行调整。

担忧二:隐私和数据安全

另一个引起公众关注的主要问题与数据隐私和安全有关。

众所周知,模型和其他基于人工智能的系统通常依赖于大量的个人数据来进行准确的预测和决策。这些数据可能来自网络抓取,甚至是离线的其他公共数据来源。但是,由于所有这些数据通常与个人有某种联系,因此对这些数据的收集、存储和使用引发了重大的隐私担忧。

尽管对许多人来说,首先想到的可能是数据泄露,但更常见的是数据滥用会带来更高的风险。这是因为通过数据滥用和操纵,您可以对一群人进行歧视,或者在人工智能模型中应用偏见。这甚至没有触及到微观层面,足够的个人数据可能被用来窃取身份。考虑到深度伪造技术的进步。您的一些文本和语音数据可以用来与人工智能进行对话,甚至可以欺骗那些最亲近的人。

那么如何解决这个问题?有几件事情可以做。首先,缺乏任何法规合规要求、数据所有权和同意通常是第一个障碍。如果个人对其数据拥有控制权并提供明确的同意,这会使每个人都处于控制之中,使损害数据的困难程度增加。在收集方面,有数据最小化。简而言之,只将必要的数据连接到训练模型,同时避免不必要的个人信息,以免危及个人隐私。

最后,对于那些从事网络安全的人员来说,需要采取适当的安全措施和强大的加密。确保其具有健全的加密布局和适当的安全协议,以保护数据免受未经授权的访问,可以大大降低人们数据被攻击的风险。

担忧三:失业和职位替代

这是一个需要更多关注的问题。尽管许多数据科学家对人工智能的前景感到兴奋,比如它如何成为帮助整个人类的新工具,但人们越来越担心,人工智能和自动化的普及可能导致长期的职位替代。这在那些需要重复和例行任务的职位中尤为令人担忧,而人工智能往往最适合承担这些任务。

而这不仅是一种经济阶层工人的恐惧。人工智能和机器人技术有可能动摇劳动力市场的基础。白领和蓝领职位都有可能在未来几年内出现重大变化。这引发了许多人对于如何解决这个问题的疑问,特别是涉及到劳动力的情况。

当然,一种解决办法当然是激励那些最有可能受到人工智能影响的劳动力市场的重新技能培训。这使得工人们能够掌控自己的职业命运,并适应不断变化的就业市场的性质。解决方案的另一部分将是合作和人工智能,或者人工智能与人类的整合。今年早些时候,微软首席执行官萨蒂亚·纳德拉(Satya Nadella)表示,他相信人工智能不会取代工人,而是增强工人。

因此,找到鼓励企业将人工智能视为工作场所的一部分的方法将是有益的,而不是用来取代员工的手段。但有些人认为这还不够。随着人工智能在市场上的迅速扩大,许多人将无法灵活地提升技能或寻找另一个重视人工智能与人类整合的职位。其中最担心的是DeepMind的联合创始人Mustafa Suleyman,他表示解决方案的一部分应该是普遍基本收入(UBI)。

虽然没有一种万能的办法来解决这个问题,但它是最令人担忧的问题之一,因为经济的中断不仅仅是纸上的数字。这些都是有家庭和住房的人,都在努力寻找解决办法。

问题4:自主武器和人工智能的军事应用

如果有一件关于人类本性我们可以依靠的事情,那就是在某个时候两个团体将在战争中发生冲突。虽然像《终结者》这样的科幻电影使自主武器变得家喻户晓,但它们还没有完全发展起来。但真正的问题在于从战场上去除人类因素的伦理困境。让人工智能在几乎没有人类参与的情况下控制战场可能会导致国家对军事行动后果的担忧程度降低,因为人员远离前线。

这也可能增加战争的致命性、暴力性和残酷性。最后,不可控制的人工智能也很可能在某个时候出错,并在前线上造成更糟糕的情况。

那么,如何解决这个问题呢?

首先,私营部门已经开始介入。去年,包括波士顿动力在内的主要机器人公司签署了一项承诺,不将人工智能驱动的机器人技术用于战争。尽管这项协议是一个很好的第一步,但它并没有法律约束力,而且只适用于主要公司,不适用于初创企业。解决这个问题的另一种方法是通过国际协议。就像第一次世界大战后禁止化学和生物武器一样,各国可以团结起来,同意不去除人类因素。

但由于对大多数国家来说,去除人类因素可能具有政治上的好处,这种情况发生的可能性不高。最后,就像反人工智能偏见框架一样,可以建立道德框架,为人工智能在军事应用中的使用制定明确的指导方针和原则。

问题5:超级智能和存在风险

最后,这是列表中的最后一个问题,也是最有趣和最可怕的问题。《终结者》、《2001太空漫游》和《黑客帝国》等流行电影中的人工智能以及超级智能的错误展示了在人工智能领域出现问题的情况。但不仅如此,超级智能的存在对人类构成了根本性和生存上的风险。因此,不足为奇的是,对超级智能人工智能的恐惧只会增长,甚至一些专家已经发出警告,尽管离超级智能人工智能还有一段时间,但它可能对人类造成真正的伤害。

那么,除了摧毁全部计算机并返回到工业革命时代,还有哪些方法可以解决超级智能人工智能的问题呢?

首先,要制定具有伦理框架的人工智能是至关重要的。如果人工智能没有人类价值观的指导原则,事情可能会迅速出错。这包括调整偏见以及模型中可能生成冒险响应或行为的匿名性。然后,还有人工智能安全研究。这项工作的目标是投资资本、人力和时间,以预测和减轻潜在的风险和漏洞。尽管这仍然是人工智能的一个新的子领域,但通过制定这些原则,可以大大降低超级智能人工智能出现问题的风险。

结论

非常有趣对吧?很明显,人工智能已经成为一种必然存在的技术,并将继续扩展,因此对负责任的人工智能的需求也将随之增长。这就是为什么在ODSC West上,负责任的人工智能将有自己的专题。欢迎您于10月30日至11月2日参加ODSC West,并与领先该领域的专家会面,了解他们的观点,以及负责任人工智能可能带来的世界会是什么样子。