生成人工智能的新伦理问题
新兴人工智能引发的伦理难题
人工智能(AI)领域的发展速度快得惊人。但与此同时,带来的风险也同样迅猛。
形势如此,以至于专家们难以预见风险。
尽管大多数领导者在未来几个月里越来越重视GenAI应用,但他们对伴随其而来的风险 – 数据安全问题和带有偏见的结果 – 持怀疑态度。
比尔和梅琳达·盖茨基金会的首席执行官马克·苏兹曼认为:“尽管这项技术可能带来能加速科学进展和提升学习成果的突破,但机遇也伴随着风险。”
- 这项AI研究介绍了两种高质量视频生成的扩散模型:文本到视频(T2V)和图像到视频(I2V)模型
- 这篇文章的标题是:“这个中国的AI模型是否能超越ChatGPT和Claude2?来认识一下由中国初创公司“百川智能”推出的具有最长背景模型的百川2-192k模型”
- 这个人工智能研究引入了突破性的方法来定制语言模型到芯片设计

我们从数据开始
考虑一下 – 一位著名的生成AI模型创建者说:“它会在商务需要时收集个人信息,如姓名、电子邮件地址和付款信息。”
最近的事件表明,如果没有指导框架,出现错误的可能性有很多。
- 意大利对非法收集用户个人数据表示担忧,声称“没有合法基础来证明为训练平台操作基础的算法收集和存储个人数据的大规模行为”。
- 日本的个人信息保护委员会也对最少数据收集以训练机器学习模型发出了警告。
- 《哈佛商业评论》(HBR)上的业界领袖们也对数据安全问题和带有偏见的结果表示担忧。
由于生成AI模型是通过从互联网上获取的几乎所有数据进行训练的,我们只是隐藏在这些神经网络层中的一小部分。这强调了需要遵守数据隐私法规,并且不得未经同意对用户数据进行模型训练。
最近,一家公司因通过从互联网上抓取自拍照片建立人脸识别工具而被罚款,这导致了隐私泄露和巨额罚款。
然而,数据安全、隐私和偏见问题在生成AI之前已存在。那么,随着生成AI应用的推出,有何变化呢?
嗯,一些现有的风险由于模型的训练和部署规模的扩大而变得更加危险。让我们了解一下。
规模 – 双刃剑
错觉、提示注入和缺乏透明度
了解这些庞大模型的内部运作,以信任它们的响应变得更加重要。用微软的话说,这些新兴风险是因为LLMs“旨在生成看似连贯且在上下文中合适的文本,而不是坚持事实准确性。”
因此,模型可能会产生误导和错误的响应,通常称为错觉。当模型对预测缺乏信心时,可能会生成不太准确或不相关的信息。
此外,提示是我们与语言模型进行交互的方式;现在,不良分子可能通过注入提示来生成有害内容。
当AI出错时的问责制度?
使用LLMs引发了关于对这些模型生成的输出和存在于所有AI模型中的偏见的问责和责任的伦理问题。
在高风险应用中,如医疗保健领域,风险加剧了 – 想象一下错误的医疗建议对病人健康和生命的影响。
归根结底,组织需要以道德、透明和负责任的方式开发和使用生成式人工智能。
如果您对谁有责任确保生成式人工智能正确运作感兴趣,请阅读这篇文章,它描述了我们如何作为一个社区共同努力以使其发挥作用。
版权侵权
由于这些大型模型是建立在全球材料的基础上的,所以很有可能它们消耗了创作-音乐,视频或书籍。
如果在没有获取原始创作者的必要许可、署名或补偿的情况下,使用受版权保护的数据来训练人工智能模型,将导致侵权行为,并可能使开发者陷入严重的法律问题。

深度伪造、误导和操控
可能会引起大规模骚动的是深度伪造-想知道深度伪造能给我们带来什么?
它们是合成的创作-文本、图片或视频,可以通过深度生成方法在数字上操控面部外观。
结果呢?欺凌、误导、恶作剧电话、报复或欺诈-这些都不符合繁荣世界的定义。
这篇文章意在让每个人意识到人工智能是一把双刃剑-它不仅仅是对重要事项起作用的神奇力量;恶意行为者也是其中的一部分。
这就是我们需要提高警惕的地方。
安全措施
以假视频突出显示即将举行的选举中一位政治人物退出的最新消息为例。
可能的动机是什么?- 你可能会想。嗯,这种虚假信息在短时间内像野火一样蔓延,可以严重影响选举进程的方向。
那么,我们该如何避免成为这种虚假信息的受害者呢?
有各种防线,让我们从最基本的开始:
- 对自己周围看到的一切持怀疑和怀疑态度
- 将你的默认模式设为“可能不是真的”,而不是接受一切的表面价值。简而言之,质疑你周围的一切。
- 从多个来源确认可能可疑的数字内容
暂停开发是一个解决办法吗?
知名人工智能研究者和行业专家,如Yoshua Bengio、Stuart Russell、Elon Musk、Steve Wozniak和Yuval Noah Harari也对此表示担忧,呼吁暂停开发这种人工智能系统。
有一种巨大的恐惧,即建立与生成式人工智能相匹配的先进人工智能的竞争有可能迅速失控。
有一些进展
微软最近宣布,只要遵守守则和内容过滤器,将保护其人工智能产品的购买者免受版权侵权的影响。这是一个重大的缓解措施,并显示了对使用其产品的后果负责的正确意图-这是伦理框架的核心原则之一。
它将确保作者保留对其权利的控制,并获得对其作品的公正补偿。
这是在正确方向上的巨大进步!关键是看它能解决多少作者的顾虑。
下一步是什么?
到目前为止,我们已经讨论了与这项技术相关的关键道德问题,以使其合理化。然而,这种技术进步成功利用而产生的一个风险是工作岗位被取代的风险。
有一种观点认为人工智能将取代我们大部分的工作。麦肯锡最近发布了一份关于未来工作将会如何的报告。
这个主题需要我们对工作的思维方式进行结构性改变,并且值得单独一篇文章来讨论。所以,请继续关注下一篇文章,我们将讨论未来工作和能帮助您在GenAI时代生存并取得成功的技能!
[Vidhi Chugh](https://vidhi-chugh.medium.com/)是一位人工智能战略师和数字化转型领导者,致力于构建可扩展的机器学习系统,并将产品、科学和工程学相结合。她是一位屡获殊荣的创新领导者、作家和国际演讲者。她的使命是使机器学习民主化,并为每个人打破障碍,成为这一转型的一部分。





