OpenAI面临诽谤诉讼,因ChatGPT对电台主持人产生虚假指控
OpenAI,这家著名的人工智能公司,现在正在应对一场诽谤诉讼,起因是他们的语言模型ChatGPT制造了虚假信息。乔治亚州的电台主持人马克·沃尔特斯(Mark Walters)在ChatGPT错误指控他从非营利组织中诈骗和侵吞资金后,向OpenAI提起诉讼。此事件引发了人们对人工智能生成信息可靠性和可能造成的潜在危害的担忧。这场开创性的诉讼引起了广泛的关注,因为虚假信息不断增多,对法律责任的影响越来越大。
指控:ChatGPT对马克·沃尔特斯的捏造指控
在这起诽谤诉讼中,马克·沃尔特斯指控OpenAI通过ChatGPT对他进行虚假指控。这位电台主持人声称,一名名叫弗雷德·里尔(Fred Riehl)的记者请求ChatGPT通过提供在线PDF链接来总结一起真实的联邦法院案件。然而,ChatGPT创建了一个详细且令人信服的虚假摘要,其中包含多个不准确之处,导致了对马克·沃尔特斯的诽谤。
人工智能生成的错误信息引起的担忧
人工智能系统(例如ChatGPT)生成的虚假信息已成为一个紧迫的问题。这些系统缺乏可靠的区分事实和虚构的方法。当询问信息时,它们通常会产生虚假的日期、事实和数字,特别是在提示确认某些已经提出的东西时。虽然这些虚构大多会误导或浪费用户的时间,但有时这样的错误会造成伤害。
还阅读:欧盟呼吁采取措施识别Deepfakes和AI内容
现实世界的后果:虚假信息导致伤害
人工智能生成的虚假信息导致伤害的案例的出现引起了严重关注。例如,一位教授在ChatGPT错误地声称学生们使用人工智能撰写了论文后,威胁要不及格。此外,一名律师使用ChatGPT研究不存在的法律案件后面临可能的制裁。这些事件凸显了依赖人工智能生成内容的风险。
还阅读:ChatGPT虚假法律研究愚弄了律师
OpenAI的责任和免责声明
OpenAI在ChatGPT的主页上包含一个小免责声明,承认该系统“偶尔可能生成不正确的信息”。然而,该公司也将ChatGPT宣传为可靠的数据源,鼓励用户“获取答案”和“学习新知识”。OpenAI的首席执行官萨姆·奥特曼(Sam Altman)更喜欢从ChatGPT中学习,而不是阅读书籍。这引发了公司确保所生成信息准确性的责任问题。
还阅读:人类训练的人工智能模型对训练人类有多好?
法律先例和人工智能的责任
确定因人工智能系统生成的虚假或诽谤信息而导致公司的法律责任是一项挑战。在美国,互联网公司通常受到第230条的保护,使其免于对其平台上托管的第三方生成的内容承担法律责任。然而,这些保护是否延伸到独立生成信息的人工智能系统,包括虚假数据,仍不确定。
还阅读:中国提出的人工智能法规震动了行业
测试法律框架:沃尔特斯的诽谤诉讼
乔治亚州马克·沃尔特斯提起的诽谤诉讼有可能挑战现有的法律框架。根据该案,记者弗雷德·里尔请求ChatGPT总结一个PDF,ChatGPT以虚假但令人信服的摘要回应。尽管里尔并未发布错误信息,但这些细节被另一方核实,导致沃尔特斯发现了这种错误信息。这场诉讼质疑了OpenAI对此类事件的责任。
ChatGPT的限制和用户误导
值得注意的是,尽管ChatGPT遵循里尔的请求,但在没有额外插件的情况下无法访问外部数据。这种限制引发了有关误导用户的潜力的担忧。虽然ChatGPT无法向用户提供警示,但在随后的测试中,它回应得不同,明确说明了其无法访问特定的PDF文件或外部文档。
还阅读:使用Langchain为PDF构建ChatGPT
诉讼的法律可行性和挑战
专门从事人工智能系统责任的法律教授尤金·沃洛赫认为,理论上对人工智能公司提起诽谤诉讼是合法的。然而,他认为沃尔特斯的诉讼可能会面临挑战。沃洛赫指出,沃尔特斯没有通知OpenAI关于虚假陈述,剥夺了他们纠正情况的机会。此外,没有证据表明ChatGPT产生的实际损失。
我们的看法
OpenAI陷入了一场开创性的诽谤诉讼中,因为ChatGPT对电台主持人马克·沃尔特斯进行了虚假指控。这个案例凸显了围绕人工智能生成的错误信息及其潜在后果不断升级的担忧。随着人们质疑人工智能系统的法律先例和责任,这起诉讼的结果可能会塑造未来人工智能生成内容的格局以及像OpenAI这样的公司的责任。