欧盟AI法案:AI未来的一个有希望的步骤还是一个冒险的赌注?
欧盟AI法案:希望还是冒险?
欧盟的AI法案似乎有一个巨大的漏洞。这可能意味着像OpenAI这样的科技巨头可以大规模规避AI法规
一. AI规范的首次飞跃
欧盟于今年6月14日完成了AI法案的起草。
这是迈向安全和更好的AI的首次飞跃。正如您所知,欧盟的AI法案是第一部国际上关于“人工智能”的法规法律。该法案为公司(称为提供者)构建道德AI系统制定了规则和条例。欧洲国家以及像OpenAI这样的主要AI公司都向议会提出了自己的建议。
人工智能法案(简称AIA)敦促公司在使用AI系统时遵循某些要求。这包括对提供者进行KYC,披露系统架构、数据隐私等详细信息。尽管欧盟在这一领域的共同努力可以追溯到2017年,但这部法案是三年密集制定政策的结果。然而,直到最近,人们才意识到需要AI法规和伦理方面的规定。
人们意识到了人工智能的威力——像ChatGPT和Dalle这样的工具能够以惊人的速度工作,使每个人在一夜之间成为艺术家和诗人。
- Meta’s Llama 2 挑战 OpenAI 的 ChatGPT:AI 发展的新时代
- 斯坦福大学的研究人员开发了一种名为“RoentGen”的人工智能(AI)模型,该模型基于稳定扩散,并在大型胸部X射线和放射学数据集上进行了微调
- 围绕人工智能的扩展和采用存在的5个问题
人们对AI工具的能力感到惊叹。后来,他们开始担心安全问题。很明显,这些机器可以产生令人信服的错误信息。这些巫师造成的抄袭和版权问题本身就是一个无休止的辩论,尤其是在创意方面。
一方面,人们销售关于AI提示和“在世界末日之前你需要了解的前X个AI工具”的课程,另一方面,人们对快速发展的AI表示担忧。这些担忧主要是由AI专家提出的。他们担心这些基于算法运行的巫师的安全性。
欧盟何时通过AI法案?
您的提交现在是一个草案。一旦准备好,请将您的草案提交给我们的社区团队进行审核…
www.metaculus.com
截至我撰写本文时,AIA的立法仍在进行中。它的执行可能会在2023年或2024年进行。此外,在法案生效之前可能还有24-36个月的宽限期。假设AI法案在年底前起草完成,它仍然要到未来两三年才能完全实施。
现在,法案仍在制定中,这是分析法案并查看其中是否确实存在可以驯服这些AI巫师的漏洞的绝佳时机。
二. 巫师和他们的咒语
押注人工智能的公司正在引领未来,同时也在引领财富。全球生成式人工智能市场价值超过130亿美元。而当您试图对这样一个预计到2025年将超过220亿美元的行业进行监管时,法规变得令人望而生畏。更不用说,一个如此庞大的项目总会有漏洞。
这也是AIA的情况。
AIA很重要,在未来几年里,其他联盟将尝试在此框架之上制定自己的法律,使其在全球范围内保持一致。像OpenAI和Anthropic这样的大型科技巨头都向一个制定AI法律的全球性监管机构示好。
虽然AI法案考虑了社会安全问题,但它确实制定了支持受监管公司的规定,使它们在不增加竞争的情况下蓬勃发展。这是因为AI法案要求公司与其他供应商共享其系统的信息。
在使用这些算法巨兽时,问责是一个重要问题。这造成了一个缺口,即如果这些魔法师失控,谁将负责。
AI法案通过澄清AI提供者的角色和责任来解决这个问题。
随着今年AI初创公司的数量增加,关于计算资源和训练数据量的问题至关重要。AI法案旨在对新模型的训练设定上限,确保这些AI系统的安全发展。
AI法案同时考虑到了提供者(AI公司)和消费者(用户)的利益。在解决相关风险的同时,必须继续推动AI的创新。确保AI的安全性的一部分是以更安全的方式开发它们。你需要训练一只野兽才能使其社交化。
AI法案确保规定不会扼杀大型企业,或对未来技术进步设置障碍。
当然,AI草案不能让每个利益相关方都满意。这显然是对大公司而言的情况。
大型企业声称欧盟过度监管。
最近,一些大型科技公司的高管,超过150人,签署了一封致欧盟的公开信,声称AI法案对AI过度监管。这封信中包括了主要科技领导者的签名,如雷诺和西门子的CEO,喜力的执行董事,Meta的首席AI科学家等。
此外,强大的OpenAI首席执行官Sam Altmann也通过表示,如果规定太严格,他将不得不离开欧盟来表达他的关切。根据AI法案,ChatGPT和其大型语言模型GPT-4都可能被标记为“高风险”。稍后我会向您展示“高风险”意味着什么。
此外,根据《时代》杂志的报道,OpenAI首席执行官表示:“如果我们能遵守,我们将尽力,但是有技术上的限制。”
在另一篇《时代》的文章中,据报道OpenAI据称试图游说欧盟以使法案更有利于他们。看起来他们的努力在某种程度上取得了成果。另一方面,路透社的一篇报道称欧盟立法者确实在制定更严格的AI规定。
由于AI法案本身非常全面,我参考了一个名为未来生命研究所(FLI)的非营利组织所做的分析。如果您还记得的话,这是同一组织发出了一封呼吁暂停AI发展6个月的公开信,该公开信得到了1125名科技领袖和AI专家的签署。
前几天,我发现FLI在Substack上有一份关于欧盟AI法案的每周通讯,由Risto Uuk维护,他发布欧盟法案的亮点、重大事件和FLI的分析。
FLI在分析AIA方面做得非常出色。FLI本身在AI伦理领域进行了研究。FLI制定了阿西洛马AI原则,这是一套关于安全开发人工智能的23条准则。
亲爱的读者!希望您喜欢这篇文章。本文是我《创意阻滞》周报的一部分,这是一份关于技术和人工智能的周报。
如果您想阅读更多类似的内容,请访问Creative Block
在阅读他们的分析时,我发现AI法案有一些关键的改变。它有一些漏洞,实际上是相当严重的,可能导致不良参与者滥用这些未受监管的AI巨兽。
那么这些漏洞是什么呢?
III. 高风险系统和作为例外的逃避
AIA是基于风险的方法来设置的。
根据这种方法,一些被认为有害的AI使用是被禁止的;一些使用需要遵循严格规定;而一些无害的AI使用则不在AIA的范围之内。
第二种情况,即那些需要满足严格要求的系统,属于“高风险”系统的范畴。
根据欧盟的定义,“高风险”系统是那些会对您和您的基本权利产生负面影响的系统。欧盟将高风险系统广泛分为两类:
1)属于欧盟产品安全法规范的AI产品,这些产品是欧盟禁止或召回的产品;或者
2)属于以下八个特定领域的AI系统:
- 个人生物特征识别和分类
- 关键基础设施的管理和运营
- 教育和职业培训
- 就业、员工管理和自雇就业机会
- 享受基本私人服务和公共服务和福利的权利
- 执法
- 移民、避难和边境管理
- 法律解释和应用的协助。
如果一个AI系统符合上述任意一个要点,它们就被标记为高风险。没错,如果你想知道,ChatGPT(尤其是GPT4版本)似乎都符合这些要点。
这让OpenAI对AI法案感到担忧。OpenAI的所谓游说行动可能是其中之一原因。显然,它的许多应用程序,主要是ChatGPT和他们的模型GPT4,将被归类为高风险。
让我们来看看这个案例,并问问:ChatGPT和GPT4是否可以被视为高风险?在你回答之前,让我用OpenAI的方式来提问:这些工具在本质上是高风险的吗?
从我们在过去几个月中观察到的情况来看,答案似乎是明确的。像ChatGPT这样的AI工具是高风险的。
这些工具存在一些重大风险的情况。这些工具仍然会产生误导信息,会产生幻觉并说出令人信服的谎言,领导人似乎因为深度伪造而结束战争,将你的数据泄露到互联网上,无数的知识产权纠纷等等。这个列表还在继续。
我试图公正地展示这些风险的广泛情景。然而,我并不盲目地认识到这些机器在个人层面上被证明是有害的事实。
正如你所看到的,我可以继续下去。当我在发表这篇文章时,又会出现另一个人遇到麻烦的事件。在广阔的世界中,总有人成为AI巫师的受害者。这显示了这些算法机器的伤害范围。这个范围几乎是无边无际的。
FLI注意到,像ChatGPT这样的系统可以避免被标记为高风险,这要归功于AIA的第4c条款。
IV. 第4c条款 – AIA中的未见之条款
第4c条款是AIA第4b条款的例外。
第4b条款规定了AI系统的开发规则以及此类系统的提供者。根据该条款,如果您打算创建高风险系统,您必须向类似您的“其他”提供者提供有关您的系统的详细信息。
这被AI公司视为不良行为,因为他们需要披露有关自己系统的信息。这也将导致市场上的激烈竞争。
对此规定的例外在第4c条款的定义中显现出来。根据此条款,如果您的系统未被分类为“高风险”,作为提供者,您不需要公开有关您的系统的信息。这可以通过声明您已删除系统中的所有高风险元素来实现。
这项法案是允许提供者规避义务的规定。如果他们能够说服自己的系统“不具有高风险”,并且不会被滥用,他们就不必披露其AI系统。
披露AI系统的制作方式对确保提供者在道德和安全方面进行开发至关重要。
这成为AI市场中大公司逃避责任的后门。AI专家和FLI希望删除这篇文章,因为这可能使大型科技巨头能够规避他们的义务和公平竞争。
这可能是一个重大漏洞,但我不认为这是AIA的一个重大缺陷。现在需要的是对这篇文章进行更好的修订,或者更好地废弃这个例外。
好消息是,AIA仍处于草案阶段。FLI在其分析中指出了这个漏洞并加以讨论。
AIA的一个显著特点是,尽管大公司对过度监管表示反对,但该法案旨在确保欧洲组织能够保持竞争力。尤其是与美国和中国等其他主要竞争对手相比。
例如,OpenAI和Anthropic总部位于美国,而百度Ernie总部位于中国。它们都是AI领域的重要参与者(后者不太重要)。因此,在竞争方面,欧洲公司还有很长的路要走才能与竞争对手相媲美。
V. 快节奏的未来,夹杂着现实的一点点
根据趋势和一点点乐观,人工智能无疑会塑造未来的技术。人工智能已经以某种形式在多个领域中使用。无论是使用人工智能来解决蛋白质结构问题,使用人工智能模拟工程的各个部分,使用人工智能现代化教育,还是使用人工智能刷牙或其他奇特的用途,人工智能将成为新常态,就像智能手机一样。
在一个众多依赖于一个统一体的领域中,安全和伦理问题也是一个重要的特点,应尽快解决。AI驱动的生活方式可能会成为新常态吗?这个问题有待讨论。
重要的是,大公司要认真履行自己的责任,并共同努力解决这些问题。是的,大科技巨头要负起责任,因为他们是将世界引向新的人工智能时代的推动者。
在草案阶段早期解决漏洞并进行更改比事后修改更好。
然而,并不是所有的科技领袖都展现傲慢,人工智能伦理的概念也不纯粹是想象的。当然,不是这样的。几乎所有大型人工智能公司都有自己的安全守则。但是目前,人工智能行业在很大程度上是无监管的。人工智能模型具有无法预见的固有风险。监管努力来得太晚,因为人工智能比以往任何时候都发展得更快。但是,迟到总比不到好-幸运的是,欧盟率先采取了重要的一步来保持措施。
虽然对于28个国家的联盟来说可能只是一个小步骤,但它代表着在这个新的人工智能时代中个人在线未来的巨大飞跃。
您对跟上技术和人工智能的最新进展感兴趣吗?
那么您肯定不想错过我在substack上免费发布的每周新闻简报,我在其中分享有关科技、科学和人工智能的见解、新闻和分析。
创意阻滞 | Aditya Anil | Substack
关于人工智能、技术和科学的每周新闻简报对您很重要。点击阅读Aditya的创意阻滞…
creativeblock.substack.com