为什么你今天应该关心欧盟人工智能法案

为什么你应该关心欧盟人工智能法案

我们在机器学习和人工智能行业工作的大多数人都会看到有关新法规的标题,并对此不以为意。新的法规属于“法律术语”,这个术语描述了任何法规、合同或其他法律文件都像是用外语写成的。数据科学家通常不会花时间去理解法律术语,就像大多数非数据科学家不知道微调大型语言模型(LLM)的具体过程一样。因此,当新的规定出台时,我们更倾向于让法务团队处理,并假设他们会告诉我们是否有相关内容。

这部分是对的,你的法务团队可能会在某个时候参与其中,但是当他们参与时,你将会有大量的技术债务,可能需要花几个月的时间来弄清楚。相反,对监管机构的整体了解将有助于减少技术债务,并以一种能够让你在规则生效后迅速达到合规的方式工作。或者最好是在一开始就避免构建有问题的能力。这正是我写这篇文章的原因!

Photo by Christian Lue on Unsplash

欧盟人工智能法案

欧盟人工智能法案是欧洲委员会在2021年提出的一项提案——在过去的一周里,该提案已经获得了欧洲议会的通过,最终版本预计将于2023年晚些时候通过。

该规则适用于在欧洲联盟的27个成员国中分发人工智能系统的任何人。

提案的原因和目标

欧洲委员会正确指出,人工智能可以为欧洲联盟和全球面临的许多复杂挑战带来巨大的益处,例如气候、健康和移动性。然而,这项技术也带来了一定的风险。想象一个不那么遥远的未来,深度伪造技术如此普遍,以至于公众无法区分什么是真实的,什么是伪造的。这种情况的影响是深远的,不仅影响到个人的社交和隐私问题,还对民主制度的基本结构构成威胁。

委员会致力于寻求一种平衡的方法,既能有效管理风险,又能维护和推进欧盟作为积极发展人工智能技术的领导者的地位。

欧盟人工智能法案的目标:

  1. 确保安全并遵守现有法律——如《通用数据保护条例》(GDPR)、版权和其他安全法律
  2. 确保法律确定性——对未来法规的不确定性可能会吓跑投资者和创业者
  3. 加强对基本权利和人工智能系统安全的管理和执法
  4. 在整个欧盟创建一个人工智能的单一市场——防止27个成员国对人工智能制定不同的规则和法规的情况发生

该提案试图提出一个全面且具有未来性的框架。它包括灵活的机制,使其能够随着技术的发展而动态调整。

人工智能风险分类

该规则定义了4个基于风险的分类。基于风险的方法意味着不同的模型会被不同对待,而不是一概而论或具体对待。这被认为是一种相对前瞻性的规则制定形式,因为它不对具体工具做出规定,一般允许创新。

了解你的模型/产品属于哪个分类对于理解你需要遵守的要求至关重要。

分类1:不可接受的风险

这些是指:

  1. 使用潜意识技术来扭曲一个人的行为,可能会造成身体或心理伤害;
  2. 利用某个特定群体的年龄、身体或精神残疾的弱点,以方式来扭曲一个人的行为,可能会造成身体或心理伤害;
  3. 进行可能导致个人或群体受到不利对待的社会评分——这可能意味着根据种族、性别、宗教等潜在的分类来影响信用评分或招聘流程的人工智能模型;
  4. 在公共场所实施“实时”远程生物识别,用于执法目的,除非在特定极端情况下。

限制:这些系统存在不可接受的风险,因此被禁止使用。

第二类:高风险

如果以下条件成立,AI系统将被定义为高风险:

  1. 受监管产品的安全组件。例如,需要CE标志(机械设备、玩具、无线电设备)、飞机、汽车、医疗设备、个人防护装备等产品。
  2. 用于生物识别、关键基础设施管理、教育和培训、执法、移民、庇护和边境控制、司法和民主进程等领域的某些AI系统。

限制和要求:

  • 需要具有特定测试的风险管理系统,以确定风险管理措施
  • 数据和数据治理 – 数据集应符合适当的数据治理和管理实践,涉及设计选择、数据收集、数据注释、处理、统计特性和偏差等方面。
  • 详细且最新的技术文档
  • 系统在使用过程中必须包含自动记录功能
  • 透明度要求
  • 适当声明的准确性水平
  • 高风险AI系统在欧盟数据库中注册
  • 第三方合规评估+CE标志

第三类:具有透明度义务的AI系统

这些是与人类交互、检测情绪、根据生物识别数据确定与(社交)类别的关联性或生成/操纵内容(深度伪造)的AI系统。

限制:信息/透明度义务,例如向最终用户披露。

第四类:低或最小风险

这些是所有其他AI系统。

限制:无。

示例AI系统

示例1:

一家农业公司使用计算机视觉模型来分割和识别最近采摘的番茄的状况,然后将其送往分销。

这个AI模型执行的是质量保证任务,不与人类进行交互。因此,该模型被认为是低风险或VoAGI风险,并且没有任何监管要求。

示例2:

一家国家铁路运营商决定使用AI监控和验证轨道是否没有杂物或障碍物。作为铁路运营的重要安全组件,并且与铁路相关的产品已在欧盟受到监管,该AI系统将属于高风险类别,并需要遵守上述要求。

示例3:

为了增加社交网络的病毒式流量,使用大型语言模型(LLM)作为聊天机器人鼓励未成年人参与危险行为,以有趣或酷炫的挑战或游戏的形式。这种使用AI系统的方式违背了欧盟的价值观,被严格禁止。

示例4:

一个讽刺性的电视节目使用政治家和名人的深度伪造作为其幽默内容的一部分。这种内容需要包含一个披露声明,说明内容是通过自动化方式生成的,不是真实的。

支持创新

欧洲委员会理解遵守法规会带来一定的成本,有时会阻碍创新。为了解决这个问题,该规则鼓励欧盟成员国建立测试环境或沙盒,供AI系统开发者在受监管的情况下测试其系统。目前还没有公布具体细节,但这些沙盒可能是监管性沙盒(而不是基础设施沙盒)。监管性沙盒将在有限的时间内,对某些公司豁免部分规定,并在监管机构的监督下进行。

欧洲委员会在制定与合规评估相关的费用时,也会考虑中小企业和初创企业的需求和限制。

今天你能做什么

首先确定您的AI系统属于哪个类别,以了解您可以预期的审查水平。还有一些需要考虑的细节和细微差别,因此请让您的法律团队参与进来(不要假设他们已经遵循了这些变化)。您的法律团队可以帮助您更好地理解针对您特定AI系统的要求。

确保您采用机器学习开发的最佳实践和标准。这包括数据、代码、注释和模型版本控制、实验跟踪等。最佳实践将使您的项目组织有序,减少技术负债,并提高效率,使您能够专注于实验和部署性能更好的模型。

数据治理和管理 – 新规定要求数据集具有适当的统计特性,以便正确代表预期用户群体的总体,并且不偏向或歧视某个特定群体。这意味着对于每个模型或产品,机器学习从业人员需要对用于训练、测试和验证模型的数据有很好的理解 – 跟踪正确的数据渊源是至关重要的,而且几乎不可能在事后进行。

适当的数据管理和治理对于遵守现有的欧盟法规(《AI法案》强调遵守现有规则的重要性)如GDPR和版权规则非常重要。像DagsHub的数据引擎这样的工具可以让您包含与版权许可或某些数据是否包含个人信息相关的元数据。

结论

《欧盟AI法案》将影响计划在欧盟提供AI解决方案和产品的每个个人或公司。规定的总体目的是为了保护人民的安全。虽然为了遵守规定需要一些限制和成本,但规则本身被设计成具有灵活性,允许创新。

了解法规,使法律团队参与,并通过行业最佳实践和工具来正确管理数据和项目是做好准备和减少技术债务的关键。

由于欧盟是首个发布重要AI法规的国家,预计其他国家也会出台类似的框架。

免责声明:本文提供的信息不意味着法律建议。它仅供信息目的,并不应依赖于法律建议。如果您需要法律建议,请咨询合格的法律专业人士。