将伦理原则置于研究生命周期的核心位置

Place ethical principles at the core of the research lifecycle.)

伦理宪章 – 多模态项目

伦理宪章的目的

众所周知,机器学习的研究和应用可能导致“数据隐私问题、算法偏见、自动化风险和恶意使用”(NeurIPS 2021伦理指南)。本文的目的是正式规范我们(Hugging Face的多模态学习团队)在追求的项目中采用的伦理原则。通过在项目开始时定义这些伦理原则,我们将使它们成为我们机器学习生命周期的核心。

通过公开我们在项目中做出的决策、谁在负责系统的哪些方面以及如何联系团队,我们希望能够及早收到反馈意见,以便进行有意义的改变,并在意识到我们希望实现的目标和希望融入的价值观的基础上进行讨论选择。

本文是Hugging Face多模态学习团队(包括机器学习研究人员和工程师)主导的讨论的结果,多位伦理操作化、数据治理和个人隐私方面的专家也做出了贡献。

伦理宪章的局限性

本文是一个正在进行中的文档,反映了2022年5月的反思状态。关于“伦理人工智能”的定义和共识尚不存在,我们的考虑很可能随时间而改变。如果有更新,我们将直接在本文档中反映更改,并解释更改的理由,并通过GitHub跟踪更新的历史。本文档不旨在成为伦理人工智能最佳实践的真理来源。我们相信,即使它不完美,思考我们的研究的影响、我们预见的潜在危害以及我们可以采取的减轻这些危害的策略,对于机器学习社区来说是朝着正确的方向发展。在整个项目过程中,我们将记录我们在本文档中描述的价值观是如何具体实施的,以及在项目背景下我们观察到的优点和局限性。

内容政策

通过研究当前最先进的多模态系统,我们预见到我们在这个项目中追求的技术可能会被滥用。我们提供了一些我们最终希望防止的使用情况的指导方针:

  • 促进有害内容和活动,例如暴力、骚扰、欺凌、伤害、仇恨和各种歧视形式。根据性别、种族、年龄、能力状况、LGBTQA+取向、宗教、教育、社会经济地位和其他敏感类别(如性别歧视/厌女症、种姓制度、种族主义、残疾歧视、跨性别恐惧症、同性恋恐惧症)对特定身份亚群体进行偏见定向。
  • 违反法规、隐私、版权、人权、文化权、基本权利、法律和任何其他形式的约束性文件。
  • 生成个人身份信息。
  • 生成没有任何问责制和/或旨在伤害和引发他人的虚假信息。
  • 在高风险领域(如医疗、法律、金融和移民)不谨慎使用模型,可能会对人们的生活造成根本性的伤害。

项目的价值观

  • 透明:我们对意图、数据来源、工具和决策保持透明开放。通过透明,我们向社区暴露我们工作的弱点,因此我们是负责任的,并且可以被追究责任。
  • 共享开放和可复现的工作:开放涉及两个方面:过程和结果。我们认为共享数据、工具和实验条件的准确描述是良好的研究实践。研究成果,包括工具和模型检查点,必须对所有人无歧视地(如宗教、种族、性取向、性别、政治取向、年龄、能力)开放,以供在预期范围内使用。我们将可访问性定义为确保我们的研究能够轻松地向机器学习研究社区以外的受众解释。
  • 公平:我们将公平定义为对所有人的平等对待。公平意味着监控和减轻基于种族、性别、残疾和性取向等特征的不良偏见。为了尽可能减少负面结果,尤其是对边缘化和弱势群体产生影响的结果,应对数据和模型输出进行不公平偏见的审查,例如预测警务算法中的种族主义。
  • 自我批判:我们意识到我们的不完美,应不断寻找更好的方式来实施伦理价值观和其他负责任的人工智能决策。例如,这包括更好地策划和过滤训练数据的策略。我们不应过度宣称或进行虚假的言辞和炒作。
  • 给予认可:我们应通过适当的许可和归属来尊重和承认他人的工作。

我们注意到,有些价值观有时可能存在冲突(例如公平和分享开放可复现的工作,或尊重个人隐私和分享数据集),并强调需要根据具体情况权衡决策的风险和利益。