关于采用道德人工智能和数据科学实践的重要性,Eva-Marie Muller-Stuler博士的观点
Eva-Marie Muller-Stuler博士关于道德人工智能和数据科学实践的重要性
我们感谢EY MENA的Eva-Marie Muller-Stuler博士分享她作为数据和人工智能先锋的卓越经历,对伦理人工智能和数据科学实践的一些见解,以及对渴望成为专业人士的宝贵建议。本次访谈揭示了透明度、跨学科合作的重要性,以及不采用伦理人工智能和数据科学实践可能带来的潜在风险。渴望将伦理融入工作的专业人士将从这位远见卓识的领导者那里获得宝贵的建议和指导。继续阅读,了解她在伦理人工智能未来方向上的专业知识和愿景。
目录
- 作为数据和人工智能先锋的经历:探索塑造数据和人工智能未来的道路
- 您能告诉我们您作为数据和人工智能先锋的经历以及您是如何对这个领域产生兴趣的吗?
- 是什么激发您关注伦理人工智能和数据科学实践的重要性?
- 领导数据科学和人工智能项目:揭示在EY MENA开发和实施复杂数据科学和人工智能项目和转型方面的关键责任
- 在开发和实施复杂数据科学和人工智能项目和转型方面,您在EY MENA的主要责任是什么?
- 组织如何确保他们在运营过程中采用伦理人工智能和数据科学实践?
- 促进行业伦理实践的见解
- 您能分享一些特定的例子,这些例子中伦理考虑在人工智能或数据科学项目的实施中扮演了重要角色吗?
- 组织如何在利用人工智能和数据科学的好处的同时保持伦理标准的平衡?
- 透明度在确保伦理人工智能和数据科学实践方面扮演着什么角色,组织如何在其人工智能系统中实现透明度?
- 不采用伦理人工智能和数据科学实践可能带来的潜在风险或后果有哪些?
- 跨学科合作在确保伦理人工智能和数据科学实践方面,即邀请来自不同领域的专家参与,起到了什么作用?
- 未来的见解和建议
- 您认为伦理人工智能和数据科学的未来将如何发展,组织可以采取哪些步骤以在这个快速变化的环境中保持领先?
- 对于那些有兴趣将伦理融入工作的初学者数据和人工智能专业人士,您有什么建议?
作为数据和人工智能先锋的经历:探索塑造数据和人工智能未来的道路
您能告诉我们您作为数据和人工智能先锋的经历以及您是如何对这个领域产生兴趣的吗?
我学习数学是因为我一直喜欢逻辑思维,发现模式,以及如何将许多现实世界的问题转化为数学问题来解决。但那个时候,数学家的工作机会并不多,所以我添加了商业和计算机科学,以便在大学毕业后有更多的工作选择。
然后我开始了我的职业生涯,从事企业重组和财务建模,其中您可以预测业务决策对企业财务绩效的财务影响。这塑造了我对企业数据科学和人工智能的思考方式:有两个不同的领域:
- Web开发的未来:预测和可能性
- 使用LangChain和OpenAI API构建生成性AI应用程序
- USC研究人员提出了一个新的共享知识终身学习(SKILL)挑战,该挑战部署了一个分散的LL代理人群体,每个代理人依次学习不同的任务,所有代理人都独立并并行运行
a)数据科学用于改进业务(增加收入,削减成本或管理风险),或者
b)它是具有长期投资目标的研究?当公司建立数据科学和人工智能团队时,他们需要从一开始就明确定义他们想要产生的影响。太多的数据科学和人工智能团队是成本中心,对业务没有积极影响。
在伦敦担任投资基金总监期间,我注意到在建立金融模型时,假设和输入数据是多么简单。因此,我开始寻找更多的驱动因素和见解,以帮助做出更好的决策,并向模型添加更多的数据和信息。我将这种经验带到了KPMG,在那里我们建立了欧洲第一个数据和人工智能团队,创建了“始终在线机器”以做出更好的业务决策。
@media(min-width:0px){#div-gpt-ad-aitimejournal_com-banner-1-0-asloaded{max-width:728px;max-height:400px;}}
我事业的动力是我把自己置身于地球上一些最聪明的人之中,并且我发现我可以将我所学的领域与数据科学项目相连接。
没有其他工作可以将数学的美妙逻辑与最先进的技术开发相结合,并应用于人类行为和心理学、改善生活质量,或在零售、医疗保健、能源等领域更有效地利用资产。
是什么促使您关注道德人工智能和数据科学实践的重要性?
2013年,我们开始着手构建大数据模型。由于人们对数据访问和限制的理解很少,我们能够免费获取大量数据(例如个人可识别的电话信息,以及零售和健康数据)。我们将收集到的数据连接起来,构建了一个相互关联的生态系统来改进我们的模型。连接所有信息的影响非常强大,让我们震惊不已。
@media(min-width:0px){#div-gpt-ad-aitimejournal_com-large-leaderboard-2-0-asloaded{max-width:728px;max-height:400px;}}
我们还意识到我们的模型可能存在偏见,并且我们可以解释这种风险。模型可能出现许多潜在问题,但是在当时,数据科学和人工智能仍然是一个非常小的领域,主要以研究为主,对此并没有意识。几年后,越来越多的声音开始警告人工智能可能对人类产生威胁。但我从未将这视为最紧迫的风险。构建糟糕的人工智能非常简单,每个高中生都可以做到。但是构建值得信赖、公正、透明、安全的人工智能就是完全不同的故事。市场上大部分人工智能的质量都不适合向公众发布。例如,大多数可用的数据来自白人男性人口,因此基于这些数据构建的模型在自身利益方面自动存在偏见。
因此,我决定提高决策者们的意识,这是一种风险,我们必须警惕,以确保数据科学和人工智能的采用不会对我们的生活产生负面影响。这就是我开始与政府组织和非政府组织合作,提高对规则和法规的需求意识。
领导数据科学和人工智能倡议:揭示EY MENA的主要责任
在EY MENA开展复杂的数据科学和人工智能项目和转型方面,您的主要责任是什么?
该职位有两个重点:首先是内部实践和策略,我必须决定我们的产品、市场推广和内部技能发展。我将实践围绕主要支柱进行了结构化:数据治理与战略、技术与架构,以及用例构建。我还确保我拥有正确的团队组合和技能。
其次,重点是了解客户的需求以及他们在数据转型过程中的位置,并将EY的最佳资源汇聚起来推动他们前进。无论你的职位有多高,你都必须亲自参与并参与交付工作,以确保工作质量,并在出现任何问题时进行调解。
组织如何确保他们在运营过程中全面采用道德人工智能和数据科学实践?
在数据科学或人工智能团队建立的初期,必须清楚了解团队中不同角色和责任的不同。对于每个项目,团队必须集合在一起决定,不仅计划是否合乎道德,还要如何负责地实施。道德和可信赖的人工智能不仅仅是做正确的事情,还包括正确地做事情。
缺乏信任和道德关切是我们在人工智能采用中看到的最大障碍。有许多不同的框架,它们在核心上都非常相似。在开发中的基本原则在每个框架中都相似,侧重于人类代理和监督、技术的稳健性和安全性、隐私和数据治理、透明度、公平性、问责制、可解释性和可持续性。在每个项目中,必须从一开始就确保并监控这些原则,并贯穿模型的部署过程。这就是使得可信赖的人工智能成为一个复杂过程的原因。它从团队的组建开始,就要确保团队具备正确的技能、明确的角色、责任、行为准则和升级流程。
大多数公司今天仍然不清楚谁负责道德或法律合规。通常没有关于如何以负责任的方式设置项目,如何部署以及如何监视它们的流程。但是,当我们谈论有影响力的人工智能时,影响始终可以是双向的:如果行动是错误的,每个使您赚钱的行动也可能使您赔钱。因此,构建可信赖的人工智能必须经历整个端到端的过程:从数据治理到技术基础设施再到模型监视和重训练。只有在过程中的每一步都可以信任,模型的结果和推荐才能被信任。
促进行业道德实践的见解
您能分享一些具体的例子,道德考虑在实施人工智能或数据科学项目中发挥了重要作用吗?
每个认真对待数据转型的公司都必须解决道德和可信赖的人工智能挑战。经验法则是,受影响的人越多,影响越大,风险通常也越高。人工智能解决方案在高风险决策中的使用越来越多,当它们被完全部署时,它们可以以非常高的速度做出很多错误的决策。通常被认为是高风险的领域包括个人可识别信息(PII)或生物特征数据、关键基础设施、教育、就业、执法等。
对于这些领域的人工智能解决方案的开发,至关重要的是考虑解决方案可能引起的潜在风险和危害,以及如何减轻这种风险。如果无法确保它们的道德和可信赖的开发,那么这些解决方案就不应该发布到市场上。这些通常是有关犯罪预测、大学入学或招聘、薪资结构或医疗保健的案例。对于有兴趣在该领域利用人工智能解决方案的实体,还应意识到有偏见或不准确的人工智能解决方案可能导致非常高的财务、法律或声誉风险。
组织如何在利用人工智能和数据科学的好处的同时保持道德标准之间取得平衡?
这不是真正的平衡。任何不道德和不可信赖的解决方案都是一团糟,给业务带来风险。短期内,拼凑起一个快速模型可能更便宜,但从长远来看,模型将失败,其问题会变得如此严重,以至于公司在隐藏问题上花费的资金超过了它们最初的人工智能投资。我们看到越来越多的情况,事情出错的缓解变得非常昂贵。
透明度在确保道德人工智能和数据科学实践中扮演什么角色,组织如何在其人工智能系统中实现透明度?
透明度关注的是关于人工智能系统目的、设计和影响的适当程度的开放性。这既包括人们意识到人工智能解决方案做出决策,也包括清晰的文档和事实表,介绍了用于训练模型的数据、目的和潜在风险。模型描述或事实表必须与模型一起存储,以便如果更新、更改或为不同目的重用,仍然可以使用原始目的、训练数据和潜在问题。一个很好的例子是为美国市场构建的医疗模型,该模型可能没有在中东或非洲的60岁以上女性的任何数据上进行训练。必须明确指出,如果将该模型销售并推出市场,它可能在不同地区无法正常工作。
@media(min-width:0px){#div-gpt-ad-aitimejournal_com-leader-3-0-asloaded{max-width:728px;max-height:400px;}}
<p识别偏见和公平性问题的最佳方法是拥有多样化的团队。多样化团队的众包错误率低于同质团队的错误率。多样化的团队更有可能在项目初期就发现解决方案开发或数据方面的潜在问题。在原型开发中,需要检查训练数据是否存在偏见,以便发现潜在问题。有许多工具和技术可用于测试模型的偏见,并且这些测试需要从项目开始时就持续实施,贯穿模型的开发和部署过程。在部署、重训练或更新过程中,监视所有模型是至关重要的。
不采用道德AI和数据科学实践的潜在风险或后果是什么?
不道德或不受信任的AI的潜在风险或后果可能非常严重。当我们说AI应该有影响力时,我们应该记住,一切可以产生积极影响的东西也可以产生负面影响。一旦AI不道德且不可信,我们实际上不知道系统在做什么。因此,后果可能是声誉风险、财务损失、法律风险、知识产权损失或对人类生命的风险,这取决于解决方案的用途。
公司基本上是盲目行驶。例如,一家汽车公司使用AI和图像识别来理解高速公路上的限速必须确保系统稳固且防篡改,例如,通过更改标志。必须有测量和保护措施,以确保汽车不会突然在30区域以外的地方加速到130。即使在安全的试验环境中,每次有关自动驾驶车辆的负面新闻发布时,都会损害汽车公司的声誉。这在每个行业都是一样的。政府在COVID期间使用AI解决方案来决定学生的大学录取、银行具有偏见的信用卡或贷款审批流程等等,这些都导致了财务声誉或风险损失。
跨学科合作,涉及各个领域的专家,对于确保道德AI和数据科学实践有多重要?
道德和可信AI框架的发展一直是一个非常跨学科的领域。许多框架是在政治、法律和伦理专业之间共同开发的;我们一直在努力共同决定最低要求。不幸的是,技术界在工作组中常常被低估,所以对于需要实现的内容有共识,但在如何确保合规性方面的技术解释、指南和细节通常缺失。公司对于确保例如可解释或透明AI的步骤感到不确定。
未来的见解和建议
您如何看待道德AI和数据科学的未来发展,并且组织可以采取哪些步骤来保持领先于这个快速变化的领域?
GenAI的最新发展以及更复杂的AI解决方案的发布,大大加速了对道德和负责任AI、政府规则和框架的认识和需求。随着更多人能够访问、实验和探索AI工具,他们开始看到与概率特征相关的风险。这使得道德AI成为许多公司和政府议程的重点。道德和可信AI解决方案与法律要求的合规性和对公司财务和声誉的影响之间的直接联系,在过去半年中变得更加明显。因此,我不认为法律框架和要求是对公司的阻碍或成本。相反,它们的实施将降低风险,并实现数据和AI转型的成功。
您会给那些有意将伦理纳入自己的工作中的初涉数据和AI领域的专业人士什么建议?
我会从阅读与他们所从事领域和所在国家重要的伦理框架和法律要求开始。这些框架的核心信息非常相似;它们集中于理解风险、可能出现什么问题以及如何减轻风险。可以从政府和非政府组织那里获取许多信息或培训,例如,像IEEE这样的行业组织。一旦他们理解了框架的目的和要求,我会建议他们与资深导师合作,对项目进行现状评估,开始对风险进行分类,并起草和实施一个框架和流程,以确保所有项目在其整个生命周期中始终符合道德AI的要求。
@media(min-width:0px){#div-gpt-ad-aitimejournal_com-leader-2-0-asloaded{max-width:728px;max-height:400px;}}