专家洞察:发展安全、稳定和值得信赖的人工智能框架
专家揭秘:打造安全、稳定、可信赖的人工智能框架
作者:查尔斯·瓦德曼博士、克里斯托弗·斯威特博士和保罗·布伦纳博士
根据拜登总统最近的行政命令,强调人工智能的安全、可靠和可信,我们分享了我们在研究项目进行两年后所学到的受信任的人工智能(TAI)教训。这个展示在下图中的研究项目旨在将满足严格的道德和性能标准的人工智能运作化。它符合人工智能系统透明度和问责的行业趋势,特别是在国家安全等敏感领域。本文反思了从传统软件工程向信任至上的人工智能方法的转变。
应用于机器学习管道和人工智能开发周期的TAI维度

从软件工程过渡到人工智能工程
从“软件1.0过渡到2.0和3.0理念”需要可靠的基础架构,能够概念化并实际执行对人工智能的信任。即使是下图所示的一组简单的示例机器学习组件,也展示了必须了解的重要复杂性,以解决各个层面上的信任问题。我们的TAI Frameworks子项目通过提供一个软件和TAI研究产品最佳实践的集成点,满足了这种需求。这样的框架降低了实施TAI的障碍。通过自动化设置,开发人员和决策者可以将他们的努力放在创新和战略上,而不是与初始复杂性抗争。这确保了信任不是一个晚出现的想法,而是一个前提条件,从数据管理到模型部署的每个阶段都与道德和操作标准相一致。结果是,部署的人工智能系统不仅在技术上先进,而且在道德上健全、在战略上可靠,适用于高风险环境。TAI Frameworks项目调查并利用现有的软件工具和最佳实践,这些工具和实践拥有自己的开源、可持续的社区,并可以直接在现有的操作环境中利用。
示例人工智能框架组件和利用

GitOps和CI/CD
GitOps已成为人工智能工程的重要组成部分,特别是在TAI框架中。它代表了软件开发和操作工作流程管理的演进,提供了基础架构和应用生命周期管理的声明性方法。这种方法在确保持续质量和将道德责任纳入人工智能系统中至关重要。TAI Frameworks项目利用GitOps作为自动化和流线型开发流程的基础组件。这种方法确保了自动遵守软件工程的最佳实践,实现不可变的审核跟踪、版本控制的环境和无缝回退功能。它简化了复杂的部署过程。此外,GitOps通过提供一个结构,可以将道德考虑纳入CI/CD流程的一部分,从而促进了道德考虑的整合。在人工智能开发中采用CI/CD不仅仅是为了保持代码质量,更重要的是确保人工智能系统可靠、安全,并按预期运行。TAI提倡自动化测试协议,以解决人工智能的独特挑战,特别是在我们进入生成式人工智能和基于提示的系统的时代。测试不再局限于静态代码分析和单元测试。它扩展到对人工智能行为的动态验证,包括生成模型的输出和提示的有效性。自动化测试套件现在必须能够评估响应的准确性,而且还包括其相关性和安全性。
以数据为中心和有文档记录
在追求TAI的过程中,以数据为中心的方法是基础,它优先考虑数据的质量和清晰度,而不是算法的复杂性,从而从根本上建立起信任和可解释性。在这个框架内,有一系列工具可用于维护数据的完整性和可追溯性。特别偏爱dvc(数据版本控制),因为它与GitOps框架一致,将Git扩展到数据和实验管理(请参阅这里的其他选择)。它为数据集和模型提供精确的版本控制,就像Git为代码提供的一样,这对于有效的CI/CD实践至关重要。这确保了为AI系统提供动力的数据引擎始终从准确和可审计的数据中得到连续的供应,这是可信AI的前提条件。我们利用nbdev来补充dvc,将Jupyter Notebooks转化为用于文学编程和探索性编程的VoAGI,从而简化了从探索性分析到良好文档化代码的过渡。软件开发的性质正在朝着这种“编程”风格发展,而AI“联合驾驶员”的进化只会加速AI应用程序的文档编制和构建过程。由像SPDX这样的开放标准倡导的SBoMs(软件材料清单)和AI BoMs是这一生态系统的重要组成部分。它们作为详细的记录,补充了dvc和nbdev,概括了AI模型的起源、构成和合规性。SBoMs提供了一个包含所有组件的全面清单,确保AI系统的每个元素都被考虑和验证。AI BoMs扩展了这个概念,包括数据源和转换过程,为AI应用程序中的模型和数据提供了透明度。它们共同构成了AI系统谱系的完整图景,促进了各利益相关者之间的信任和理解。
重视TAI
在TAI中,道德和以数据为中心的方法是基本的,确保AI系统既有效又可靠。我们的TAI框架项目利用了dvc进行数据版本控制和nbdev进行文学编程,反映了软件工程的转变,以适应AI的细微差别。这些工具象征着一个更大的趋势,即从AI开发过程的开始就整合数据质量、透明度和道德考虑。无论是在民用领域还是国防领域,TAI的原则是不变的:一个系统的可靠性取决于构建系统所依赖的数据和遵守的道德框架。随着AI的复杂性增加,对能够透明且符合道德要求处理这种复杂性的健壮框架的需求也越来越大。未来的AI,特别是在任务关键型应用中,将取决于对这些以数据为中心和道德举止的采纳,从而在所有领域中巩固对AI系统的信任。
关于作者
查尔斯·瓦德曼(Charles Vardeman),克里斯望(Christ Sweet)和保罗·布伦纳(Paul Brenner)是位于圣母大学研究计算中心的研究科学家。他们在科学软件和算法开发方面有数十年的经验,并专注于将应用研究转化为产品运营。他们在数据科学和网络基础设施领域有大量的技术论文、专利和资助的研究活动。与学生研究项目相一致的每周TAI简报可以在此处找到。
[查尔斯·瓦德曼博士](https://www.linkedin.com/in/charles-vardeman-7897759)是圣母大学研究计算中心的研究科学家。




