OpenAI对人工智能安全的方法
在OpenAI CEO Sam Altman就新技术所带来的担忧作出证词后,AI系统中的安全方法会发生什么变化?
您或许已经看到了 OpenAI 首席执行官 Sam Altman 于 16 日出席美国参议院委员会的视频。如果您没有看到,Sam Altman 呼吁美国立法者对人工智能(AI)进行监管。首席执行官就这项新技术的担忧和可能的陷阱作证。
自 ChatGPT 发布以来,市场上涌现了大量的语言模型和其他 AI 模型。过去几个月,各国政府一直在讨论 AI 的监管和对社会的安全性。欧盟一直在推动其 AI 法案,其他洲也在效仿。
Sam Altman 一直关注使用 AI 带来的伦理问题和担忧,并推动更多的监管。他曾经说过:
“我认为,如果这项技术出了问题,它可能会出大问题……我们想在这方面大声疾呼。我们想与政府合作,防止这种情况发生。”
OpenAI 的安全承诺
OpenAI 一直致力于保障 AI 的安全和益处。他们认识到他们的工具,比如 ChatGPT,已经改善了许多人的生产力、创造力和整体工作体验。然而,安全仍然是他们的一个主要优先事项。
那么 OpenAI 是如何确保他们的 AI 模型是安全的呢?
严格的测试
在任何 AI 系统发布之前,OpenAI 都会经过严格的测试,并通过外部专家的帮助不断寻找改进系统的方法。他们使用强化学习与人类反馈的技术来改善模型的行为,从而构建更好的安全和监控系统。
在发布他们的最新模型 GPT-4 之前,OpenAI 花费了超过 6 个月的时间来确保其安全性。
现实世界中的使用
没有什么比将它用于现实世界更好的测试了。在实验室中创建一个新系统并尝试防止所有可能的风险是很好的。但是在实验室中,您将无法控制这些风险,因此您必须让它在公众中使用。
不幸的是,在 AI 系统中,您将无法限制甚至预测公众将如何使用它-是为了受益还是滥用它。OpenAI 发布带有多个保障措施的 AI 系统,一旦他们扩大可以访问他们的 AI 系统的人群,他们就会确保持续改进。
可供开发人员使用的 API 还允许 OpenAI 监控潜在的滥用行为,并使用它来构建缓解措施。OpenAI 认为,社会应该在 AI 继续发展方面有重要的发言权。
保护儿童
OpenAI 在 AI 安全方面的主要关注之一是保护儿童。他们目前正在研究验证选项,其中他们的用户必须年满 18 岁,或者年满 13 岁并获得父母同意。他们已经声明,他们不允许使用他们的技术来生成任何形式的仇恨、暴力或成人内容。
他们还采取了更多的工具和方法来保护儿童,例如当用户尝试上传已知的儿童色情内容到我们的图像工具时,OpenAI 已经采取了 Thorn’s Safer 来检测、审查并向国家失踪和被剥削儿童中心报告。
为了确保儿童从 ChatGPT 等工具中受益,OpenAI 与可汗学院合作,建立了一个 AI 助手,作为学生的虚拟导师和教师的课堂助手。
隐私
大型语言模型已经在各种公开可用的来源上进行了训练,有些人认为存在隐私问题。OpenAI 已经表示:
“我们不使用数据来销售我们的服务、广告或构建人们的个人资料-我们使用数据来使我们的模型对人们更有帮助。”
他们的目标是让像 ChatGPT 这样的工具了解世界,而不是了解个人。为了确保这一点,OpenAI 在可能的情况下从训练数据集中删除个人信息,并调整其模型以拒绝任何形式的有关个人信息的请求。它还通过要求个人从 OpenAI 的系统中删除其个人信息来做出回应。
准确性
用户对ChatGPT等工具的反馈使得OpenAI能够标记被认为不正确的输出并将其作为主要数据源。提高事实准确性是他们的首要任务之一,GPT-4比GPT-3.5更有可能产生事实内容,准确率提高了40%。
总结
OpenAI公布了他们的人工智能安全方法,并且首席执行官Sam Altman解决了人工智能系统潜在问题,敦促政府制定法规,这是解决人工智能安全问题的一种方式。
这需要更多的时间、资源和从市场上最有能力的模型中学习。OpenAI等待了超过6个月才部署GPT-4,然而,他们已经表示为确保安全可能需要更长的时间。
你认为从现在开始会发生什么?
如果你想观看OpenAI的Sam Altman于16日星期二的听证会,可以在这里观看:ChatGPT首席执行官Sam Altman在AI方面向国会作证。
Nisha Arya是一名数据科学家、自由技术作家和小猪AI社区经理。她特别感兴趣提供数据科学职业建议或教程和基于理论的数据科学知识。她还希望探索人工智能在人类寿命长久方面有助益的不同方式。她是一位热心的学习者,寻求拓宽她的技术知识和写作技能,同时帮助指导他人。