OpenAI的新倡议:引导超级智能AI走向正确的方向
OpenAI's new initiative Guiding superintelligent AI towards the right direction.
OpenAI,人工智能领域的领军者,最近宣布成立一支专门团队来管理与超级智能AI相关的风险。此举正值全球各国政府正在讨论如何监管新兴的AI技术。
理解超级智能AI
超级智能AI是指假设性的AI模型,在多个领域的专长上超越最有天赋和聪明的人类,而不仅仅是像以前一代模型那样只在单一领域上超越。OpenAI预测,这样的模型可能会在本十年结束之前出现。该组织认为,超级智能可能是人类有史以来最有影响力的技术,有可能帮助我们解决世界上许多最紧迫的问题。然而,超级智能的巨大力量也可能带来重大风险,包括可能使人类失去权力甚至导致人类灭绝。
OpenAI的超级对齐团队
为了解决这些问题,OpenAI成立了一个新的“超级对齐”团队,由OpenAI首席科学家Ilya Sutskever和研究实验室的对齐部门负责人Jan Leike共同领导。该团队将获得OpenAI目前已获得的计算能力的20%。他们的目标是开发一个自动对齐研究员,这个系统可以帮助OpenAI确保超级智能的安全使用,并与人类价值观保持一致。
虽然OpenAI承认这是一个非常雄心勃勃的目标,成功并不保证,但该组织保持乐观态度。初步实验显示出了希望,并且有越来越有用的进展指标可供使用。此外,目前的模型可以用于经验研究这些问题。
监管的必要性
在各国政府考虑如何监管新兴的AI行业之际,成立超级对齐团队是OpenAI的举措。OpenAI的首席执行官Sam Altman最近与至少100位联邦议员会面。Altman公开表示,AI监管是“必要的”,而OpenAI“渴望”与政策制定者合作。
然而,重要的是对此类声明持怀疑态度。通过将公众注意力集中在可能永远不会实现的假设性风险上,像OpenAI这样的组织可能会将监管的责任转嫁到未来,而不是解决当今政策制定者需要解决的关于AI和劳动力、信息错误和版权的即时问题。
OpenAI成立专门团队来管理超级智能AI的风险是朝着正确方向迈出的重要一步。这凸显了在应对先进AI可能带来的潜在挑战时采取积极措施的重要性。在我们继续应对AI发展和监管的复杂性时,像这样的举措提醒我们需要平衡的方法,既能利用AI的潜力,又能防范其风险。



