中国对生成式人工智能安全性评估有了新计划——细节丰富多样

中国推出全新计划:加强生成式人工智能安全评估——深入解读细节多元化

卡内基国际和平基金会全球技术研究员马特·希安说:“这基本上为企业提供了一个遵守生成式人工智能规定的评估标准或操作手册,而这些规定有很多模糊的要求。” 图片来源:斯蒂芬妮·阿内特/MIT技术评论/盖蒂图片社

自从中国政府于七月通过了一项有关生成式人工智能的法律以来,我一直在思考中国的审查机器将如何适应人工智能时代。生成式人工智能模型生成的内容比传统社交媒体更加不可预测。而该法律中存在很多不清楚的地方;例如,它要求“具有社会动员能力”的公司向政府监管机构提交“安全评估”,尽管评估的具体工作方式并不清楚。

上周,我们对所有这一切可能的样子有了一些澄清。

十月十一日,中国国家信息安全标准化技术委员会组织发布了一份草案文件,提出了如何确定生成式人工智能模型是否有问题的详细规定。该标准化委员会(通常简称TC260)与企业代表、学者和监管机构进行协商,制定技术行业的规则,包括网络安全、隐私和IT基础设施等问题。

与你可能见过的许多关于如何监管人工智能的宣言不同,这份标准文件非常详细:它为何种数据源应该被禁止用于生成式人工智能的训练设定了清晰的标准,并给出了测试模型时应准备的确切关键词和样本问题的指标。

阅读完整文章请点击MIT Technology Review查看原文