《AI报告:斯坦福研究人员敦促科技公司更加透明》

《AI报告:斯坦福研究人员倡导科技公司更加透明》

斯坦福大学的研究人员发布了一份报告,敦促像OpenAI和谷歌这样的公司披露与数据和人力劳动有关的更多信息。在一份路透社的报告中,报告的作者指出了基础模型和更大的透明度的需求。

斯坦福大学教授Percy Liang是《基础模型透明度指数》背后的研究人员,他表示:“在过去的三年中,透明度的下降显而易见,而能力几乎飙升…我们认为这是一个严重的问题,因为我们在其他领域(例如社交媒体)已经看到,当透明度降低时,可能会出现不良后果。”。

有争议的模型,基础模型是在大规模数据集上训练的人工智能系统,可以执行各种任务。这可能涉及代码生成、文本等。毫无疑问,这些模型背后的公司是当前生成式人工智能技术崛起的主要推动因素。

报告指出,随着这些模型在全球范围内越来越多地应用于企业和行业,更好地理解偏见和限制已变得至关重要。上面链接的指数对十个流行模型进行了一百个不同的透明度指标评分。

这包括训练数据和计算能力。结果,所有的模型都被评为“不惊人”。这甚至包括Meta的LLAMA 2,得分为53/100。OpenAI GPT-4的得分为47,而Amazon的Titan的得分最低,只有11分。

指数的作者希望发布报告能够推动科技公司更加透明地对待他们的基础模型。他们还希望报告可以成为希望了解如何最好地监管人工智能的政府的起点。

该项目是由斯坦福人类中心人工智能研究所为基础模型研究而完成的。这是继华盛顿特区的议员和科技高管之间的会议两个月后,以及微软、谷歌和其他主要科技公司公开开始推动政府更好地理解人工智能之后。

虽然立法者在华盛顿似乎陷入僵局,但监管问题在全球范围内是一个热门话题,各国和地区寻求学习如何应对人工智能,以不降低技术的预期积极影响。