“聊天机器人可能经常‘产生幻觉’,比很多人意识到的还要多”

聊天机器人的幻觉现象:可能比人们想象中更为频繁

“幻觉”对于在个人电脑上调试聊天机器人的人可能不是一个问题,但对于使用这项技术处理法庭文件、医疗信息或敏感商业数据的人来说,这是一个严重的问题。 ¶ 图片来源:Cayce Clifford/The New York Times

去年底,旧金山初创公司OpenAI发布了名为ChatGPT的在线聊天机器人,数百万人为其回答问题、写诗和讨论几乎任何话题的人类方式所折服。但大多数人都很慢才意识到这种新型聊天机器人经常捏造事实。

几周后,谷歌推出了一个类似的聊天机器人,它对詹姆斯·韦伯太空望远镜就胡言乱语。接下来的一天,微软的新Bing聊天机器人为Gap、墨西哥夜生活和歌手比莉·艾利什提供了各种虚假信息。然后,在三月份,ChatGPT在写给曼哈顿的一个联邦法官的10页法律简报中援引了半打假冒的法庭案例。

如今,由前谷歌员工创立的一家名为Vectara的初创公司正试图弄清楚聊天机器人偏离真相的频率。该公司的研究估计,即使在设计出可阻止此类情况发生的情况下,聊天机器人至少会在3%的时间内捏造信息,最高可达27%。

来自《纽约时报》阅读完整文章