“聊天机器人可能经常‘产生幻觉’,比很多人意识到的还要多”
聊天机器人的幻觉现象:可能比人们想象中更为频繁
去年底,旧金山初创公司OpenAI发布了名为ChatGPT的在线聊天机器人,数百万人为其回答问题、写诗和讨论几乎任何话题的人类方式所折服。但大多数人都很慢才意识到这种新型聊天机器人经常捏造事实。
几周后,谷歌推出了一个类似的聊天机器人,它对詹姆斯·韦伯太空望远镜就胡言乱语。接下来的一天,微软的新Bing聊天机器人为Gap、墨西哥夜生活和歌手比莉·艾利什提供了各种虚假信息。然后,在三月份,ChatGPT在写给曼哈顿的一个联邦法官的10页法律简报中援引了半打假冒的法庭案例。
如今,由前谷歌员工创立的一家名为Vectara的初创公司正试图弄清楚聊天机器人偏离真相的频率。该公司的研究估计,即使在设计出可阻止此类情况发生的情况下,聊天机器人至少会在3%的时间内捏造信息,最高可达27%。
来自《纽约时报》阅读完整文章