顺序问题:人工智能如何应对相反情况
应对相反情况的顺序问题:人工智能的解决方案
|人工智能| 大语言模型|
反转魔咒如何影响大型语言模型的原因和方式
大型语言模型(LLMs)风靡全球。它们似乎每天都展示出越来越强大的能力,但它们是否没有限制呢?看起来并非如此,但在某些情况下,它们会失败。
显而易见,但不易。
我们已经习惯了能够以惊人的速度生成复杂代码或文本的模型的令人难以置信的性能,一些研究者甚至提出它们可能具有意识。
然而也有报道称,LLMs能够出现令人惊叹的失败。在一些先前的研究中,作者指出模型无法处理某些编程实例,或者LLMs难以理解讽刺(公平地说,有几个人也如此)。
人工智能有趣吗?也许,一点点
为什么人工智能在幽默方面仍然存在困难,以及这是一个重要的步骤
levelup.gitconnected.com
最近有一篇论文显示 ,LLMs出人意料地无法推广被认为是人类轻而易举的任务:
如果一个人学会了事实“Olaf Scholz是德国的第九任总理”,他们也能正确回答“谁是德国的第九任总理?”这是一种如此基本的推理方式,看起来是微不足道的。然而,我们表明自回归语言模型无法以这种方式推广。(来源)
如果模型被训练为以“<姓名> 是 <描述>”的形式的文本,该模型可能无法预测相反的“<描述> 是 <姓名>”(或在逻辑形式中,如果A是B,那么B是A)。




