这篇AI研究解释了大型语言模型(LLMs)中的合成个性特征

This AI research explains the synthetic personality traits in large language models (LLMs).

一个人的个性由一系列独特的品质、特征和思维方式组成。由于我们共同的生物和环境历史,它塑造了我们最基本的社交互动和偏好。由于在训练过程中对人类生成的数据的广泛接触,LLMs能够在输出中逼真地描绘出类似人类的个性,并有效地展示出一种合成个性。

由于在训练过程中对人类生成的数据的广泛接触,LLMs能够在输出中逼真地描绘出类似人类的个性,并有效地展示出一种合成个性。最近的研究试图识别LLMs增强能力的意外后果,例如倾向于产生暴力语言以及在实验中产生欺骗性和操纵性语言。与LLMs的对话、解释和知识提取并不总是可靠的。

理解这些模型所创建的语言与个性特征相关的特性对于LLMs成为主导的人机交互(HCI)界面至关重要,了解如何安全、适当和有效地设计由LLMs生成的个性配置文件也很重要。研究人员已经研究了包括少量提示在内的方法,以减少LLMs结果中负面和严重个性特质的影响。尽管LLMs的输出非常多变且对提示非常敏感,但迄今尚未有研究解决如何在科学和系统的级别上量化其个性的问题。

来自Google DeepMind、剑桥大学、Google研究部门、庆应义塾大学和加利福尼亚大学伯克利分校的研究人员提出了严格、经过验证的心理测量方法来表征和塑造基于LLM的个性合成。

团队首先创建了一种方法论,利用先前存在的心理测量测试来建立对LLM生成文学中个性特征的构建效度。他们提出了一种通过控制提示来模拟LLM响应中的人群方差的新方法,以测试个性与其外部相关因素之间的统计相关性,这些相关因素存在于人类社会科学数据中。最后,他们提供了一种独立于LLM的个性塑造方法,导致了个性特质水平的可观变化。

研究人员在两个自然交互环境中对不同大小和训练方法的LLMs进行了测试:MCQA和长文本生成。研究结果显示以下观察结果:

  1. 在特定的提示配置下,LLMs能够可靠而有效地模拟个性。
  2. 对于更大的、经过指导微调的模型,LLM模拟个性的可靠性和效度更高。
  3. LLM输出中的个性可以沿着期望的维度塑造,以模仿特定的个性配置文件。