加州大学伯克利分校的研究人员推出了Ghostbuster:一种用于检测LLM生成文本的SOTA AI方法
当加州大学伯克利分校的研究人员推出了Ghostbuster:一种用于检测LLM生成文本的SOTA AI方法
ChatGPT已经彻底改变了轻松生成多种流畅文本的能力,适用于广泛的主题。但是它们究竟有多好呢?语言模型容易出现事实错误和幻觉。这使读者了解在决定是否信任来源时,是否有使用这些工具来捉鬼新闻文章或其他信息文本。这些模型的发展也引发了关于文本的真实性和原创性的担忧。许多教育机构也限制了ChatGPT的使用,因为产生内容变得很容易。
像ChatGPT这样的语言模型是根据训练文本中的模式和信息生成回答的。它不是完全复制回答,而是通过预测和理解给定输入的最合适的延续来生成新内容。然而,这些反应可能会利用训练数据中的信息合成现有内容,导致相似之处。重要的是要注意,语言模型力求原创和准确性,但并非完全可靠。用户应谨慎行事,不应仅依赖基于人工智能生成的内容进行重要决策或需要专家建议的情况。
存在许多检测框架,例如DetectGPT和GPTZero,用于检测语言模型是否生成了内容。然而,在未经评估的数据集上,这些框架的性能会衰退。来自加州大学的研究人员提出了Ghostbusters。它是一种基于结构化搜索和线性分类的检测方法。
Ghostbuster使用三阶段的训练过程,分别是概率计算、特征选择和分类器训练。首先,它通过在一系列语言模型下计算每个标记的概率来将每个文档转换为一系列向量。然后,它通过在向量和标量函数空间上运行结构化搜索过程来选择特征,这些特征通过定义一组操作来合并这些概率,并运行前向特征选择。最后,它使用基于最佳概率特征和其他手动选择的特征来训练一个简单的分类器。
Ghostbuster的分类器是在通过结构化搜索选择的基于概率的特征和基于词长度和最大标记概率的七个额外特征的组合上进行训练的。这些其他特征旨在包含关于人工智能生成文本的定性启发。Ghostbuster对于训练和测试数据集的相似性的性能提升是稳健的。在所有条件下,Ghostbuster的F1得分平均达到了97.0,并且超过了DetectGPT的39.6 F1和GPTZero的7.5 F1。在除创意写作领域之外,Ghostbuster在所有领域中的表现都超过了RoBERTa基准模型,并且RoBERTa的越领域性能要差得多。F1得分是一种常用于评估分类模型性能的指标。它是一个将精确度和召回率结合在一个值中的度量,特别适用于处理不平衡的数据集。