揭开作者面纱:AI还是人类?探索IBM创新的文本检测工具中AI取证的出现
AI取证:揭开IBM创新文本检测工具中的作者身份
在人工智能快速发展的时代,一个重要的挑战需要关注:生成式人工智能的透明度和可信度。IBM的研究人员致力于为世界提供AI检测和归因工具,以改变我们对生成式人工智能的认知。然而,问题在于,语言模型并不太擅长检测它们所写的内容,或者追溯调整过的模型的来源。随着它们继续重塑日常交流,研究人员正在开发新的工具,使生成式人工智能更具解释性和可靠性。
通过将可信的AI工具包适应现代时代的基础,研究人员旨在确保这些发展中技术的问责和信任。IBM和哈佛大学的研究人员帮助创建了第一个AI文本检测器GLTR,它分析单词之间的统计关系,或者寻找生成文本的明显特征。IBM的研究人员开发了一种新颖的工具RADAR,用于帮助识别被改写以欺骗检测器的AI生成文本。它将两个语言模型对抗,一个模型改写文本,另一个模型判断它是否是AI生成的。为了使用生成式人工智能,已经采取了安全措施,限制员工访问像Chatgpt这样的第三方模型,从而防止客户数据泄漏。
在生成式人工智能的世界中,下一个挑战是通过归因领域识别生成文本的模型来源和它们的文本。IBM的研究人员开发了一个匹配对分类器,用于比较回答并揭示相关模型。使用机器学习进行自动化的AI归因帮助研究人员确定特定模型的来源和其他很多信息。这些工具有助于追踪模型的基础并理解其行为。
IBM一直积极倡导解释性和可信的人工智能。他们推出了AI Fairness 360工具包,将偏见缓解和可解释性纳入他们的产品。现在,随着Watsonx.governance于十一月发布,他们正在增强人工智能工作流程的透明度。IBM决心为每个人提供透明度工具的可访问性。