麻省理工学院研究人员推出PhotoGuard:一种新的AI工具,可以防止未经授权的图像篡改
MIT researchers introduce PhotoGuard a new AI tool to prevent unauthorized image tampering.
在一个人工智能技术可以模糊现实与制造之间界限的世界中,滥用的风险随之而来。像DALL-E和Midjourney这样的先进生成模型降低了进入门槛,使即使是没有经验的用户也能从简单的文本描述中生成超真实的图像。虽然这些模型因其精确性和用户友好性而受到赞扬,但它们也打开了潜在滥用的大门,从无辜的修改到恶意的操纵。
请认识“PhotoGuard”,这是由麻省理工学院计算机科学与人工智能实验室(CSAIL)研究人员开发的一种开创性技术。该方法利用微小的像素值扰动,这些扰动对人眼不可见,但可以被计算机模型检测到。这些扰动有效地干扰了人工智能模型对图像的操纵能力,为潜在滥用提供了一种预防性措施。
麻省理工学院的团队实施了两种不同的“攻击”方法来生成这些扰动。第一种被称为“编码器”攻击,它针对人工智能模型对图像的潜在表示。通过对这种数学表示进行微小调整,人工智能模型将图像视为随机实体,使其极难操纵。这些微小的变化对人眼来说是不可见的,确保了图像的视觉完整性。
第二种方法,即“扩散”攻击,更加复杂。它定义了一个目标图像,并优化了扰动,使最终图像尽可能接近目标。通过在原始图像的输入空间内创建扰动,PhotoGuard提供了一种强大的防御措施,防止未经授权的操纵。
为了更好地说明PhotoGuard的工作原理,想象一个包含原始绘画和目标绘画的艺术项目。扩散攻击涉及对原始绘画进行不可见的更改,使其在人工智能模型的感知中与目标对齐。然而,对于人眼来说,原始绘画保持不变。任何试图使用人工智能模型修改原始图像的尝试都会导致更改,就像处理目标图像一样,从而保护不受未经授权的操纵。
虽然PhotoGuard在保护免受人工智能操纵的方面显示出巨大的潜力,但它并不是万全之策。一旦图像上线,恶意个体可以尝试通过应用噪声、裁剪或旋转图像来逆向工程保护措施。然而,团队强调,强大的扰动可以抵抗此类规避尝试。
研究人员强调合作是至关重要的,包括图像编辑模型的创建者、社交媒体平台和政策制定者。实施强制要求用户数据保护并开发自动向用户图像添加扰动的API可以增强PhotoGuard的效果。
PhotoGuard是解决人工智能图像操纵日益关注的问题的开创性解决方案。在我们进入这个新时代的生成模型时,平衡其潜在的好处和对滥用的保护是至关重要的。麻省理工学院的团队认为,他们对这一重要工作的贡献只是一个开始,所有利益相关者的合作努力对于在人工智能时代保护现实至关重要。