研究人员发现ChatGPT和其他聊天机器人的安全控制存在漏洞
Researchers found security vulnerabilities in ChatGPT and other chatbots.
当人工智能公司构建在线聊天机器人,如ChatGPT、Claude和Google Bard时,他们花费数月时间添加防护措施,以防止系统生成仇恨言论、虚假信息和其他有害材料。
现在有一种简单地绕过这些安全系统的方法。
在周四发布的一份报告中,匹兹堡的卡内基梅隆大学和旧金山人工智能安全中心的研究人员展示了任何人都可以绕过人工智能安全措施,并使用任何主要聊天机器人生成几乎无限量的有害信息。
他们的研究凸显了人们越来越担心这些新聊天机器人可能会在互联网上泛滥虚假和危险信息的问题,尽管它们的创造者努力确保不会发生这种情况。同时,它还显示了主要人工智能公司之间的分歧正在为这项技术创造一个越来越不可预测的环境。
来源:《纽约时报》完整文章