谷歌警告员工使用聊天机器人,以下是原因

Google的母公司Alphabet Inc.警告员工谨慎使用聊天机器人,包括ChatGPT和自家开发的Bard。随着该公司在全球范围内扩大聊天机器人计划的覆盖范围,这一警告出现了。让我们深入了解这一发展的细节,了解其中的关切。

还阅读:三星因安全问题禁止员工使用生成式人工智能

保护机密信息

据知情人士透露,Alphabet已指示其员工不要将机密材料输入AI聊天机器人,包括Bard。这一指示与该公司长期以来的信息保护政策一致。虽然Bard和ChatGPT等聊天机器人被设计为与用户进行对话并提供回应,但由于AI模型能够复制吸收的训练数据,存在数据泄露的潜在风险。

还阅读:专家称人工智能正在窃取您的数据

工程师和程序员的注意事项

除了建议不要输入机密信息外,Alphabet还告知其工程师避免直接使用聊天机器人的计算机代码。虽然Bard可能提供建议,但对于程序员来说,谨慎行事非常重要。谷歌旨在通过承认其技术的局限性并确保不会造成意外后果来保持透明度。

还阅读:苹果效仿竞争对手三星,因隐私担忧禁止使用ChatGPT

竞争环境和业务影响

谷歌对聊天机器人的使用持谨慎态度,这源于其与由OpenAI和微软支持的ChatGPT的竞争。这是一项高风险赌注,数十亿美元的投资、潜在的广告收入和云收入都取决于这些人工智能程序的成功。谷歌的预防措施是一个行业范围的趋势,其他公司如三星、亚马逊和德意志银行也在为AI聊天机器人实施监管措施。

还阅读:微软和OpenAI就AI整合问题发生冲突

员工使用AI工具和安全标准

对来自美国顶级公司的专业人士进行的一项调查显示,约有43%的受访者使用了像ChatGPT这样的AI工具,而往往没有告知上级。为了减轻潜在风险,包括苹果(未经证实)在内的全球公司已采用安全标准,警告员工不要使用公开可用的聊天程序。

隐私问题和监管对话

谷歌已与爱尔兰数据保护委员会进行了详细讨论,以解决与隐私相关的问题并符合监管要求。一份最近的Politico报告称,Bard在欧盟的推出因对其隐私影响的额外信息而推迟。谷歌的更新隐私声明建议用户在Bard对话中不包含机密或敏感信息。

还阅读:欧洲数据保护委员会成立ChatGPT隐私工作组

通过创新解决方案减轻风险

公司正在积极开发软件解决方案来解决这些问题。例如,领先的网络安全和云服务提供商Cloudflare允许企业对某些数据进行标记和限制,以防止其外部传输。谷歌和微软也为企业客户提供对话工具,通过不将其纳入公共AI模型中来确保数据隐私。尽管Bard和ChatGPT的默认设置保存了用户的对话历史记录,但用户可以删除它。

我们的观点

谷歌对其员工关于聊天机器人使用的警告,包括Bard,反映了该公司对数据隐私和安全的承诺。随着人工智能技术的不断发展,组织实施保障措施和促进负责任的使用至关重要。AI聊天机器人的动态环境要求在创新和风险缓解之间保持微妙的平衡。通过解决这些问题,谷歌等公司正在努力实现安全和道德地利用AI技术的未来。