在使用AI扩展之前,请考虑风险
在利用AI扩展之前,需慎重考虑风险
谷歌最近宣布全面推出Bard扩展,将对话生成AI(GenAI)工具整合到他们的其他服务中。 Bard现在可以利用用户的个人数据执行各种任务-组织电子邮件,预订航班,计划旅行,制作消息回复等等。
由于谷歌的服务已经深入融入到我们的日常生活中,在实际日常应用中集成GenAI标志着实用的前进一步,为处理个人任务和工作流程创建更高效和生产力的方式。因此,随着谷歌发布更多方便的AI工具,其他基于网络的AI功能正在涌现,以满足现在寻求基于浏览器的生产力扩展的用户需求。
然而,用户也必须谨慎和负责。尽管Bard扩展和类似工具可以有用和高效,但它们也为潜在的安全漏洞打开了新的大门,这可能会危及用户的个人数据和其他尚未发现的风险。希望利用Bard或其他GenAI生产力工具的用户,在盲目交出敏感信息之前,最好学习最佳实践并寻求全面的安全解决方案。
审查个人数据
谷歌明确声明其公司员工可能会审查用户与Bard的对话-其中可能包含私人信息,从发票到银行详细信息再到情书。用户根据警告,不应输入机密信息或任何他们不希望谷歌员工看到或用于产品、服务和机器学习技术的数据。
- ‘Prompt Engineering的兴起与衰落:时尚潮流或未来趋势?’
- “Google AI 提出了一种简单高效的端到端基于扩散的文本合成语音模型 E3-TTS:一种简单高效的端到端文本合成语音模型,基于扩散”
- 通过人工智能释放可观察性的潜力
谷歌和其他GenAI工具提供商也可能使用用户的个人数据来重新训练他们的机器学习模型-这是GenAI改进的必要方面。人工智能的力量在于其能够自我教育并从新信息中学习,但当这些新信息来自于将他们的个人数据信任给GenAI扩展的用户时,它就有将密码、银行信息或联系方式等信息整合到Bard的公开服务中的风险。
尚未确定的安全问题
Bard在谷歌内部成为更广泛集成的工具之际,专家和用户还在努力了解其功能的范围。但与人工智能领域的每个尖端玩家一样,谷歌继续发布产品,却不确切知道它们将如何利用用户的信息和数据。例如,最近有人发现,如果您通过共享按钮与朋友共享Bard对话,整个对话可能会在标准谷歌搜索结果中显示给任何人查看。
尽管它是提高工作流程和效率的诱人解决方案,但让Bard或任何其他基于人工智能的扩展程序代表您执行有用的日常任务,可能会导致AI幻觉-即GenAI有时会产生的错误或不准确的输出。
对于谷歌的用户来说,这可能意味着预订错误的航班,错误支付发票或与错误的人共享文件。将个人数据暴露给错误的方法或恶意用户,或向正确的人发送错误的数据,可能会导致意外后果-从身份盗窃和数字隐私丧失到潜在的财务损失或尴尬信件的曝光。
加强安全
对于普通AI用户来说,最佳做法只是不要共享任何个人信息给尚不可预测的AI助手。但光靠这一点不能完全保证安全。
向SaaS和基于Web的应用程序的转变已经使浏览器成为攻击者的主要目标。随着人们开始采用更多基于Web的AI工具,窃取敏感数据的机会增加了一些。当更多浏览器扩展尝试在GenAI的成功基础上搭便车-通过新的高效功能吸引用户安装它们时,人们需要注意到许多这些扩展最终将窃取信息或用户的OpenAI API密钥(ChatGPT相关工具)。
幸运的是,浏览器扩展的安全解决方案已经存在,可以防止数据窃取。通过实施带有DLP(数据丢失预防)控制的浏览器扩展,用户可以减轻邀请其他浏览器扩展(基于人工智能或其他)滥用或共享个人数据的风险。这些安全扩展可以检查浏览器活动并执行安全策略,防止Web应用程序获取敏感信息的风险。
守卫吟游诗人
尽管Bard和其他类似扩展承诺提高生产力和便利性,但它们也带来了极大的网络安全风险。每当涉及个人数据时,总会存在安全隐患,用户必须意识到这一点,尤其是在生成式人工智能的新领域中。
当用户允许Bard和其他人工智能和基于Web的工具自主处理敏感个人数据时,无防护浏览器安全扩展或数据丢失预防控制的用户将面临更严重的后果。毕竟,如果提高生产力的同时增加了信息曝露的机会,那么这种提升将变得无益,个人需要在数据被滥用之前为人工智能设置保障措施。





