谷歌也担心泄密风险,警告员工谨慎使用AI办公

谷歌已向其员工发出警告,不要将机密材料输入人工智能聊天工具,包括谷歌自家的 Bard 聊天机器人。

谷歌,或者更具体地说是其母公司 Alphabet,已向其员工发出警告,不要将机密材料输入聊天机器人,包括其自己的名为 Bard 的 AI 聊天机器人。


担忧源于这样一个事实,即人工智能可以重现它在训练期间吸收的数据,从而有潜在的泄漏风险。


发出这一警告之际,各家公司越来越担心通过人工智能泄露敏感的内部信息。


此类 AI 技术的潜在漏洞甚至可以帮助 OpenAI 的 ChatGPT 等竞争对手参与正在进行的主导 AI 世界的竞赛 1。

谷歌早些时候宣布,由于隐私问题,它将推迟 Bard 在欧盟的推出,这是最近的事态发展。


Bard 于 3 月在美国推出,目前正在以 40 种语言推广到 180 多个国家 / 地区。

此外,谷歌并不是唯一对人工智能工具持谨慎态度的公司。


由于对数据泄露的类似担忧,其他大公司也阻止了一些员工使用人工智能工具。


例如,Apple 禁止其员工使用 ChatGPT 和 Github 的 Copilot,后者是另一种用于帮助开发人员编写代码的人工智能服务。


在一名工程师不小心通过该平台泄露了敏感代码后,三星对 ChatGPT 发布了类似的禁令。


在声称发现类似于亚马逊内部数据的 ChatGPT 响应示例后,亚马逊禁止其员工与 OpenAI 的聊天机器人共享任何代码或机密信息。


摩根大通、美国银行、花旗集团、德意志银行、富国银行和高盛等银行也禁止员工使用 AI 聊天机器人,因为担心他们可能会泄露敏感的财务信息。

本站文章均为原创,版权归本站所有,如需转载或引用请注明出处如:“本文章转载自:

谷歌也担心泄密风险,警告员工谨慎使用AI办公 - Extfans”

上一篇:AiTuTu AI聊天插件,网页侧边栏智能助手

下一篇:Let's Play Infinity Games!夏日消暑小游戏特辑