作者 | 褚杏娟
根据路透社消息,谷歌警告员工不要泄露机密信息或使用其 AI 聊天机器人生成的代码,包括自己正在全球推广的 Bard。
知情人士称,谷歌母公司 Alphabet 已建议员工不要将机密材料输入人工智能聊天机器人,该公司援引了长期保护信息政策。研究人员发现 AI 可以重现它在训练期间吸收的数据,从而造成泄漏风险。
还有知情人士透露,Alphabet 提醒其工程师避免直接使用聊天机器人生成的计算机代码。该公司表示 Bard 会提出不受欢迎的代码建议。问题是可能导致错误程序或复杂、臃肿的软件。与根本不使用 AI 进行编码相比,开发人员将花费更多时间来修复这些问题。
据 Insider 报道,到 2 月,谷歌告诉测试 Bard 的工作人员在发布前不要向 Bard 提供内部信息。现在谷歌将 Bard 推广到 180 多个国家和 40 种语言。
如今,告诫自己的员工不要直接使用 Bard 生成的代码一事,打破了谷歌声称其聊天机器人可以帮助开发人员提高工作效率的说法。创建者自己由于隐私和安全风险都不使用的话,其他人该怎么相信并使用呢?
前不久,谷歌准备在欧盟地区推出 Bard,但是由于欧盟隐私数据监管机构提出质疑,谷歌被迫将发布日期向后推迟。爱尔兰数据保护委员会近日指出,谷歌并没有明确说明 Bard 服务将如何遵守欧盟地区的隐私数据保护规定。
参考链接:
https://www.reuters.com/technology/google-one-ais-biggest-backers-warns-own-staff-about-chatbots-2023-06-15/
领取专属 10元无门槛券
私享最新 技术干货