首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

微软为Bing Chat打上安全漏洞:企业版用户聊天数据不会被保存

7月18日,微软发布了专门针对企业人工智能引擎Bing Chat的更安全版本,旨在确保专业人士可以安全地与聊天机器人共享敏感信息。微软公司表示,使用企业版的Bing Chat聊天机器人,用户的聊天数据将不会被保存和发送到微软服务器用于训练人工智能模型。

微软副总裁优素福·迈赫迪在接受媒体采访时表示:“我们不会把公司数据和网络数据混合在一起,未经过公司允许,我们不会保存这些数据,因此服务器上不会有任何相关数据,我们更不会用这些数据来训练人工智能大模型。”

自2022年年底ChatGPT推出以来,一系列强大的人工智能工具都在帮助着企业内员工们提高工作效率。但最近几个月,包括摩根大通在内的很多企业,以安全和隐私为由,禁止员工使用ChatGPT。

当前,对话式的人工智能工具正在将个人的聊天数据发送到服务器,以训练和改进其人工智能模型。微软的新企业版Bing Chat与消费者版本相似,只是它不会记忆与用户的对话,所以每次聊天,你都需要从头开始。通过这些更新和变化,微软强调,可以“完全相信”他们的数据“不会泄露”到公司外部。

从当地时间7月18日开始,在公司IT部门手动打开这个工具后,Bing Chat 公司版将免费向1.6亿 Microsoft 365的订阅者开放。30天后,微软将默认向所有用户提供访问权限。当然,注册的企业也可以选择关闭该选项。

和其他公司一样,微软等公司正竞相为消费者和专业人士开发和部署一系列人工智能驱动产品,比如,可帮助编辑、总结、创建和比较各种产品与文档的Microsoft 365 Co-pilot。这款AI小助手是微软公司较早发布的人工智能工具。近日微软公司宣布,每位用户每月需要为其支付30美元。如果不出所料,企业版Bing Chat 也一定会走上商业化道路。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OsasT1wm-9ylGiJ-Lg5ZvoYg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券