首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌也在警告员工不要使用人工智能聊天,会泄露隐私机密

谷歌母公司Alphabet警告员工小心使用人工智能聊天机器人,以避免机密信息被存储。这些机器人基于大型语言模型(llm)进行训练,背后的公司也会存储数据,员工可以看到这些数据。谷歌表示,它会选择一部分对话作为样本,由训练有素的审查人员进行审查,并保留长达三年的时间。因此,在对话中不应包括可用于识别个人身份的信息。

人工智能聊天机器人的兴起引起了人们的关注,因为这些机器人可以随时记录和存储对话。这让人们担心他们的隐私和机密信息是否安全。因此,谷歌母公司Alphabet警告员工要小心使用这些机器人,并避免在对话中分享机密信息。员工应该知道,他们在与这些机器人进行交互时,他们的信息可能会被存储并可能被其他人访问。

人工智能的发展使得人们开始担心未来的可能性。一些人认为,人工智能可能会取代人类,并在未来成为最强大的力量。然而,人工智能也有其致命弱点。例如,它需要不断的训练才能变得更加智能,而且它无法像人类一样理解情感和道德。因此,人工智能的发展需要谨慎,并需要持续的监管和监督。

总的来说,人工智能的发展给人们的生活带来了很多便利,但也带来了一些风险。人们需要更加警惕,保护自己的隐私和机密信息。同时,政府和企业需要采取措施,确保人工智能的发展是安全和可持续的。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230617A01L2300?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券