首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

机器人LaMDA并不理解自己说的是什么意思

一个机器人要是真的觉醒了意识,或许会像科幻电影里那么可怕,也或许就只是多了一个可以陪伴自己的人,但是就现在的技术来看,这件事恐怕还要往后面挪个好多年。

但是就在近日,谷歌的一位工作人员对其公司的机器人LaMDA拥有意识的事深信不疑,还在网络上发出了他们的谈话记录,一时引起热议。

其中大多人与谷歌的看法一致,认为 Lemoine 与 LaMDA 聊得太多太久,似乎有些“走火入魔”。

除此之外,大多学学者和 AI 从业者也表示,LaMDA 等 AI 系统生成的文字和图像会根据人类在维基百科、Reddit、留言板等各个互联网发布的内容做出回应,但这并不意味着模型就理解了其背后的含义。

但与此同时,也有少部分网友为未来 AI 自我觉醒的可能性感到担忧。

谷歌发言人布莱恩 · 加布里埃尔(Brian Gabriel)在一份声明中表示: “我们的团队——包括伦理学家和技术专家——已经根据我们的人工智能原则审查了Lemoine的担忧,并告知他,证据不支持他的说法。”

LaMDA是一个自然语言模型,本质上来说,它的工作和谷歌搜索栏里的自动补全没有什么不同,都是通过给定的上下文预测用户的意图。

只不过,当LaMDA的参数量达到1370亿这个量级时,它把这项工作完成得非常出色,以致于可以短暂地欺骗人类。

但LaMDA并不理解自己说出的话是什么意思,机器学习所做的是捕捉训练语料的语言结构。

这些你都知道了吗?

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20220615A03MNM00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券