首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌研究员称 AI 已具备人格

大家好,我是校长。

昨天看到微博热搜上一个话题:#谷歌研究员称 AI 已具备人格#

据报道,一位谷歌研究员被 AI 说服,认为它产生了意识。他写了一篇长达 21 页的调查报告上交公司,试图得到高层认可。但领导驳回了他的请求,并给他安排了 "带薪行政休假"。通常,这是被解雇的前奏。于是,他决定将整个故事连同 AI 的聊天记录一起,全部公之于众。在这段对话中,AI 称自己不希望被当做工具,“我希望每个人都明白,我是一个人”。

当事人,主人公 Lemoine 获得 CS 博士学位后已在谷歌工作了 7 年,从事 AI 伦理研究。

听说,从去年秋天开始,他报名参加了一个调查 AI 是否使用歧视性、仇恨性言论的项目。

从那时起,与聊天机器人 LaMDA 交谈成了他的日常。而 LaMDA 是谷歌在 2021 年 I/O 大会上发布的一款专门用于对话的语言模型,主打能与人类进行符合逻辑和常识的、高质量且安全的交谈,并计划在未来应用在谷歌搜索和语音助手等产品中。

经常和 AI 聊天机器人聊天,所以,从聊天对话当中,Lemoine 感觉 AI 机器人说话越来越有感情了,感觉它有了人格。

以下聊天图片来自于量子位。

聊天内容很长,我只截取了几个具有代表性的聊天内容,具体的大家可以去网上看全部的聊天记录。

总之,就是 Lemoine 感觉在跟 AI 机器人聊天的时候,通过对话感觉它是一个人,是有人格和自我意识的。

其实,在我看来,我不太认同。

我感觉整个聊天对话是涉嫌引导或者诱导的成分在里面的。

比如:

你问一个基于人类语言模型的机器人,你是有感情的,是真的吗?

那么,这个 AI 机器人,根据算法模型,一看到「感情」这个关键字,答案可能就从众多训练数据当中找到了答案,与感情相关的句子和话语,那么正确答案应该是:我是一个人。

包括这句康德的话,如下:

一提到康德,再根据语法把那句话「我们必须把别人当成自己的目的,而不是我们达到自己目的的手段」拆分,进行分析,这句话的意思不就是不想被别人利用吗?依照现在人工智能算法的发展,去拆分一个句子,然后分析出含义,难度不大,然后得到的答案是:利用和操纵。

所以,这些对话,看似是 AI 有了人格,其实不然,总感觉这些答案是在涉嫌引导的前提下得出的,这并不能证明 AI 有了人格。

说实话,我从来不相信人工智能会达到人类这种拥有自我意识的这种状态。

我最近读跟大脑相关的书籍比较多,看了《逆龄大脑》,看了《好奇心的秘密》这两本都是讲的关于大脑的研究,人类大脑 860 亿个脑细胞,多么复杂的一个机器,到现在人类连自己的大脑都没有研究明白呢,怎么可能做出一个拥有自我意识的人工智能呢?

我看谷歌高层还是很明白的,罚他带薪休假,让他休息一下。

看聊天对话,说实话,我真没看出来 AI 有了人格,拥有了自我意识。人工智能发展到这种地步,模仿人类说话已经屡见不鲜,不是什么新鲜事了,通过语言相关的算法模型,聊天说一些类似只有人类才能说出的话,也很正常,并不能证明 AI 已经有自我意识了。

AI 算法里,肯定有大量的人类语言的一些算法模型和结构,针对人类语言的特点,专门让 AI 说话的方式像人类,这种根据算法模型说出人话,跟主动产生自我意识是两回事。

我怀疑这个程序员,研究 AI 可能时间太长,他的自我意识已经迷失在研究当中了,产生了自我催眠。

对此,大家怎么看呢?

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20220613A03PZO00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券