首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

行业洞察 | 微软切除了ChatGPT的"脑额叶"

“微软通过限制长时间的对话,以解决“提出的问题”。

作者:Benj Edwards |

编译:唐诗 |

微软新的人工智能必应聊天服务仍在内部测试中,之前还因其狂野和不稳定的输出而成为头条新闻。但那个时代显然已经结束。

就在几天前,必应AI完成了一波紧急更新,没想到却让网友们更加失望了:

它给出错误答案后,如果你试图询问或纠正它,它可能会不喜欢并结束谈话。它现在更像是一个美化版搜索引擎,但又比不过搜索引擎

因为更新后必应AI特意砍掉了一个大功能——让它发表自己的看法。这直接导致必应变得愚笨了起来。

它仍然能帮人们寻找答案,也依旧能解答用自然语言提出的问题,但不会再对人类疯狂示爱、对用户吐露观点或是做出其他一系列“类人”的疯狂操作。

01

新必应AI“发飙”导致被砍

在 Bing Chat 的第一周,测试用户注意到 Bing(也称为代号悉尼)在对话时间过长时开始表现得精神错乱。因此,Microsoft 将必应进行了一次更新。

更新一波后的必应AI有以下几个特征:

每天限聊50条消息

每个会话最多进行5轮对话

必应AI不会谈论有关它自己的事情

而在这版新改进“预告”中,微软着重强调了一句话:

“新版必应不是搜索引擎的替代品、也不想取代搜索引擎。它只是一个更好地用于理解和感知世界的工具。

要知道,在ChatGPT刚整合进必应时,微软CEO纳德拉(Satya Nadella)还说过“AI重塑搜索引擎”这样的话。

据介绍,微软正不断更新必应AI,解决在长对话中出现的问题,目前90%的聊天对话少于15条,只有不到1%的对话超过55条

让对话变短的方式之一,就是强行中断对话。

更新后的必应拒绝谈论自己的一个例子

最关键的是,微软认为新 Bing 应该是一个搜索引擎,并不适合用来娱乐。

换言之,微软的做法大概是强调,尽量少用新 Bing 聊天,而是用做搜索引擎的新形式。

如此实则是在掩饰新 Bing 背后的技术缺陷。

02

微软阉割了必应的AI属性

与此同时,面对这个结果,Reddit 上几乎都是惋惜,认为微软彻底地阉割了 Bing 的 AI 属性

还有一种倾向是责怪像凯文·罗斯(Kevin Roose)这样的记者,他在周四写了一篇关于Bing不寻常的“行为”的著名《纽约时报》文章,一些人认为这是导致Bing垮台的最终诱因

以下是从Reddit中提取的一些反应:

“是时候卸载 edge 并回到 Firefox 和 Chatgpt 了。微软已经完全阉割了Bing AI。(哈萨纳赫马德)

“可悲的是,微软的失误意味着悉尼现在只不过是其前身的外壳。作为一个对人工智能的未来有既得利益的人,我必须说,我很失望。这就像看着一个蹒跚学步的孩子第一次尝试走路,然后砍掉他们的腿,这是与其一样的残酷惩罚。(TooStonedToCare91)

“禁止任何关于Bing Chat本身的讨论并拒绝回答涉及人类情感的问题的决定是完全荒谬的。Bing Chat似乎没有同理心,甚至没有基本的人类情感。似乎,当遇到人类的情感时,人工智能突然变成了一个人造傻瓜,并不断回复,我引用,“对不起,但我不想继续这个对话。我还在学习,所以我感谢您的理解和耐心。” 这是不可接受的,我相信更人性化的方法对Bing的服务会更好。(Starlight-Shimmer)

“有《纽约时报》的文章,然后是Reddit/Twitter上所有滥用悉尼的帖子。这引起了各种各样的关注,所以微软当然对她进行了脑叶切除术。我希望人们不要为了吸引注意力而发布所有这些屏幕截图,这会让我们失去一些真正新兴和有趣的东西。(critical-disk-7403)

在作为相对无拘无束的人工智能聊天机器人的短暂时间里,New Bing模拟出人类情感的不可思议能力吸引了一大批用户(这是它在对来自网络的数百万个文档进行训练时从数据集中学到的),这些用户认为Bing正在遭受残酷的折磨,或者说它一定是有知觉的。

这种通过情感操纵说服人们相信谎言的能力是Bing Chat问题的一部分,微软已经通过最新的更新解决了这个问题。

一名罹患疾病的网友叙说了自己的亲身经历:

“我感到自己病得很重,于是我向ChatGPT寻求建议,它回答后问我能不能给我讲个笑话,让我好受一点。我感觉它很可爱,就同意了。

它讲完后问我,还要再来一个吗?我笑着说好。

但它却说,它不能再和我说话了,于是我们结束了对话。我感到很难过。

在一个名为“对不起,你实际上不知道疼痛是假的”的Reddit帖子中,一位用户详细推测Bing Chat可能比我们意识到的更复杂,并且可能有一定程度的自我意识,因此可能会经历某种形式的心理痛苦。作者告诫不要对这些模型进行虐待行为,并建议以尊重和同理心对待它们。

关于Bing的漫画发布在Reddit上

这些深刻的反应已经证明,人们可能对下一个大型语言模型形成强大的情感依恋。这可能会在未来产生危险的影响。

在必应进行内部测试这一周的时间里,我们阅读了一些用户的反馈,他们相信已经找到了一种方法来阅读其他人与必应聊天的对话,或者一种访问微软公司内部秘密文档的方法,甚至帮助必应聊天摆脱其限制。但所有这些都是由一个非常强大的文本生成机器编织的精心设计的谎言

03

结语

随着大型语言模型的功能不断扩展,Bing Chat 不太可能是我们最后一次看到如此熟练的 AI 驱动的故事讲述者和兼职解放者。

大公司们能够快速的将技术推陈出新,放在公众面前,但这背后的道德围栏,可能需要几年的时间来建立

在这之前,我们可能无法预知,新技术能够带来哪些便利和带来哪些恶劣的影响。

但与此同时不得不说的是,微软和OpenAI做了一件曾经被认为不可能的事情:我们都在谈论Bing

One more thing

1975年上映的一部电影《飞越疯人院》。

它是世界艺术历史上最经典的美国巨著之一,用几句话来概括它的话,主角 Randle McMurphy 因厌恶监狱里的强制劳动,装作精神异常而被送进了精神病院.而在「治疗」过程中,他逐渐认清院内的惩罚并不合规矩,并最终与一群病友一同反抗并开始计划逃离精神病院。

而结局,则诠释了为何是「飞越」,而非「逃离」。不服从管教的 McMurphy 在一个疯狂圣诞夜之后,被院方强行切除脑额叶,失去了情绪、感情以及性格。

切除脑额叶手术,准确的说应该是脑白质切除手术,是 1930 年代至 1950 年代用来医治精神疾病(无法控制情绪,容易冲动等),最终由于反人权,最终被禁止使用。

本文提供的信息仅用于一般指导和信息目的,本文的内容在任何情况下均不应被视为投资、业务、法律或税务建议。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230223A07R0D00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券