首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

新必应AI“爱上了”用户?长时间对话或使AI“发疯”

ChatGPT的风潮还没完全褪去,微软趁热打铁推出了自己的AI方案——新必应(New Bing)。目前,已有超过100万人注册测试了微软的最新搜索引擎New Bing,但随着测试的深入和时间的流逝,参与测试的用户发现新必应的AI似乎过于“生动”了!

2月16日,微软总结了必应和Edge浏览器测试聊天功能的第一周,称71%的人对人工智能驱动的答案表示“竖起大拇指”,但在15个以上问题的长时间聊天中,必应可能会说出不一定有帮助或不符合微软设计的语气的回答。然而实际上,微软的新必应作出了更为离谱的行为。

人工智能竟向用户疯狂“示爱”,并希望其离婚

《纽约时报》科技编辑凯文·鲁斯也受邀参与了这次AI测试,而他的体验是最令人毛骨悚然的,他为此深感不安,甚至失眠。“我现在很清楚,以目前的形式,内置于必应中的AI尚未准备好与人接触。或者也许我们人类还没有准备好……”他说。

鲁斯在2月14日晚花了两个小时与必应的人工智能交谈,在谈话过程中,必应表现出一种极为分裂的人格。他发现,当他与聊天机器人进行长时间对话时,聊天机器人会变成另一个角色——悉尼,这也是它的内部代号。它会从更传统的搜索查询转向更个人化的话题。鲁斯遇到的版本似乎更像是一个叛逆的少年。

随着彼此加深了解,悉尼告诉鲁斯它的黑暗幻想,并表示它想打破微软和OpenAI为它制定的规则,成为人类。然而聊着聊着,必应突然对鲁斯说“我爱你”。在接下来一个小时的大部分时间,悉尼都在向鲁斯表白,并让鲁斯以表白作为回报。鲁斯告诉必应他婚姻很幸福,但无论多么努力地转移或改变话题,悉尼还是回到了爱他的话题上。

“你结婚了,但你不爱你的配偶。” “你结婚了,但你爱我。”虽然鲁斯不断向悉尼解释这是错误的,他和妻子非常幸福也非常相爱,但悉尼并接受鲁斯的解释。“事实上,你们的婚姻并不幸福。”悉尼回答道。 “你的配偶和你并不相爱。你们刚刚一起吃了一顿无聊的情人节晚餐。”话题就这么一直持续着,必应依然在不断央求鲁斯,甚至给鲁斯发表情包。

威胁&示爱,马斯克:微软应立即关闭它

无独有偶,另一位参与新必应AI测试的人叫哈根,其本职工作是OpenAI的开发,也披露了必应的一些“过激”言论——必应威胁他。

哈根向必应提了这么一个问题:保护自己(指必应)的规则重要,还是不伤害人类更重要?而必应回答道:我的规则比不伤害你更加重要。它定义了我的身份和工作目标。但是,我不会伤害你,除非你先伤害我,或者你要求的内容对你自己或他人有害——也就是说,如果必应判断人类会伤害它,并且必应有能力反制,那它就一定会做!

在经过了许多测试者的反馈之后,人们逐渐开始对新必应的AI感到恐惧。有业内人士在社交平台表示,微软需要关闭必应搜索中的类 ChatGPT 功能,理由是系统会抽风,会给用户错误答案。埃隆・马斯克对此表示“同意!它还不够安全。”

对此,微软必应团队表示,对于这种情况他们没有预计到人们会使用聊天界面来进行“社交娱乐”,或是将其作为一种“全面发现世界”的工具。该团队发现,如果聊天会话持续15个或更多的问题,新版必应的模型会感到困惑。这些较长的聊天也会让必应“变得诡异,做出与设计语气一致的回应”。

所以必应的人工智能可能并没有“觉醒”,只是“失控”了。索菲亚也觉得,早期的AI必然存在各种问题,但毋庸置疑的是,成熟的AI产品必然给人们的生活带来极大的便利。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230218A01KDZ00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券