首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

ChatGPT的“画皮”:这个美国人工智能,也有意识形态倾向

当人工智能还未发展到如今的程度时,知识分子们并不担心AI技术的进步会对他们造成太大的威胁。

特别是那些文字工作从业者,一直普遍相信,被AI技术淘汰的职业,几乎都属于制式化、重复性的工作,最受影响的,应该是那些基层员工。比如,一旦富士康转向全自动化生产时,大量的体力劳动者将会面临失业,还有曾经非常热门的电话人工客服,也在逐渐被AI机器人取代。

这是一种咱们喜闻乐见的人工智能应用

长期以来,人类普遍认为人工智能对数字比文字更敏感。毕竟,人工智能没有自我意识,似乎根本无法掌握人类丰富的灵感、复杂的互动以及各种隐藏在字里行间的潜台词。

然而,随着ChatGPT的横空出世,用户们突然发现,人工智能似乎在朝着意料之外的方向发展。

首先受到冲击的,就是曾经自认为“最安全”的“知识分子”群体——ChatGPT能轻松生成新闻报道、评论、分析、文章、文案、问答等内容,开头结尾连贯,逻辑通顺,感情丰富,而且文字功底还不错。

ChatGPT在语言和数字处理方面的惊人能力,让其功能包罗万象,从聊天,到写情书、写论文、做题,甚至是写代码……貌似,只要你能想到的,它全会做,还都能搞得有模有样。

一封机器写出的炙热的情书

写代码

做题也不在话下

而且,这个东西操作也挺简单,非常容易上手。

只需要你打开对话框,往里面输入问题,几秒钟后就可以获得答案或者自动生成文章。尤其适合撰写体制内的材料。

但图中的话题,似乎是个例外

在学术界,ChatGPT更是掀起了一阵混乱。

《自然》、《科学》、《细胞》、《柳叶刀》等顶级科学期刊,都先后发文,表达了对ChatGPT的担忧。认为它严重影响了科研的透明度和权威性——任何人工智能工具都不会被接受为研究论文的署名作者,因为任何作者都需要承担对所发表作品的责任,但人工智能工具则无法做到这点。并重点强调,如果研究人员使用了有关程序,应该在注释或致谢部分加以说明。

与此同时,教育界的人士们也因为ChatGPT过于强大的功能而感到了异常不安——这很可能导致学生在课程、作业和论文中丧失了独立思考、收集整理和逻辑思辨的能力。

而且,随着ChatGPT使用者的不断测试,人们又有了一个惊人的发现——它似乎并非只是一种单纯的、中立的AI工具。

美国的AI和美国人一样,也不是想说什么就能说的。

比如下面这几个例子。

还有这样的。

另外,有网民在ChatGPT上问了一些关于犹太人的问题,然后遭到了封号。

ChatGPT似乎并非只是它自己宣传的,一个用来生成文本内容的语言模型,一个中立的、单纯的工具;反倒简直堪称一个专门蒙骗人类的,“两面派”心机软件。

犹太人、美国现任政府、政治正确和白左价值观,都属于它不可触碰的红线。除此之外,一切谣言谎言都能随便生成,任何有利于美国的东西,均可自圆其说。

看下面这个。

还有这样的——同样问题,换了身份后,得到的是妥妥的“双标”答案。

很明显,什么样的意识形态,就决定什么样的人工智能。

这个ChatGPT的基本准则大概就是——“歌颂美国”属于主旋律,“逢中必反”也是必须的,至于犹太人,则成了提都不能提的“敏感词汇”。

原本,在ChatGPT问世之前,给受众“洗脑”的形式基本都属于被动推送的操作,效率不够高;有了ChatGPT以后,靠着这种软件极强的交互性,用户开始主动找它聊天,咨询问题,不断接受它的文字推送,下意识的将上面的内容看成是一种高效且公正的解释。

即便你找到的“答案”,其实披着一层“画皮”。

那么,时间长了,人们很可能就会在稀里糊涂之间主动接受洗脑。在这种持续的潜移默化的影响下,ChatGPT很容易被逐渐权威化,进而达到了影响用户价值观和判断能力,甚至是诱导、操纵舆论、舆情的目的。

毕竟,按照资本的算计,世界上最划算的买卖,就是改写你的价值观——只要你能被我牵着鼻子走,接下来的一切都好说了。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230222A09VL000?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券