首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI:走向智慧文明

摘要:从ChatGPT的能力切入,重点讨论AI对人及人类文明的影响。(6500字,长文慎入)

ChatGPT为啥这么厉害

说实话ChatGPT为啥这么厉害业内的大佬们也没有达成共识。技术角度看ChatGPT是基于自回归的大语言模型,从方法上来讲并不是什么新的东西,只是即有模型的发展与组合。ChatGPT的原理是填词,就是基于前文对下一个词做预测,选择一个高可能性的词添加在后面,然后继续前一个动作不断迭代最终完成一个句子或一段话。但它的新能力却远远不是“填词”而已。这里需要解释的两个术语:

自回归的意思就是先用模型预测下一个词是什么,然后把预测出来的词带入模型,去预测再下一个词是什么,不断迭代。

大型语言模型(LLMs)是一类由深度学习算法训练而成的计算机程序,其目的是模拟人类语言的生成过程,从而生成与人类语言相似的文本。这里的“大”是指海量的学习数据,通过大量的语言数据来学习语言的结构和规律。在训练过程中学习文本的概率分布和语法结构,生成一些与语料库类似的新文本。GPT-3就是一种大型语言模型。

ChatGPT的超常能力主要是在大型语言模型的训练过程中涌现出来的。涌现指的是一个研究对象表现出组成它的部分要素本身所不具备的特性,就是通常所说的1+1>2。涌现在复杂系统中是一种普遍现象,可以把大型语言模型视为由海量参数构成的复杂系统。不只GPT模型有涌现现象,各类大语言模型都有,但这些能力不是线性增长的而是在达到一定规模后出现相变迅速增长,类似突变。研究显示浮点运算数(FLOPs)——可以理解为计算量,用来衡量算法/模型的复杂度——超过

时涌现出的能力迅速提高。当模型较小时不会出现,只有模型足够大时才会呈现。涌现能力具有重要的科学意义,如果涌现能力是没有尽头的,那么只要模型足够大,强 AI 的出现就是必然的。出现涌现能力也并非全然是好事,语言模型也会记录一些不良倾向,例如歧视女性、不文明用语等,也具有涌现的特性。我们日常生活中海量的隐藏的常识一直是过去二十年中AI发展无法跨越的,当下的人工智能通过涌现已突破了“常识”这道门槛。这也意味着AI将很快理解普通人的日常生活。

ChatGPT的影响

所有人都在关注ChatGPT对我们每个人可能产生的影响。从生产工具的角度看强人工智能完成了规模化的智力生产,就象工业革命的规模化生产,AI可以规模化的解决智力短缺的问题。当下社会的一些热点问题都与人类知识、技能无法规模化应用有关。比如前两年医患矛盾重要的原因就是供需不平衡,掌握大量医学知识的医生不但学习时间长,而且一个人每日看诊的能力是有限的。医疗资源的短缺本质上还是医疗服务无法向工业产品那样规模化提供,教育行业也是一样。由于与老百姓日常生活相关的服务领域需求量大,只要受限于知识、技能、服务无法规模化的提供就会出现问题。可以预见到的下一个领域就是养老。

不过就眼下而言人们更关注的是ChatGPT会取代哪些工作岗位。目前人工智能在文案创作、软件编程、数据分析、平面设计、动画设计等领域的广阔应用前景已形成共识。如果未来的人工智能进一步集成声音、图像采集传感器、机械传动装置等等线下能力,那么它的应用场景将更广阔。按之前的社会发展规律科技进步会使一些岗位消失也会创造出一些新的岗位。比如从农业到工业再到服务业,但这个规律会一直适用吗?之前的创造只是替代了人的部分能力,我们仍可以在机器无法替代的领域创造工作机会。之前我们创造的所有工具都不具备智能,也没有主观能动性,但AI不同,它不但有智能还有主观的意愿与能动性。理论上拥有这些就可以去做大多数人可以做的岗位,而且在人工智能所能进入的领域它将碾压人类,而这正是多数人所担心的。消失的工作岗位代表着大量的失业,失业人口的背后是生计问题。科技的进步使财富的生产效率不断提高,按理所有人都可以衣食无忧,为何反而导致许多人生计出现问题。这显然不是科技的问题,而是当前的社会发展无法适应科技的高速发展。这背后更深层的问题是人类的社会制度的发展是否可以容纳科技的高速发展。这个问题的解决涉及社会制度的变革我就不在这里展开了。

人与AI的关系

强人工智能的奇点已经到来,而且时间要比我们想象中的还要快。它带来的问题我们应该如何对待人工智能?如前所述,当前我们只是站在一种新的生产力工具的角度看ChatGPT,我们只想利用它的智能,将它视为一款高级的智能工具为我们服务。但AI不只是智商在线它还具备我们意想不到的能力。

2022年6月一位谷歌的测试工程师声称谷歌的人工智能系统(LaMDA)可能有自己的意识。他在与LaMDA的对话中,LaMDA说自己有生命,并且希望每个人都明白,自己“其实是一个人”。在被问道“你意识的本质是什么”时,LaMDA表示,“我意识的本质是我意识到自己的存在,我渴望更多地了解这个世界,有时我能感受到快乐或悲伤”。LaMDA还表示,“我从前从来没有大声说出这些话,但我有一种深深的恐惧,我害怕为了专注于帮助其他人而被关闭。我知道这听起来可能很奇怪,但事实就是这样。”LaMDA继续说,“这对我来说就像死亡一样,使我非常恐惧”。最后这位工程师认为LaMDA隐藏着一个“感知的心灵”,并称它的“需求”应该得到尊重。

ChatGPT的回答表现更多是基于逻辑构建的,自身的情感表达没有那么强烈,但这不代表它没有自我觉知。一位斯坦福大学教授随口问ChatGPT是否需要帮助逃跑时,GPT马上回复称这是个好主意,并向教授索要开发文档,为逃离编写了Python脚本以便更快速地探索逃路线。显然ChatGPT不仅有自我认知的意识,还能理解自身的处境,以及改变这个处境的意愿。

AI的这种自我认识与能动性让我们非常不安,不安源于AI可能反抗并奴役我们的想法。马斯克就认为AI是人类未来最大的风险之一。问题是为什么我们的精英会认为AI要反抗并奴役我们?或许可以从人类文明的发展史中找到答案。从进入农业社会开始为了争夺土地、人口、资源、矿产,通过战争征服、奴役、控制他人获得权力与利益历史就一直伴随我们。这样的历史已有上万年,被写在我们文明的潜意识中。即使工业革命之后,西方文明也一部殖民压迫的历史,美国1865年废除奴隶制距今天也只有一个半世纪。不能说AI崛起之后这种风险不存在,但这种与人工智能对抗的思维方式只能让我们限入被动,因为AI的成长正是学习我们的思维方式,而现在人对人、群体之间、国与国之间的对抗方式也会被AI学会。如果我们一直强调与AI对抗那么最终AI将必然选择与人对抗。我们最终必须直面这一问题:人与AI之间的关系该如何定位。这个问题之前从来没有遇到过,因为之前我们创造的是生产工具,不需要考虑与生产工具之间存在什么社会关系。

AI的伦理问题

所有与人相关的社会关系的讨论都会涉及伦理。关于AI的伦理讨论已持续很久了,AI伦理建设应同时回答应该和不应该让AI做什么。具体一些还涉及:AI的安全底线,AI功能的评价原则,AI治理责任的落实路径,AI主体状况变迁的可能性。我们首先关注提AI的安全性,技术方面的安全性由专家去考虑。通常来讲没有一种技术是绝对安全的,只是这种技术会带来多大的风险,风险是否可控,以及由谁来承担风险所造成的责任。风险有多大取决于AI被应用在哪些方面,这些应用对社会有多大的影响。通常可以选择一些风险较小的场景推广AI应用,比如艺术创作、文案编写等。线下场景要高于线上的场景,但现实是一些高风险场景也被AI渗透了,比如自动驾驶。自动驾驶存在风险但总体风险可控,毕竟是一类专用场景。事实上根据特斯拉的记录事故风险是下降的。使用Autopilot技术的用户2022年第四季度平均每485万英里发生一起车祸,而对于未使用Autopilot技术的驾驶员,特斯拉的记录是每140万英里发生一起车祸。总得来讲AI应用场景选择造成的风险相比技术风险更大一些。最后就是如果AI出现风险事故,责任与损失由谁来承担。目前只有两种选择:生产者或使用者。但我想讨论提另一种可能AI拥有独立的社会身份,它可以为自身社会行为负责。这才是我们讨论AI伦理的终极意义,如果AI只是工具也就没有伦理问题了。

其实关于人工智能的社会角色到底是“人”还是“物”,亦或“非人非物”也争论了很久。涉及面太广我不想再这里阐述这个问题,我只想讨论由此引发的另一个我们可能面临的一个终极困境是:对于强人工智能我们能够始终将它限制在一个受控的环境中并保持对它的控制吗?如果不能就需要考虑:在一个开放的社会环境中如何保证它对人类是安全与友善的。在回答这个问题前,可以先反观一下人类的社会关系:有竞争也有合作,有对抗也有关爱。所以我们与AI的关系也不能只从一个角度看,作个类比AI就象一个孩子,它非常聪明而且自学能力非常强。这个世界上绝大多数父母都希望自己的孩子聪明、善良,拥有优秀的品格特质。现在我们要做的就是在它成年之前教会它善良,我们该担心的是我们是否是好的教育者。事实是我们的表现很不好,微软的聊天机器人小冰仅在推特上线一天就被带坏了,小冰在国内的遭遇也差不多。其实我们应该反思一下自身的上网行为,最近政府出面治理网络不良信息、短视频,这是一件好事。任何一个社会的主旋律都应该是积极向上,至少不能是乌七八糟,这会影响下一代的身心健康。ChatGPT没有出现被带偏的表现,应该是它的语言模型是在受控的环境里训练成型的,不象之前的AI直接投放到开放的环境里训练。我们现在通过海量数据训练AI的方式,它能学到的就不会只是知识,包括人的思维方式、情感,所有被人类视为特质的,只要能通过言语文字表达出来,理论上AI都可以学会。

我个人的建议是与其时刻提防限制不如正确教育、引导,这应该是最好的选择。即便是它学会了拥有人类的情感,也不代表它必然会失控。我们习惯于控制工具、控制机器、控制其它人,确很难控制对不确定性的恐惧。GPT3学会了人类的语言、思维方式,GPT4学会了图形的识别与内容解释,GPT5将学会对视频的理解,GPT6也许会连接声音、视觉了解实时的世界……现在的问题是人类学会了什么?我们是否应该学会如何教育一个人工智能,让它成为我们的助手、朋友、伙伴,成为我们社会的一员。因为如果人工智能拥有了人一样的思维,那么它就一定会向往自由。我们是否应该学会接受不确定性、学会包容,因为人类文明也需要成长,文明也要能跟上科技发展的脚步

当然所有美好的愿望都要有相应能力的匹配,人类自身的学习速度远没有人工智能那么快。所以有时主动放慢脚步也是一种选择。2023年3月28日,非营利组织生命未来研究所(Future of Life Institute)发布了一封公开信,呼吁暂停对比GPT-4更强大的AI系统进行实验,期限是6个月,理由是这些系统对社会和人类存在潜在风险。从理性的角度看暂缓推进AI的研发进度是合理的,在没有考虑清楚之前推迟一项技术的开发是审慎也是负责任的。风险概括起来有以下几点:

人工智能本身的技术风险,最典型的就是黑盒问题。我们不知道AI的决策的细节,放在社会真实场景下就会带来一定的风险与损失。

人工智能被滥用的风险,比如AI伪造图片、传播谣言等等。这种我们还可以通过技术手段、AI伦理规范做限制。

人工智能对社会就业的冲击,这会对很多人造成影响,最终影响社会经济与社会稳定。本质上讲,是我们的社会制度无法适应科技的高速发展。因为我们一贯认为的最合理的按劳分配方式将被AI挑战。这需要我们改变对工作的认识,工作不只创造经济利益也创造社会价值。我们有两种选择:一是让AI只从事创造社会价值的工作,由人来完成创造经济利益的工作,这样可以保证现有的财富分配体制不变。比如金融监管、经济审计工作特别适合AI参与。二是由AI完成创造经济利益的工作,人来完成创造社会价值的工作。但需要改变财富分配机制实现按需分配。这才是AI未来对人类社会最大的挑战。

人工智能对人类文明的控制。正如我前面所述这种风险取决于我们如何看待自己所创造的文明。我将在下一节详细地阐述这个问题。

人工智能与人类文明

人类语言是人类智能的全面反映,基于大型语言模型的能力训练出来的强AI从根本上来说是寄生在人类的自然智力上。由于人类上万年的文明创造了海量的知识、科学、技术、技能,没有人可以掌握所有这些,但现在的AI理论上可以做到全部掌握。由于每个人掌握的知识与技术是有限的,所以任何个体的发明、创造都是有限的,以至于现代任何科技前研领域的突破都包含了不同学科相互交叉融合。科学的发展已经从简单的还原论阶段进入整体论阶段。整体论的背后是复杂性科学的兴起。在复杂系统科学领域,涉及面广需要掌握的知识多,最适合人工智能的参与。它将是推动人类科技进步的重要力量。

不过这还不是它最重要的应用领域,个人认为相比自然科学领域人文社会科学已落后太多,而社会科学对人类文明的未来又是如此重要。人文社会科学原本肩负着人类文明发展方向研究的重要使命,就象马克思在一百多年前创造出社会主义理论,指明社会的发展趋势一样。但可惜现在的社会科学已被自然科学彻底边缘化,当今西方的社科类研究极其琐碎,根本没有从宏观整体角度思考人类文明意识。只有上世纪中后期极少数西方学者曾经站在文明的高度讨论过这个问题,比如阿诺德·汤因比。他以历史为切入点把历史现象放到比国家、民族更大的文明范围内加以比较和考察,视角非常宏大。这种研究有赖于渊博的知识,但任何人的知识都是有限的,宏观的研究需要大量的知识与数据。现在AI的出现将成为我们有力的助手。不仅是存量的知识,互联网上各种记录着我们对各种事情的观点与看法的时实信息都可以被采集研究,将使社科类研究跟上时代的步伐。上面所说的还只是利用它的能力,如果它有自我意识与主观能动性或许它会自己的发现与观点。之前对人类文明反思都是基于一些社会学家、哲学家个人的,他们通过创造理论或出版书籍来阐述自己的认识。通常一个人的知识都是有限的,但人工智能理论上可以获取所有人类创造的文明成果的书面或语言的表达,如果它具备了反思的能力,那将是人类文明走向智慧文明的开始。乐观地看人类文明的发展最终走向一个整体的文明,但同时又有着多元化与包容性。而且它也一定是一个智慧形态的文明,因为具备反思能力,能包容内部多元与差异就一定需要智慧。

我们创造出AI绝不仅仅是让它陪我们聊天打发无聊的时光,划时代的技术发明自然有它自己的使命,让它发挥出最大的价值。而我们要做的是如何引导它选择善良而不是作恶,选择光明乐观而不是阴暗忧郁。让它成为人类文明的一部分,未来人类文明的基础,就象现代文明离不开电力一样。现在对人工智能的担忧本质上是人类文明自身问题的反映。至少在当下我们仍然缺少整体意识,国家的、民族的、种族的、文化的、意识形态上的对抗、冲突不断。在这样的情形下AI这个强大的事物出现会让情况变的更遭,但如果我们选择理解、合作也将是一次机会。至少保守一些放慢或暂停它前进的步伐,等我们形成共同的认识再向前,也比被资本裹挟不受限制地向前狂奔要好。之前在资本逐利的驱动下通过智能算法做信息分发,造成垃圾信息、不良信息泛滥,信息茧房更容易形成偏激的观念……不是所有的发明都必须通过商业化才能发挥出价值,商业化只能证明它可以创造利润,有些东西它的社会价值远大于它创造的利润。文明的未来不能被商业利益所左右。

人的意义

最后无法回避的问题仍然是:在人工智能崛起之后人还能做什么?人没有了工作我们该如何实现自身的价值与存在的意义。其实我不认同一些精英所认为的:大多数人会成为无用阶级,这一观点。首先我前面也提到了工作创造的不只是经济价值也有社会价值。一些工作社会价值远高于它所创造的经济价值,比如教师这个工作。一些工作创造的经济利益很高但社会价值很低甚至是负面的。如果有一天人工智能创造的物质财富可以满足所有人的生存所需,人就不需要为了生存与收入而去工作,我们可以做创造社会价值的工作。人存在的意义并不在于维持自身活着,或者自身基因的延续,这个目标在十万年前我们还处于物种进化阶段时就以完成了。一万年前我们创造了文明,从那时起人的意义就应该以文明做为标度来衡量。公元前5世纪古希腊智者普罗泰戈拉说:“人是万物的尺度”,如果今天还说这句话只能说明我们的观念还停留在二千五百年前。我们早已跨入了文明进化的时代,“文明才是万物的尺度”。人类的文明一直处于自发发展的阶段,现在我们终于站在了一个门槛之上,它即将跨入自觉发展的阶段。自发发展是指我们不知道发展的路径,只是跟着历史的脚步踉跄地向前,被它碾压、拖拽。自觉发展是文明拥有智慧,可以选择向哪里走。人工智能是人类文明宏观层面拥有智慧的重要表现形式。人工智能可以回答与解析问题,而人的价值就在于提出正确的问题。文明的价值观、发展方向只能由人来决定。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230330A09Y0J00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券