首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

逻辑的边界至于何方

什么是人类逻辑?它究竟有多复杂?我们人类的逻辑究竟能不能被机器习得并且应用?在道德思考中,逻辑的边界会变得愈来愈清晰抑或模糊吗?

今晚,第二位演讲者Ritha将从几个简单的逻辑例子入手,讲述人类逻辑的复杂性,这种复杂性如何影响智能逻辑,以及在道德语境中的思考。

逻辑的边界至于何方

作者 | Ritha

大家好,我是Ritha,来自北京大学。本次我演讲的内容主要集中于三个方面:人类逻辑的复杂性,这种复杂性是如何划分我们和人工智能的边界的,以及由此带来的道德讨论。

一开始我会从日常生活中的逻辑问题出发,阐述人类逻辑的基本功能;而后我将针对人工智能逻辑和人类逻辑的分野阐述为什么有些事情计算机不能像人类一样完成;最后我将针对由此引发的人类处理道德事件的优势进行讨论。

逻辑与我们的生活息息相关,且逻辑的讨论并非深不可测,而是有意义且生动的。心理学家做过一个有趣的实验:

上图四张卡片,针对元音背后一定是奇数这个规则,需要翻哪一张或哪几张牌来验证?

答案:E和4(复制粘贴黑色部分查看)。

Reference: Kirby, K. N. (1994). Probabilities and utilities of fictional outcomes in Wason's four-card selection task. Cognition, 51(1), 1-28.

蕴含推理,换言之就是如果那么推理。这个其实是我们生活中最常见的推理形式。例如很多习以为常的语句:

如果明天不下雨,咱们就去玩吧。

如果他还不在家干活,我就离婚。

他才不会学习,除非太阳从西边出来了。

Reference: 《逻辑导论》陈波。

同时,我们生活中也常见到一些逻辑错误,冯小刚在微博批评他人时会被群众质疑,因为其疑似进行人身攻击(逻辑中的偷换概念)。这些逻辑错误反映了我们思考问题是有一定模糊性的。

▲ 冯小刚微博《十问崔永元》被指责存在多处逻辑谬误

人类的逻辑相较于人工智能是更模糊的,而人类创造的产物,人工智能的逻辑无法超过二阶,即只能处理到属性的属性这一层面。这决定了计算机接受的输入都是准确无误的,而输出也是准确无误的。针对模糊化,随环境随时可能变化的输入便无法及时处理。

在一些人类也很难讲出原因的领域,例如情感感知,机器并不能很好的进行识别,也不能真正很好的应对细微的变化。在我们需要一个灵活的输入和一个创造性的思路时,计算机并不能很好的帮我们完成这件事。

哥德尔曾在二十世纪证明高阶逻辑是不完备的,也就是说我们日常生活中用的绝大多数逻辑中,都存在很多不可证的东西,我们无法证明它的真假性,这种模糊的环境是计算机所无法踏入的,如果计算机遇到无法判定的问题多数时候会陷入死循环。

▲ 哥德尔,奥地利裔美国著名数学家,1906-1978

我们在生活中还经常会运用到各种模态词语,像是必然百分百可能,而这些词语通常没有一个确定的含义。

我今天说:明天可能是世界末日。无论明天是不是世界末日,似乎我说的这句话都是正确的。

那我再说:我今天必然在这里演讲。我确实今天站在这里演讲了,但是这句话的正确性依然抱有疑问。

因此,计算机并不能很好的还原人类生活中所用到的逻辑,这是人类和人工智能之间一个较大的鸿沟。人们不会因为某些语言的略微变动而不知所措;也不会因为遇到不确定就无法处理。人们甚至可以跳脱出现有的框架,创造一个完全颠覆现有知识的思想理论。

当我们真的审视自己的逻辑的时候,会发现它异常神秘又异常重要。为什么恋人之间连一个眼神都能传递信息?为什么一篇散乱的文章大家依旧能认出文章中表达的意思?因为人类从来不需要一个准确的输入,也几乎不给出一个准确的输出,这正是人类相较人工智能更复杂的地方。

人的思维如此复杂而模糊,这种丰富的框架为我们提供了一个从各种方面审视问题的途径。我们能欣喜地看到,在面对道德问题时,越来越多的人不是用对或错来评判这件事,而是从涉事人的行为、背景、产生的影响等多方面来界定这件事,不同人对于事件的不同思考也会让我们深受启发。

▲ 经典道德难题——火车难题

我曾经接触过一个案例,是讲人类在做道德两难问题,例如火车开过来是救一个还是救五个的问题时,所做的决断。心理学家的研究显示出人们并不是单纯的判断应该如何选择,而是在各种相关的脑区都产生了激活,不同脑区的激活之间会有取舍,最后通过综合判断来下达决策。

这其实就反映了我们思维过程中的多样性。这种多样性又是跟我们的背景、我们所经历的故事息息相关的。一个儿时饱受家庭暴力的孩子,长大也会更倾向于对事情产生暴力倾向;一个经常处于高压状态的孩子,会在今后更容易患有抑郁。

每个人背景的不同决定了他/她看问题角度的不同,而这多种多样的思考为同一个问题提供了不同的解决办法。

Reference:Foot, P. . (1967). The problem of abortion and the doctrine of double effect. Oxford Review, 2(2), 152–161.

说到这里我想提到一个例子,是我在很久以前在一本有关二战的书上看到的。上面写着当时一个俄国士兵面前有一个核武器按钮,上司命令他如果德国军队攻进来了,就释放核武器,一起毁灭。

这个故事的真实性有待考证,但故事给我们提供了一个很好的思考点:在这种情况下,如果交给一个计算机执行,可能在德军脚步迈入大门的一瞬间,核弹便已发射出去,全世界的百姓便会因此生灵涂炭。这样的逻辑真的是我们在道德中需要的吗?如果这个士兵违抗了上帝的指令,在德军攻入时没有按下按钮,他就一定做错了吗?

再用于欢案作为例子。于欢的母亲因为借高利贷未还而被催债人步步紧逼和侮辱,在出警无用被限制在工厂后,于欢因受不了侮辱而杀人,但却因防卫过当被判了刑。听起来很让人悲痛而惋惜,让人抱不平,但在法律的准绳下,一切以发生的事实进行匹配,那些模糊的心理共情就被磨掉了。

▲ 4·14聊城于欢案二审现场

然而现实中有太多如此模棱两可的事件,一点环境的变化、一点时间的差异,可能都会导致截然不同的判决结果。而判决的结果,也会引发社会上的各种声音,各种声音的交错又会影响进一步的判决。在这种如此复杂多变的环境下,人类应如何合理运用自己的逻辑,来给涉案人一个合理的判决,是我们都要思考的。

所以最后,我一直在思考也鼓励大家进行思考:在道德这个是非对错模糊至此的问题上,我们如果把工作交给机器来执行,是一种解脱还是一种罪孽呢?我们到底应该把什么事情交出去,什么事情不交出去呢?我们应该如何划定机器和人道德的边界,如何对机器的道德进行判断呢?

我的演讲到此结束,谢谢大家。

年会演讲 · 今日作者

* 我们近期会在YouTube Channel:the Pi 上传本次年会的演讲视频,欢迎您的关注~

编辑 / 白朋

设计 / 白朋

关注我们

与这世界的年轻故事光影同存

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190220B1BR7J00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券