Rationality: from AI to Zombies/ Map and Territory/ Fake Beliefs/ Bayesian Judo
有些人对事物的预期和他们自以为秉承的信念背道而驰。你可以拿这种人找找乐子。
我曾经在一个晚宴上试图向一个男人解释我是干什么的。
当他说「我不相信人工智能可能实现,因为只有上帝才能创造灵魂」的时候,我灵机一动,立刻回应他说,「你的意思是,如果我能做出个 AI,就能证明你的信仰是假的吗?」
「啥?」
「这么说吧,如果你的信仰预言我不可能做的出 AI,那么,如果我做了个 AI,你的信仰就被证伪了。要么你的信仰允许我有可能做出 AI,要么你的信仰会被我做出 AI 这件事证伪。」
时间暂停了一下,当他意识到他刚刚给他的假设开了个可证伪的口子,他立刻改口,「额,我不是说你不可能做出 AI,而是它不能像我们人一样有感情。」
「那么,如果我做出了一个不需要预编程情绪脚本,却可以像我们这样谈论感情生活的 AI,那就证明了你的信仰是错误的。」
「好吧,我觉得我们还是各自保留意见比较好。」
我说:「不,实际上不行。有条理性定理,叫奥曼一致定理,说的是两个理性人之间不可能『各自保留意见』。如果两个人的观点不一致,那么至少有一个人肯定搞错了什么。」
我们在这上面反复讨论了许久。最后他说,「好吧,我想我实际上想说的是你不可能做出什么永恒的东西。」
「我也是这么想的!我很高兴我们两个的观点一致,达成了奥曼一致定理的要求了。”」我们握了个手,然后他离开了。
边上有位女士听完了我们的对话,一本正经地对我说:「真妙。」
「谢谢夸奖。」
翻译:Jack
校对:潜艇
领取专属 10元无门槛券
私享最新 技术干货