人工智能工具论

来源|人工智能法律研究

人工智能的广泛应用重塑着社会结构、生活秩序和国际格局,也带来了方方面面的问题。对于公众来说,尤其是强人工智能的想象让人们感到未来的不可测,引发了人们的忧虑情绪。

如果回顾人类发展史,大约5到10万年前,地球上不同区域的人类分别进化为非洲的“智人”人属和欧洲的“尼安德特人”人属、亚洲的“直立人”人属等等,然后“智人”杀出非洲,对包括“尼安德特人”、“直立人”等在内的所有其他人属和全球各类的大型猛兽进行了灭绝,导致全球只留下了“智人”这一个人属。在人类的发展史上,战争和对利益的争夺是从来没有停歇过的。

现在要告诉人工智能为人类的利益服务,可是那一部分人的利益呢?

如果人工智能必须遵守人类设定的价值观和法律、道德规范,那么具体什么样的的价值观和法律、道德规范应当被写入呢?这首先应当问人类应该有什么样的价值观和法律、道德规范,这关乎到人类对自身是如何认识的,人的本质是什么,世界的本质是什么,人与世界的关系等哲学问题。

正确认识人工智能的发展和治理问题,笔者认为首先应当注意的是,不要用人类进化的眼光去看待人工智能的发展。

第一,人工智能技术首先是一种工具。

人类的发展经历了漫长的时期。最重要的进化,是学会使用工具,有了“技术”。十万年前,现在人类的共同祖先“智人”人属猿人由于或许是基因突变的原因,或许是偶尔使然的因素,学会了以锋利的石块采割果实,捕猎动物,剥制兽皮,用于战斗等。(1968年的电影《2001太空漫游》中尝试还原了这一场景。)这一“技术”的获得,让它从其他猿人和动物中分离出来,取得了对其他人属猿人和动物的绝对优势地位。人类历史由此开始,史称“旧石器时代”。

随后取火、语言、制陶、青铜器、“结绳记事”到文字等各类工具的掌握,催动着人类文明的进化史。中国的印刷术、火药、指南针这三大发明在文学、战争、航海方面改变了整个世界的许多事物的面貌和状态,并由此引起了无数变化。中国的马镫传入欧洲,导致了骑士阶层的出现和中世纪欧洲崛起。而“火药革命”又导致了骑士阶层和封建领主的消亡。蒸汽机开启了第一次工业革命。电力开启了第二次工业革命。计算机开启了第三次工业革命。第二次世界大战时,各种新式武器和工具被研发出来,图灵的密码机破解了德国“英格玛”密码系统,帮助盟军制服了德国潜艇,雷达帮助英国皇家空军赢得了不列颠之战,原子弹结束了第二次世界大战。

以前人类用各种工具制作人形玩偶,虽然有各种文学想象放飞,但是人们并不会真的认为人形玩偶会具有人性。今天人们发出人工智能是否会具有人性的疑问,是因为人工智能技术可以使一个程序或者机器人表现的像有智能,给人一种它们具有人性的错觉。但是这些程序或者机器人仍然只是表现的像有人性,实际上并没有人性。其表现出的智能是人类知识的处理结果。人工智能技术仍然是一种工具。这种工具和其他工具一样,是人类发现和利用自然规律的结果,其进步所遵循的规律和人类进化的规律并不相同。与其问,人工智能是否会具有人性,不如问,为什么人工智能一定要具有人性?人工智能需要具有人性吗?没有任何证据表明工具的进步是以具有人性作为最高目标的。实际上,数千年来,当人类利用工具取得对自己的种种便利和层层保护的同时,人类的身体机能一直处于退化之中,而人性本身和之前并无二致。

第二,人工智能是人类利用自然规律的产物,而不是创造自然规律的产物。

人类对工具的掌握,是发现自然规律、利用自然规律的结果,而不是创造自然规律的结果。自然规律只能被发现,无法被创造;发现的自然规律只能被利用,无法被改变。

1942年,阿西莫夫在短篇小说"Runaround"(《环舞》)中首次提出了机器人三定律,阿西莫夫因此获得“机器人学之父”的桂冠。

第一定律 机器人不得伤害人类,或因不作为使人类受到伤害。

第二定律 除非违背第一定律,机器人必须服从人类的命令。

第三定律 除非违背第一及第二定律,机器人必须保护自己。

后来,阿西莫夫加入了一条新定律:第零定律

第零定律 机器人不得伤害人类整体,或因不作为使人类整体受到伤害。其它三条定律都是在这一前提下才能成立。

机器人三定律(加上零定律)在科幻小说中大放光彩,其影响力也延伸到现实领域,很多人工智能和机器人领域的技术专家也认同这个准则,在机器人三定律基础上建立了旨在研究人类和机械之间关系的新兴学科“机械伦理学”。

机器人三定律的问题在于其仅是人类对人工智能一厢情愿的谋划,并没有任何自然规律被发现和证明支持机器人三定律。对于人工智能的研究,不能用这种自以为理想的方式“规定”其运行的框架和规则,因为自然规律是不会被“规定”出的,违反自然规律的“规定”只会将人类引到错误的方向。我们不能假定人工智能会在人为设定的理想框架内运行。正确的方法应该是立足现实,观察并推导人工智能发展过程中可能会出现的新生态,并判断哪些是可以加以限制的,那些是无法加以限制的;对于可以加以限制的部分,制定相应的法律规范、行业守则;对于无法加以限制的部分,要做为即将发生的客观存在,纳入分析人工智能的整个环境框架。

第三,人工智能既可以用于帮助人类,也可以用于危害人类。

爱因斯坦曾说过:“以前几代的人给了我们高度发展的科学技术,这是一份宝贵的礼物,它使我们有可能生活得比以前无论哪一代人都要自由和美好。但是这份礼物也带来了从未有过的巨大危险,它威胁着我们的生存。”

自然的规律和原理既可以用于帮助人类,也可以用于危害人类。工具,既可以用来做好事,也可以用来做坏事。所以给人工智能制定法律、道德规范的目的是将人工智能做为工具运用于有益于人类的方面,同时阻止和限制其在危害人类方面的运用。基于进化的多方向性和人性的复杂性,完全阻止人工智能被利用于危害人类是不可能的,正如人类无法杜绝毒品,和手枪被用于抢劫一样。但是和对其他因素的治理一样,对人工智能的治理也不需要掌控所有的细节,只要能确保将其控制在安全的界线范围内即可。

总结观点

不要用人类进化的眼光去看待人工智能的发展。虽然人工智能是人类所创造的,但是这种创造是发现和利用自然规律的结果,是运用自然力量的结果,而不是人类凭空创造出来的。所以人工智能不是人类手中的泥巴,可以捏成任意的形状。对于人工智能的研究,人类不可以任意的“规定”规则,在探索人工智能发展的道路上,不能一厢情愿的为人工智能设计未来,而应注重观察和发现相应的自然规律和原理,将人工智能技术做为一种工具,运用于有益于人类的方面,并限制其在危害人类方面的运用,使人工智能的发展可控,而不至于危害人类整体。这是对人工智能进行治理的目标。

特别申明:为尊重原创作者与知识产权,本公众号会注明文章具体来源;若来源不详,则注明:本文来源于网络,版权归原作者所有!如原作者发现本篇内容存在版权问题,请及时后台留言。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180828B0ML8T00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注腾讯云开发者

领取腾讯云代金券