首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人脸识别进教室!被AI监控的人类,到底谁更像机器?

近日,一张人工智能监控学生课堂一举一动图片引热议。图片显示,人工智能能识别学生举手、玩手机、睡觉、听讲等行为。

虽然最后有记者了解到,网传图片系该公司技术场景化概念演示,现仅停留在技术展示阶段,未落地应用。但是这却让人联想到《流浪地球》当中的莫斯,一个监控着宇航员们行动的人工智能,而且是个就像是已经形成了自我意识的人工智能。

人类的行为竟然会受到自己创造物的管束,这看起来似乎有些不太实际的存在却已经在许多影视、游戏作品中出现。

随着人们对人工智能技术以及仿生人的不断研发,越来越多的电视剧、电影甚至电子游戏都在试图探讨一个问题:如果我们以自身的形象来创造机器人,将会发生什么?

美剧《西部世界》中的仿生人拥有创造仿生人的技术,并且想要与人类为敌;电影《终结者》机器人想要完全占有这个世界,将人类斩尽杀绝;游戏《底特律:成为人类》遭到人类虐待的家用仿生人开始反抗,最后团结起来争取权利。

为此,许多人都开始对人工智能是否会带来伦理问题产生了怀疑。

对此,神经网络和计算神经科学的先驱特伦斯·谢诺夫斯基曾说:“我有信心,作为一个物种,人类有足够的智慧平稳地避免最坏的结果。自从工业时代以来,我们所拥有的技术有时被用于战争,也会被用于建设文明,还用来建设工厂。技术发展总会遇到问题,你要做的就是控制它。通过制定法律,来控制人们滥用技术获利。这样的困境总是会发生的。但所有的技术都是如此,人工智能也不例外。”

在民法体系中,主体(人)与客体(物)是总则的两大基本制度。凡是人以外的不具有精神、意识的生物归属于物,是为权利的客体。但是主客体之间的这种鸿沟随着人工智能的发展正在动摇,当人工智能技术达到奇点后,会成为具有自主意识的存在。

同时,由编程人员人写成的人工智能的算法也可能携带上某种价值观,或许会造成一种“无意识的歧视”。例如一位哈佛大学的非裔美籍博士生发现,她使用谷歌进行搜索时计算机屏幕上会出现“你是否有被捕记录”的广告,而白人同学进行同样的搜索时并不会出现这一广告,其原因在于谷歌在设定算法时将黑人常用名与“你是否有被捕记录”的广告联系在一起了。 由于人工智能可能具备人类的思维以及情感能力,并融入进人类的生活当中,人与仿生人之间还可能产生移情作用,例如英剧《黑镜》当中就讲述了仿生人艾什能否代替玛莎去世丈夫的故事。

人工智能应用可能带来的各种伦理与社会问题越来越受到社会的广泛关注:2016 年 9 月,BSI(英国标准协会)发布《机器人和机器系统的伦理设计和应用指南》,旨在帮助机器人制造商在设计阶段评估产品的道德风险,包括机器人欺诈、机器人与人的情感联系、种族及性别歧视等;2016年12月,IEEE(电气和电子工程师协会)发布《以伦理为基准的设计指南》,鼓励科研人员将伦理问题置于人工智能设计和研发的优先位置,强调人工智能应当符合人类价值观,服务于人类社会;2017 年 1 月,全球2000名科学家,包括844名人工智能和机器人领域的专家,在Beneficial AI会议上联合签署了“阿西洛马人工智能原则”,明确了安全性、利益共享等等23 条原则,并呼吁人工智能领域的工作者遵守这些原则,共同保障人类未来的利益和安全。

事实上,人类对于人工智能能被绝对信任一直都持有怀疑态度,尽管在阿西莫夫的三定律之下,人工智能看似没有超脱人类控制的可能,但谁都没有预知未来的能力。阿西莫夫提出了三定律,可他也曾讲:“一切正常的生命都会有意识或无意识地对控制感到愤恨。如果这种控制来自能力低下的一方或据说能力低下的一方,这种愤恨就会更加强烈。”

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190905A0FREK00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券