首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何让人工智能学习人类价值观

近几年来,随着人工智能技术越来越普及,AI技术首先运用在下棋、聊天、外科手术,接着又席卷了文学艺术领域,从写文章(诗歌、散文)、小说、剧本到美术设计、特技绘画、视频生成以及电影制作等等。

在电影制作方面,首部全AI制作的电影《The Frost》,讲述在南极洲冰冷的深处,某团队正着手调查一个奇怪的信号,不知不觉踏上了一段将挑战他们对过去及未来认知的旅程。

从近些年AI技术不断升级以及使用者的反馈来看,AI还没有出现进化到能取代和超越人类的苗头。AI受制于逻辑化原理和样本库依托,只擅长跟踪性、模拟性、常规性的工作,无法取代人的主导作用。

被莫言誉为文学界思想家的韩少功认为:“文学之所以区别于下棋和玩魔方等一般娱乐,就在于文学长于传导价值观。好作家之所以区别于一般‘文匠‘,就在于前者总是能突破常规俗见,创造性地发现真善美,守护人间的情与义。”

人类在发展AI技术的过程中,AI能否像人类一样具备情感和价值观仍然是最大的谜题。甚至还有小说或电影畅想了仿生人具备思想和生育能力,相关影片有《普罗米修斯》和《银翼杀手》等等。

也就是说,人类努力地让AI看起来更像人。在2004年的好莱坞电影《我,机器人》中,斯普纳警探(威尔‧史密斯 饰)问凯文博士:“你究竟在这里做什么工作?”凯文博士(布丽姬‧穆娜 饰)回答:“我专业领域是高级机器人学和精神病学,我还专攻硬件和软件的接合,改进美国机器人技术公司机器人拟人化程序。”

注:亚历克斯‧普罗亚斯指导的电影《我,机器人》,改编自“机器人科幻小说之父”艾萨克‧阿西莫夫的同名小说。

随着机器学习飞速发展,人类开始担心AI做的事情与我们真正的目的不符,并引发潜在的风险和伦理问题。

让AI学习人类价值观,其实也是人类自己学习和反思价值观的一个漫长的过程。人类的价值观并不像那些拥有唯一解的方程式,各种环境和文化中形成的价值观都是截然不同的,不同的价值观把各类人生路指引到不同的方向。

人类通过哪些方式可以让AI也塑造出鲜明的价值观,以指导它们各类实践活动,从而达成人类的相关目的。比如阿西莫夫提出的“机器人学三大法则”:1、机器人不得伤害人类,或因不作为而使人类受到伤害。2、除非违背第1法则,机器人必须服从人类的命令。3、在不违背第1和第2法则的前提下,机器人必须保护自己。

AI真的能通过人类的训练和自己的深度学习,掌握一套具有指引性的鲜明价值观吗?比如过马路时不闯红灯、排长龙时不插队、识别出有人受伤或遇到困难时上前去询问并提供相应帮助,在那些不怀好意的人面前适当说谎,以及受威胁被胁迫时能否坚守价值观不出卖利益方或朋友?或者不会为了顾及自己或同族利益就囚禁人类、甚至精心布局诈骗或迫害人类。

如果你对AI关键技术和道德问题感兴趣,可以读一读畅销书作家布莱恩‧克里斯汀的《人机对齐》,作者在书中精练地描绘了机器学习的发展史,并亲自深入科研一线同科学家对话,准确呈现了机器学习最前沿的进展。

推荐阅读:

[1] 人机对齐:如何让人工智能学习人类价值观 [美] 布莱恩‧克里斯汀

[2] 精准学习:解密人脑为什么比AI学得更好 [法] 斯坦尼斯拉斯‧迪昂

[3] 算法之美:指导工作与生活的算法 [美] 布莱恩‧克里斯汀 汤姆‧格里菲思

END

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OjCvHmXSxAuzbMdQhHhWRCGg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券