前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >人工智能价值协调的伦理效用函数的必要性变化

人工智能价值协调的伦理效用函数的必要性变化

原创
作者头像
Jarvis Cocker
发布2019-07-17 15:26:59
6160
发布2019-07-17 15:26:59
举报

原文标题:Requisite Variety in Ethical Utility Functions for AI Value Alignment

摘要:价值比对是人工智能安全研究中一个重要的复杂课题,近年来从不同的角度对其进行了研究。然而,尚未就促进人工智能价值调整的道德效用功能的设计达成最终共识。考虑到找出系统解决方案的紧迫性,我们假设,从一个简单的事实开始,人工智能的效用函数不违反人类的伦理直觉,它就必须是这些直觉的模型,并反映它们的多样性,这可能是有用的。因此,与生物有机体有关的最精确的模型是科学模型,而生物有机体具有诸如道德判断等概念的大脑。因此,为了更好地评估人类道德的多样性,我们进行了一项跨学科的分析,将安全心态应用于这一问题,并总结了来自神经科学和心理学的各种相关背景知识。作为一种合适的伦理框架,我们将其与增强功利主义联系起来,以此来补充这一信息。在此基础上,我们提出了第一个实用的准则来设计近似的伦理目标函数,以更好地捕捉人类道德判断的多样性。最后,我们总结并处理未来可能的挑战。

地址:https://arxiv.org/abs/1907.00430

作者:Nadisha-Marie Aliman, Leon Kester

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档