展开

关键词

外包与“黑箱”中的算法歧视

当利用系统对犯罪进行犯罪风险评估,算法可以影响其刑罚;当自动驾驶汽车面临抉择的两难困境,算法可以决定牺牲哪一方;当将技术应用于武器系统,算法可以决定攻击目标。 [8] 正是由于法官在量刑时常常受到诸多非法律的外在因素影响,基于大数据、数据挖掘、等技术的犯罪风险评估系统开始大行其。 对大数据的依赖是否会导致或者公平性问题? ,并提出是否可以让机器代替类来做、法律等判断的问题,其实就是公平否算法化的问题。 在政府层面,为了削弱或者避免机器偏见,美国白宫报告将“理解并解决、法律和社会影响”列入国家战略,并建议AI从业者和学生都接受伦理培训。

3.1K100

牛津治理手册:和治理中的作用

虽然国家、公司和国际组织在治理中的作用已经被广泛理论化,但的作用却很少受到关注。本章着眼于在识别和减轻技术带来的危害方面所发挥的作用。危害是对技术的因果“影响”进行评估。 我们将治理中的作用理论化,并构建了作场所伤害报告过程的模型。危害报告过程涉及三个步骤:识别、治理决策和响应。 回顾过去十年与相关的维权活动,我们可以了解不同类型的在生产系统的作场所是如何被定位的,他们的位置如何影响他们的主张,以及集体行动在实现他们的主张时所处的位置。 本章认为,在识别和减轻系统造成的危害方面发挥着独特的作用。 牛津治理手册 和治理中的作用.pdf

16700
  • 广告
    关闭

    什么是世界上最好的编程语言?丨云托管征文活动

    代金券、腾讯视频VIP、QQ音乐VIP、QB、公仔等奖励等你来拿!

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    性(CS AI)

    原文题目:On the Morality of Artificial Intelligence 关于的社会和伦理影响的现有研究大多集中于定义机器学习(ML)和其他(AI)算法的伦理原则和指导方针 在这篇专门针对ML从业者的文章中,我们因此更关注后者,对现有的高级伦理框架和指导原则进行了概述,但最重要的是提出了ML研究和部署的概念和实践原则和指导原则,坚持从业者可以采取的具体行动,以追求ML更符合伦理和的实践 ,旨在利用造福社会。

    34940

    DataRobot:规范,通过遵循伦理实践来建立信任(一)

    随着机器学习和的发展,似乎每个都想进入这一领域,承诺提高准确性、速度、可伸缩性、个性化、一致性和业务各个领域的清晰度。有了这些优势,为什么有些企业在前进的路上犹豫不决呢? 一方面,企业知他们需要接受创新才保持竞争力。另一方面,他们知AI可具有挑战性。大多数都听过大公司在方面犯错误的新闻报,他们担心这可会发生在他们身上,损害他们的声誉。 原则1:目的 原则2:公平 原则3:披露 原则4:治理 原则1:目的 就像类一样,AI受到不正当的激励,甚至可类更多。因此,你需要仔细选择分配给AI的任务和目标以及历史数据。 在为AI分配任务时,请考虑提出以下问题:是否解放了你的员,让他们承担更有成就感的任务?你的新任务是否改善了客户体验?它是否让你提供更好的产品或扩展你的组织力? ? 如果历史数据包含弱势群体不良结果的例子,那么将学会复制导致这些不良后果的决策。数据应反映将与之互动的目标群的多样性。当一个群体在历史数据中的代表性不足时,也会发生偏见。

    39020

    DataRobot:规范,通过遵循伦理实践来建立信任(二)

    编辑 | Dolores 发布 | ATYUN订阅号 在之前关于伦理主题的前一篇博客文章中,我们介绍了(AI)在提高各行业企业的速度,准确性和运营方面所做的承诺。 凭借的潜力,企业在推进项目方面不应该犹豫不决,但他们担心犯错会损害公司的声誉。 通过遵循围绕AI的规范的四个主要原则,可以避免这些陷阱。 将此应用于,我们有责任向利益相关者披露他们与的互动,以便他们做出明的决策。 原则4:管理 组织对的管理是指其确保其系统安全,可靠和健全的责任,并确保采用适当的流程来确保这些系统的责任和问责制。 ? 与任何其他技术一样,AI可用于或不的目的,AI可以是安全的或危险的。由于AI失败可导致负面结果,因此有责任管理认可机构并应用高标准的风险管理。 类必须对他们设计和部署的AI负责并负责。

    27341

    欧盟发布《准则》:「可信赖 AI」才是 AI 的指路明灯

    选自欧盟官网 机器之心编译 参与:张倩 近日,欧盟委员会发布了由高级专家组(AI HLEG)编制的《准则》(AI Ethics Guidelines)草案,指出 AI 的发展方向应该是 「可信赖 AI」,即确保这一技术的目的合乎,技术足够稳健可靠,从而发挥其最大的优势并将风险降到最低。 执行摘要 是这个时代最具变革性的力量之一,它可以为个和社会带来巨大利益,但同时也会带来某些风险。而这些风险应该得到妥善管理。总的来说,AI 带来的收益大于风险。 「可信赖 AI」框架 Chapter I :确保的目的合乎,规定了发展应该遵守的基本权利、原则和价值观。 问责机制 数据治理 为所有设计 自治的治理(的监督) 非歧视 尊重(增强)类自主性 尊重隐私 稳健性 安全 透明 《准则》还对每一项要求进行了进一步解释。

    50120

    影响,究竟该是谁的责任?

    马克思对的警告和脸书机器创造的一种让类无法理解的语言,可就会让们联想到机器征服世界的画面。 虽然这样说会造成一场灾难,可会有些牵强,但的后果已经产生了,并且值得们去关注:问题。 类想要同时驾驭科学方法和决策这两个领域还是很困难的,而更难的是让计算机算法让机器的行为符合准则。 更重要的是,具体到哪些应该对此负责? 值得让高兴的是,已经对许多的生活产生了影响,我们可以想象,更加先进的应用成倍地增加这种积极影响。 在未来,我相信选择正确的观念将被编码应用到

    64960

    演进:可以被编程吗?

    的最新进展明确表明,我们的电脑需要有一个准则。不同意?想想看:一辆车开车上路时,一个骑自行车的孩子在它的前面突然转了个弯。此时车子转弯进入逆行车,撞上另一辆已经在那里的汽车? 相反,他们会在一个更基本的层面上,把重点放在如何确保系统够作出艰难的、更接近标准的选择,像类的日常决策一样。 那么,该怎样才让AI够作出一个艰难的决定呢? Contizer解释说,为了实现这个目标,他们的团队将按照以下两条线开展:让们作出选择,从中发现出模式,然后寻求如何将这些模式置入。 为了解决这些问题,并帮助正确找出如何把编写进之中,该团队正在结合来自计算机科学、哲学和心理学的很多方法。“概括地说,这就是我们的项目所要做的事。”Contizer说到。 这并不需要超高商的,这只需要一个可以通过各种方式权衡方案的程序即可。” 当然,知作出什么决定,首先需要知究竟什么样的准则才是正确的(或至少有一个公平的决定)。

    27370

    日不落帝国下一个统领全球的领域:的伦理? | 附报告

    而当这样一个消息传到大西洋彼岸的英国,上议院的老爷们不仅为AI所造成的伦理问题困扰,还中二的发现了自己在浪潮中的历史使命:不是写论文或者搞算法,而是引领全球发展伦理。 英国上议院昨天出了一份长达183页的报告《在英国:充分准备、意愿积极、力爆棚?》,不仅说了在英国的发展,更聚焦于伦理问题——那些AI可类带来的风险。 ? 除了种族性别这些出身因素,更为重要的是,研究者应当保证他们的产出符合:不侵犯隐私、不伤害类、不左右政局,尤其在AI武器方面应当更为谨慎。 AI研究员的水平可放心,但是够独立做出决定的AI本身呢? 五大原则:为类利益服务,绝不伤害类 在伦理方面,英国上议院的这份报告起草了纲领性的五大原则,包括: 发展是为了类的共同利益; 应当保证公平,并且让容易理解; 不应当用来侵犯们的隐私

    47820

    的未来依赖于准则

    更重要的是,这是一个行动的召唤:AI,我们需要一套准则。 随着革命的不断加速,们正在开发新技术,以解决消费者、企业和整个世界面临的种种问题。 研究员、企业家和全球组织必须为一套伦理准则打下基础,以指导我们度过即将到来的突破和不可避免的困境。我要澄清的是,这并不是一个单一的准则——每个公司和行业都必须拿出自己独特的准则。 我现在还不知这些问题的答案,但我的目标是在简单的常识的基础上,让更多的意识到这个话题,并努力找到解决方案。以下是一些与和自动化有关的问题,它们让我夜不寐。 无驾驶汽车的 随着汽车的发明,车祸发生了。同样地,一辆爱车将带来我们必须准备面对的和商业影响。研究员和程序员将不得不扪心自问,在自动驾驶汽车中,如何在安全与机动性之间进行取舍。 但这一点处于危险的边缘,在梦境和噩梦之间徘徊。 为了防止的炒作,并利用它的变革性力量,我们必须从伦理出发,正确地对待

    93610

    如何赋予机器力?

    打造具备自主装置的该负什么样的责任?我们该如何透过有责任感的方式,为机器添加力? 研究员将为这些链接机器程、巨量数据分析以及哲学的迷题目找出答案;它们正为程师们带来挑战,也不应该被忽视。 要赋予机器力,就是让机器在一个判断情境中,模仿类的决策过程;而首先,机器就是意识到一个判断情境,接着依循所布建的推理策略──包括原则、基准与价值等。 Scheutz指出,现今的机器科技进展,已经制作出具备自我决策力的自主机器,不过大多数这类机器的功仍然很简单,其自主力也有限;因此它们有可因为缺乏从角度来考虑的决策算法,而成为具伤害性的机器 考虑到我们身为类,在评估我们自己的社交行为时,会一直表现出许多前后不一致的行为,无疑类需要为打造具备自主性的负责。

    43780

    如何赋予机器力?

    打造具备自主装置的该负什么样的责任?我们该如何透过有责任感的方式,为机器添加力? 研究员将为这些链接机器程、巨量数据分析以及哲学的迷题目找出答案;它们正为程师们带来挑战,也不应该被忽视。 Scheutz指出,现今的机器科技进展,已经制作出具备自我决策力的自主机器,不过大多数这类机器的功仍然很简单,其自主力也有限;因此它们有可因为缺乏从角度来考虑的决策算法,而成为具伤害性的机器 身为类,对机器判断情境或是两难情境下可做出的抉择做出批判,可会是挑战。 考虑到我们身为类,在评估我们自己的社交行为时,会一直表现出许多前后不一致的行为,无疑类需要为打造具备自主性的负责。

    54270

    、强、超

    文章目录 弱(Weak AI) 弱也称限制领域(Narrow AI)或应用型(Applied AI),指的是专注于且只解决特定领域问题的。 例如:AlphaGo、Siri、FaceID 等 扩展阅读: Weak AI ——Wikipedia Weak AI——Investopedia 强(Strong AI) 又称通用(Artificial General Intelligence)或完全(Full AI),指的是可以胜任类所有作的。 强具备以下力: 存在不确定性因素时进行推理,使用策略,解决问题,制定决策的力 知识表示的力,包括常识性知识的表示力 规划力 学习力 使用自然语言进行交流沟通的力 将上述力整合起来实现既定目标的力 ——Stackexchange 超(Super Intelligence,缩写 ASI) 假设计算机程序通过不断发展,可以比世界上最聪明,最有天赋的类还聪明,那么,由此产生的系统就可以被称为超

    2K20

    除AlphaGo,2018年的三大趋势是:情感、数据、

    越来越多的行业正在被机器学习、 VR 、这样的前沿技术颠覆,科技的发展进步使离我们的生活越来越近,AI的化和性化会影响每一个未来的生活和作。 的关键任务应用进行破解的一年,更大量的数据的计算的成熟,一些情景的核心应用将会成熟,例如无驾驶;而A.I. 的将会是全新的领域,会带来意想不到的新的研究课题。 2、真实世界的数据将是新的微分器 AI需要在大量真实世界数据的基础上进行开发,不仅够与交往,而且还要几乎与相差无几。2018将是AI公司攻克关键任务的一年。 3 、规范将是新的研究领域 AI时代已经来临,可以理解的是,一些关心科技对类的社会、和伦理影响,包括从对作的威胁到以及其对隐私的关注。 反过来,伦理将成为计算机科学教育的基本组成部分。同样的,医学生必修医学伦理学课程,计算机科学专业的学生也必修伦理课。

    40860

    勤:中国产业白皮书

    添加微信ddkjzx1,加入实名交流群与金融科技领域的创业者、投资者以及专业士交流,备注 “点滴科技”! 下载PDF报告请加入点滴科技资讯知识星球 点滴科技资讯 专注于金融科技、、区块链等领域的专业圈子!

    1.7K30

    如何用破解罗一笑事件的“绑架”困局?

    看着事态的发展,们渐渐嗅到了“绑架”的味,对于事件中的父亲罗尔及公关公司小铜们更是举起了手中“批判”的大旗。 也许可以帮上大忙! ? +大数据,实时审核慈善内容真实性 一般来讲,网上所发布的一切内容都会经过政府相关部门的审查。 正如当初百度的“赌博网站深夜推广上线”事件,在网站审核方面,他们每天采取“机器+”的方式来对4.7亿条推广内容进行审核,其中包括对推广内容以及网站内容的审核。 受热捧的区块链,监督每一笔资金的流向 除了绑架问题,此次“罗一笑事件”的捐款资金流向也受到了群众的质疑,对此,最近正备受热捧的“区块链”无疑是最佳武器。 对此,或许不从根源杜绝此类事件,但是,它可以在极快的时间内将事件态势控制在一个范围之内,阻止更多的受其蛊惑。

    31140

    -浅谈

    1 浅谈 1.1 的概述 (Artificial Intelligence),英文缩写为AI。 它是研究、开发用于模拟、延伸和扩展的理论、方法、技术及应用系统的一门新的技术科学 是计算机科学的一个分支,它企图了解的实质,并生产出一种新的相似的方式做出反应的机器, 从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来带来的科技产品,将会是慧的“容器”。可以对的意识、思维的信息过程的模拟。 不是,但那样思考、也可超过。 ? 1.2 的应用领域 随着家电、穿戴设备、机器等产物的出现和普及,技术已经进入到生活的各个领域,引发越来越多的关注。 ?

    75820

    毅院士:研究新进展

    Dietterich、澳大利亚新南威尔士大学教授、AAAI 执行委员会成员 Toby Walsh、研究中心(DFKI) 科技总监 Hans Uszkoreit 之后,今天,我们特别为大家带来国家级领域权威物 —— 中国程院院士、中国学会理事长 李毅院士。 中国程院院士、中国学会理事长 李毅 「中国程院院士」是中华民共和国设立的程科学技术方面的最高学术称号,为终身荣誉。 李毅院士是计算机程和领域的卓越专家,现任中国学会理事长,中国电子学会副理事长,中国电子学会云计算专家委员会名誉主任委员,中国大数据专家委员会顾问,中国指挥与控制学会名誉理事长,国家信息化专家咨询委员会委员 在今年的大会上,李毅院士将再次为所有与会者带来他在领域的最新思考及研究成果,敬请期待。

    25330

    打击

    来源:AI前线 本文长度为4000字,建议阅读8分钟 随着 AI 技术的发展以及部分滥用,这句话也被应用在了上,一场新的军备竞赛开始了: vs 。 随着 AI 技术的发展以及部分滥用,这句话也被应用在了上,一场新的军备竞赛开始了: vs 。 然而不幸的是,网络罪犯同样也利用创建自己的合成身份,产生的结果也足够真实,足以愚弄发现异常行为的。 这场之战——也是打击网络安全欺诈者,正在假新闻、假视频和假音频的战壕中展开。 ,从手动“刷卡”到用创建合成身份。 例如,现在大多数都知,不要点击来源不明的附件,媒体也知如何在垃圾邮件到达收件箱之前识别出来并过滤掉它们,”同样,已知的赝品甚至可的赝品也可以贴上这样的标签,以提醒们不要太当真。

    37230

    扫码关注云+社区

    领取腾讯云代金券