展开

关键词

算法决策兴起:人工智能时代若干伦理问题及策略|AI观察

很荣幸今天有这个机会跟大家分享我自己对人工智能伦理一些观察和思考。我今天分享主题是《人工智能伦理问题与策略》。 算法歧视、隐私、安全/责任 机器人权利等AI伦理问题日益浮现 所以我们看到,AI确实是一场正在发生社会变革,潜在好处是巨大。但是,我们也不能忽视AI背后伦理问题。 我今天主要讲四个方面的伦理问题。     第一个是算法歧视。     可能人们会说,算法是一种数学表达,很客观,不像人类那样有各种偏见、情绪,容易受外部因素影响,怎么会产生歧视? 构建算法治理内外部约束机制 对于前面说一些伦理问题,人们可能需要提前构建算法治理内外部约束机制,这里我谈四点。 ? 一是规范和价值发现,首先需要确定AI系统到底需要遵守哪些法律和价值规范,但是在这个里面可能存在道德过载和价值位阶问题,在不同价值发生冲突时该如何选择,这个更多需要跨学科工作。

926100

如何看待和学习人工智能?这是五位哈佛博士生AMA

最近,五位哈佛在读博士生集体来到著名社区reddit,展开一场围绕人工智能和认知科学AMA(Ask Me Anything)。 通常股票购买是一个复杂决策过程,最终这些交易将由各种数据决定,算法正在取代人决策。 但我们仍然不知道人工智能如何影响我们经济和工作,只有时间会说明一切。 提问:机器学习是当前热门话题。 认真的说,应该有一些法律规范人工智能应用,也许还需要一些机构进行代码评估,已确定人工智能是否会被用于不道德领域。 提问:最近Facebook工程师关掉了机器学习翻译程序,据说是因为这些AI创造了自己语言。你们怎么看待这件事? 回答:我觉得这没有什么可怕。 回答:Google的人写过一篇非常有趣文章,来说明AI安全问题。他们给出了五个要点: 1、避免有害副作用:机器人如何才能在追求效率同时避免造成连带损伤?

51550
  • 广告
    关闭

    腾讯云校园大使火热招募中!

    开学季邀新,赢腾讯内推实习机会

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    你觉得人脸识别智能锁方便吗? | 拔刺

    3、如何看待郭台铭痛批三星:再伟大也不会有百年基业? 本文 | 2156字 阅读时间 | 6分钟 你觉得人脸识别智能锁方便吗? 技术足够完善的话,人脸识别智能锁肯定是方便。 任何事情不管是有没有人参与,只要是与人有关,就必然会涉及到伦理问题,而伦理问题涵盖范围甚至可以小到人能不能吃排泄物这种小事情上。咳咳,扯有点远了。 我们知道现在无人驾驶汽车革命已经达到了一个重要里程碑阶段,而无人驾驶将如何在道德和伦理方面应对挑战也是人们关注一个问题,其引发伦理思考最典型一个情境就是”电车问题”。 对此,有的人也认为,人都解决不了道德难题,人工智能就能解决得了吗? 所谓人工智能算法优化也不过是如何将损失和伤害降低到最小冷漠计算而已。 如果上述情景中老妇人是你母亲,或者另一个轨道上孩子是你独子,能“大义灭亲”的人也怕不是个“圣人”了。 如何看待郭台铭痛批三星 再伟大也不会有百年基业?

    30530

    如何看待和学习人工智能?这是五位哈佛博士生AMA

    伊隆·马斯克“AI末世论”遭到很多人反对,特别是AI从业者。正如吴恩达所说:“我认为工作岗位流失是一个巨大问题,但我希望大家可以专注于解决这个问题,而不是关心那些科幻小说一样东西”。 通常股票购买是一个复杂决策过程,最终这些交易将由各种数据决定,算法正在取代人决策。 但我们仍然不知道人工智能如何影响我们经济和工作,只有时间会说明一切。 提问:机器学习是当前热门话题。 认真的说,应该有一些法律规范人工智能应用,也许还需要一些机构进行代码评估,已确定人工智能是否会被用于不道德领域。 提问:最近Facebook工程师关掉了机器学习翻译程序,据说是因为这些AI创造了自己语言。你们怎么看待这件事?(查看相关报道点击这里) 回答:我觉得这没有什么可怕。 回答:Google的人写过一篇非常有趣文章,来说明AI安全问题。他们给出了五个要点: 1、避免有害副作用:机器人如何才能在追求效率同时避免造成连带损伤?

    43550

    人工智能伦理规范难题如何走出困境?丨科技云·视角

    对于人工智能伦理问题,目前学界关注重点大多集中在技术应用责任伦理上。 随着人工智能自主能动性提高,技术使用和监管责任才是最突出伦理难题——如何确定人工智能技术活动机器后果责任主体,是人工智能发展必须考虑问题。 这方面问题涉及到哲学伦理,因而很难被大众讨论。 但人工智能表现出伦理问题,却也与普通人日常息息相关。 是“技术漏洞”还是“使用不当”抑或是“算法”擅自所谓,这一问题至今无解。 开发伦理嵌入技术 应对人工智能伦理风险 关注人工智能技术带来机器伦理问题,提升人工智能技术安全性。 除了加紧对道德嵌入技术开发,还要在设计环节增强道德风险意识,在设计之初预测和评估人工智能产品可能引发道德危害,从设计源头进行规范。现今暴露诸多人工智能道德失范问题,实则也是算法设计疏漏。

    9220

    文末送书 | 一本得到两位院士共同推荐的人工智能科普读

    中科院自动化所曾毅博士认为,当前基于数据的人工智能与生物智能有着本质区别,未来人工智能发展方向将是“基于机制的人工智能”,也就是探寻生物智能本质——理解人脑是如何协调数百项认知功能去解决没见过问题 把同样模型用到机器人上,让它去理解人类意图等不同应用,其实都只是类脑人工智能在狭义人工智能一些进展。目前正在探索问题,就是如何使得模型变得通用。 我国的人工智能社会伦理问题研究亟待加强 未来超级智能体很显然会超越现代人类智力水平,其风险和伦理问题将是非常关键一环。 与之相比,目前中国在人工智能伦理方面的研究存在如下问题: (1)缺乏相对全面和长远考量,没有对全方位风险预测。 (2)中国准则如何与国际上各版本协同。 《人工智能全球格局》 中国人民大学出版社 2019年9月出版 国务院发展研究中心国际技术经济研究所 中国电子学会 智慧芽 著 活动参与方式:畅所欲言,在留言区聊聊你如何看待人工智能

    24730

    陆奇对话Gary Marcus:面对技术缺陷、伦理争议和实践缺失的当下,如何构建可信AI?

    比如,深度学习主导下机器无法灵活处理不可预知事件,隐私、偏见、版权等伦理问题一次次引发舆论风暴。放眼学界和业界,可复制性审查缺失和巨头重度垄断市场都在阻碍行业往前进。 二、伦理重启:隐私、偏见与版权,AI 会走向何方? 谈及 AI,一个不可忽视问题就是伦理人工智能发展似乎一直伴随着伦理争议。在新冠疫情肆虐背景下,AI 引发伦理似乎更加严重。 不管是个人应用还是 2B 项目,都面临着隐私保护与数据孤岛问题。「如何看待人工智能与隐私保护矛盾?」陆奇问到。 被轻易篡改真相:技术与版权如何平衡? 隐私和偏见是目前争议较大两个伦理问题,除此之外,人工智能还有一些未被重视但同样有隐患问题,如版权侵犯。 这类问题容易通常发生在生成模型中,比如 AI 换脸。 尾声 回顾整篇对话,陆奇和 Gary 聚焦问题就是「重启 AI」,从技术、伦理、规范等角度探讨了如何才能构建一个更稳定 AI。

    18620

    直击乌镇:人工智能解决三个了不起问题 统治人类言之过早

    人工智能技术高歌猛进同时,物理世界和个人生活界线日渐模糊,每一次新技术革新,都引发人类对自我和世界认知恐慌,也延伸出复杂法律、伦理和安全问题。 沈向洋坦言这段时间对于人工智能伦理问题思考了很多,他认为人工智能更大威胁在于对技术不谨慎而引发问题,例如人工智能偏见问题,以搜索为例,在谷歌上搜索“CEO”,搜索结果中没有一个是女性,也没有一个是亚洲人 这是沈向洋做微软小冰过程中一直纠结问题。 为了防止人工智能潜在伦理问题,微软在内部成立了人工智能伦理委员会,日常会议要求每位商业部门领导都必须出席参加。 阿里巴巴集团董事局主席马云也提及“人类对自己大脑认识,不到10%,10%创造出来机器,不可能超越人类”。 对于企业家而言,当下如何人工智能技术解决行业实际问题,真正解决人类所存在问题更为迫切。 当AI让人变得更聪明、更富创造性同时,人类利益原则要求考虑如何确保人工智能发展,不会影响到人类切身权益,为了解决过错问题,避免公众困惑和对未知恐慌,AI系统必须在程序层面具有可责性,提升透明度以及规范性

    26470

    你没看错:科技公司都将拥有两位CEO

    视频换脸App ZAO在朋友圈刷屏,很快就因为用户协议存在霸王条款、涉嫌侵犯肖像权引发用户恐慌等问题引发巨大争议,先是被微信封杀,接着工信部就ZAO App网络数据安全问题开展问询约谈,要求其严格按照国家法律法规以及相关主管部门要求 AI工业化时代来临,AI技术应用到各行各业,渗透到人们生活方方面面已是不可阻挡趋势,从ZAO和AI教室监控引发争议来看,跟大力推动AI落地同等重要是,如何让AI以正确方式落地,这意味着“AI伦理 AI伦理在中国已经引发科技巨头和监管部门关注,且很快会转化为具体行动。 要抓紧完善制度规范,健全治理机制,强化伦理监管,细化相关法律法规和伦理审查规则,规范各类科学研究活动。 显而易见,国家层面、行业层面和公司AI伦理委员会势在必行。如何避免企业利益站在伦理之上? 如何避免AI技术发展超过伦理建设?行业巨头如何共同遵守伦理约束?国外科技巨头科技伦理委员会、医疗行业医学伦理委员会,值得借鉴。

    29820

    纪录片解密:被人工智能打败围棋手,如何看待 AI 与人类关系?

    围棋胜负是很重要事情,但是棋手会冷静地看待胜负,比如古力。其实对大多数棋手而言,围棋是一种修行,是让你在围棋中感悟人生。 今天不是说没事儿了,而是要考虑问题更多了。 Q:现在好像有一种趋势,总是在谈人工智能将会取代人类,这对教育来说是有很大影响,因为我们通过教育去培训学生,用机器去教育学生可行吗? 从人文角度来说,我们应该如何相信人工智能呢? 周浩:以我观点,我觉得现有的人工智能是无法代替人脑,比如说关于爱,关于爱情,我不知道两个机器怎么交配,怎么会有性生活。 吴岩:我同意现在的人工智能,基于深度学习的人工智能还是比较“傻”的人工智能,虽然已经可以解决很多问题了,但还是很简单。 但事实上,情绪这些东西早晚都是可以做出来,因为情绪就是伴随着认知一种东西,你喜欢和不喜欢,这些都可以还原成某种生理信号。只要把这些信号转换成代码,人工智能模拟情绪是没有问题

    68300

    JAVA并发之多线程引发问题剖析及如何保证线程安全

    这些操作会引发进程切换,不同进程间是不共享内存空间,所以进程要做任务切换就要切换内存映射地址. 这段代码和逻辑看上去没有问题,但实际上getInstance()方法还是有问题,问题在new操作上,我们认为new操作应该是: 1.分配内存 2.在这块内存上初始化Singleton对象 3.将内存地址给 3如何保证并发安全 了解保证并发安全方法,首先要了解同步是什么: 同步是指在多线程并发访问共享数据时,保证共享数据在同一时刻只被一个线程访问 实现保证并发安全有下面3种方式: 1.阻塞同步(悲观锁): 互斥同步最主要问题是线程阻塞和唤醒所带来性能问题,互斥同步属于一种悲观并发策略,总是认为只要不去做正确同步措施,那就肯定会出现问题。 死锁,活锁,线程饥饿等问题 下一篇我们将剖析加锁导致活跃性问题 尽请期待

    11020

    人工智能未来依赖于道德准则

    因此,Facebook商业模式及其处理用户数据方式引发了人们期待已久关于数据隐私讨论和争议。 这些披露无疑将迫使该公司重视其数据共享和保护策略和政策。 更重要是,这是一个行动召唤:AI人工智能,我们需要一套道德准则。 随着人工智能革命不断加速,人们正在开发新技术,以解决消费者、企业和整个世界面临种种问题。 这不可避免地会引发许多伦理问题,这些问题将影响深远,影响每个人,包括公民,小型企业利用人工智能或企业家开发最新技术,无人能幸免。 为了让人工智能未来尽可能地可控,我们需要处理一些棘手伦理问题。 我现在还不知道这些问题答案,但我目标是在简单常识基础上,让更多的人意识到这个话题,并努力找到解决方案。以下是一些与人工智能和自动化有关问题,它们让我夜不能寐。 为了防止人工智能炒作,并利用它变革性力量,我们必须从伦理道德出发,正确地对待人工智能。当企业家们急于开发最新的人工智能技术或用它来解决关键商业问题时,每个人都有责任去考虑这项技术伦理

    97510

    如何辨析超级人工AI伦理道德

    在某些复杂情形下,道德伦理问题往往没有明确界限,人类目前也没有能将道德伦理转化为一套能够明确量化规则能力。 更甚者,是否存在这样规则也是值得怀疑,因为从不同角度看待问题,道德伦理问题常常需要权衡各类不同因素。 那么,我们怎样才能将道德准则教授给AI呢?如何能有效避免AI带来巨大伤害甚至彻底毁灭我们呢? 由于人工智能只能从现有的数据中学习,但很多情况下,这些数据近乎全部来源于人类自身。 工程师坚信道德问题可以被“解决”,而且必然存在一套“明确道德伦理准则”,而哲学家却认为这样法则是不可能存在,因为“道德需要被解释”。这和影片反映出情况一样。 如果人工智能比我们更优秀,我们自然希望它在道德上也比我们更好。或者如影片中哲学家所述:“毫无疑问,我们不能依赖人类来为人类制定出一套道德准则。”

    456100

    JAVA并发之多线程引发问题剖析及如何保证线程安全

    这些操作会引发进程切换,不同进程间是不共享内存空间,所以进程要做任务切换就要切换内存映射地址. 这段代码和逻辑看上去没有问题,但实际上getInstance()方法还是有问题,问题在new操作上,我们认为new操作应该是: 1.分配内存 2.在这块内存上初始化Singleton对象 3.将内存地址给 3如何保证并发安全 了解保证并发安全方法,首先要了解同步是什么: 同步是指在多线程并发访问共享数据时,保证共享数据在同一时刻只被一个线程访问 实现保证并发安全有下面3种方式: 1.阻塞同步(悲观锁): 互斥同步最主要问题是线程阻塞和唤醒所带来性能问题,互斥同步属于一种悲观并发策略,总是认为只要不去做正确同步措施,那就肯定会出现问题。 死锁,活锁,线程饥饿等问题 下一篇我们将剖析加锁导致活跃性问题 尽请期待

    40820

    政策、监管与规制:《联合国的人工智能政策》解读

    联合国作为全球最重要国际组织,在2016年最新发布的人工智能报告中,表达了其对于人工智能关注;同时为应对人工智能及机器人技术发展带来各种问题,提出了全新思考方式与解决路径,这对世界各国的人工智能监管具有重要参考意义 联合国的人工智能政策与监管   近年来,自动化和智能化机器人在现代社会应用越来越广泛。先进机器人全球研发、部署安装与使用,在引发公众讨论同时,也鼓励着政府监管创新。 联合国关于人工智能若干附属报告,呼吁世界各国采用全新视角看待人工智能系统未来监管以及它们在机器人和机器人技术上应用。 ,以及这些进步所带来社会与伦理道德问题。    (二)机器人技术与机械伦理学   关于机器人制造和部署伦理道德问题,被视为“机械伦理学(roboethics)”,用来处理人们发明和分配机器人伦理道德问题,而不仅仅是机器伦理学。

    42280

    机器人权利吗?让我们谈谈人类福利吧(Computers and Society)

    关于“机器人权利”争论,以及与之相关“机器人责任”问题引发人工智能伦理中一些最两极分化立场。 一些人主张赋予机器人与人类同等权利,另一些人则坚决反对,认为机器人不应享有权利,而是应该成为我们奴隶。 基于后笛卡尔哲学基础,我们认为不仅要否定机器人“权利”,还要否定机器人作为人类产物,作为人类中介,是可以被赋予权利。 一旦我们把机器人视为人类调解人,我们就能理解“机器人权利”辩论是如何聚焦于第一世界问题,而牺牲了紧迫伦理关切,比如机器偏见、机器引发对人类劳动力剥削,以及对隐私侵蚀,所有这些都影响着社会中最没有特权个人 我们得出结论是,如果人类是我们出发点,人类福利是首要考虑问题,那么机械系统产生负面影响,以及设计、销售和部署这些机器的人缺乏责任感,仍然是人工智能中最紧迫伦理讨论。

    28930

    “阿尔法围棋”之父:人工智能仍有诸多哲学问题待解

    据外媒报道,哈萨比斯日前在伦敦举行一个“阿尔法围棋”纪录片放映会上说,人工智能带来了巨大科学益处,但也带来了风险,这要看人类如何利用人工智能。 哈萨比斯说:“(关于人工智能)有一大堆有趣但又棘手哲学问题……我们必须要回答,如何控制这些系统,我们希望赋予它们什么样价值观,如何部署、利用它们。” 在问答环节,哈萨比斯说,人工智能是一个有助人类加速科学发现出色工具,“它将是人类开发最有用处技术之一”。但与其他强大技术一样,人工智能“也有风险”,结果好坏取决于人类决定如何利用它。 2016年,“阿尔法围棋”在围棋人机大战中击败了韩国九段棋手、世界冠军李世石,引发巨大关注。2016年也是人工智能发展备受关注一年。 哈萨比斯介绍说,在“深度思维”公司,伦理问题是首要考虑问题。 去年初他曾在德国举行“数字生活设计”大会上说,人工智能有助于人类面对日益复杂、数据剧增世界,但其应用需有人负责且符合伦理,“人工智能应该帮助人类提升自己,开拓我们边界,而不是简单地超越我们”。

    34450

    人脸识别潜入课堂,AI过度“入侵”如何承受隐私之重?

    技术并不是恶化身,只是对人性恶又一次考验。 ---- 一直以来,关于AI技术和AI伦理争辩从未停止,这也是不断有“技术向善”诉求表达出来社会现实背景。 近日,一组课堂上学生课堂行为分析视频截图在微博引发热议,这张图片再次刺激了用户对于在AI技术笼罩下,保护个人隐私倍感无力神经。 隐私保护长路漫漫 AI面前需保持克制与敬畏之心 人工智能这个人类一手缔造尤物,就如同《机械姬》中美女,如此强烈地诱惑者人类,但当美女撕下面皮露出钢铁内部时,她又是那么可怖。 一系列道德与伦理问题接踵而来。 从本质来看,这些质疑声恰恰凸显出随着技术发展,法律一定要强势介入必要性。 但是每次涉及到隐私问题,我们担忧都会在一次集中爆发后,又迅速销声匿迹。 对于如何看待用AI技术监视学生上课这一行为,我们认为,这不是产品经理或者程序员问题,不是一家公司问题,更不是一个技术问题。 这是整个社会价值观问题,是我们怎么看待自身权益问题

    9020

    扫码关注腾讯云开发者

    领取腾讯云代金券