展开

关键词

我终于失去了她!GPT-3 帮美国小哥「复活」未婚妻后又夺走:谈话内容太危险

但OpenAI似乎觉得这种行为太危险,于是又把GPT-3使用权给收回了!似乎AI相关道德给了OpenAI太多束缚,GPT-3相关开发者表示:慎用OpenAI产品! OpenAI 文档上还有一条禁令,不允许使用非柏拉图式(如轻浮、浪漫、色情)聊天机器人,Samantha 违反了这条禁令。 除此之外,使用GPT-3构建提供医疗、法律或治疗建议聊天机器人也是不被允许。 Rohrer认为,这些聊天机器人可能很危险想法似乎很可笑。人们同意成年人可以出于自己目的选择与人工智能交谈。 OpenAI担心用户会受到AI影响,就像机器告诉他们自杀或告诉他们如何投票一样。这是一种超道德立场。 甚至可能都快开发到了准备上线地步,才被OpenAI告知他们不能这样或那样。 Rohrer建议大家在构建模型时不要依赖GPT-3,为了防止OpenAI突然封号,一定要有一个备份方案。

15940

未来具备哪些资质的人,最不容易被机器取代?

导读:面对AI取代与入侵,焦虑和恐慌没用,此时,更值得探讨重点应该是:具备哪些资质的人,才有可能不被取代呢? 前不久,一张《纽约客》杂志封面图意外刷屏。 焦虑和恐慌没有意义,抛开职业不谈,以下我们来重点探讨,具备哪些资质的人,才有可能不被取代呢? 必须具备比机器更高判断能力 1 富于智慧、伦理性洞察力和逻辑推理是人类独具能力。 此外,有些职业需要具备「从道德标准衍生出来价值判断以及感觉、感性、情感、美感」。 近年来,在IT和制造业设计领域一线中,艺术类毕业生们(特别是美术、设计)炙手可热。 目前,AI还不具备自我意识和世界观、人生观、价值观等,它们只能像背剧本一样,执行既定程序,无法拥有真正目的意识,更无法提出「为什么」这样问题。这也是目前为止AI一大硬伤。 既可以是具体问题回答,也可能上升到禅学问答等抽象层面。要想让AI根据常识和对方反应来巧妙地组织答案,AI研究还有很长一段路要走。

35160
  • 广告
    关闭

    【玩转 Cloud Studio】有奖调研征文,千元豪礼等你拿!

    想听听你玩转的独门秘籍,更有机械键盘、鹅厂公仔、CODING 定制公仔等你来拿!

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    人工智能演进:道德可以被编程吗?

    杜克大学计算机科学系教授Vincent Conitzer最近收到未来生命研究所(Future of Life Institute,FLI)拨款,用以研究如何让一个高级人工智能作出道德判断,并据此采取行动 创建道德准则 乍看之下,我们目标似乎很简单—只要创建一个符合道德责任行为AI即可;然而,它远远比原先设想要复杂得多,因为在创建这类AI过程中,会有数量惊人因素左右其实现。 就如Conitzer项目中概述那样,“道德判断会受到权利(如隐私)、角色(如家庭)、过去行为(如许诺)、动机和意图,以及其他道德相关特征影响。这些不同因素尚未在AI系统中建立”。 “最近,已经出现了一些向类人智能系统接近进展,我认为这里面包括了很多令人惊讶进步……但我觉得一个‘真正AI’,应该是相当灵活,能够抽象,并且可以所有人类可以轻易完成事情,我认为我们离真正 诚然,我们可以设定系统很多人类可以很好事情,但也有一些过于复杂事情很难转换成计算机可以识别和学习(这是所有终极AI基础)模式。

    28170

    CCAI讲师专访 | Toby Walsh:用AI提高器官移植成功率

    人工智能在医疗方面已经得到广泛应用。或许您最熟悉还是AI系统对肿瘤筛查以及对肿瘤良恶性判断。但其实,AI医疗应用不仅如此。 例如,不为大众所熟知,涉及到更为敏感道德问题与严苛法律AI在器官移植方面的应用。 以我国为例,根据计生委统计,我国每年需要器官移植病人达 30 万人,而完成器官移植仅有 1 万人。 7月22-23日中国人工智能大会(CCAI2017)将于杭州国际会议中心举行,Walsh教授将在主会中向中国开发者分享其在人工智能与道德约束相关研究进展。 这里有两个挑战,首先,我们不知道在未来谁会死亡并且捐献他们器官,但我们必须在他们死亡之前就做出决定。第二,这涉及到一些非常困难道德问题,特别是个人和集体福利之间权衡。 和假消息(我们如何确保人声音不被机器生成内容淹没?)。 ✎ 这次您在CCAI大会将分享什么主题,观众会得到何种收获? AI是一种道德上中立技术。它是好是坏取决于被如何使用。

    20530

    一周AI最火论文 | 让CNN给你披上隐身斗篷,逃避对象检测

    AI ScholarWeekly是AI领域学术专栏,致力于为你带来最新潮、最全面、最深度AI学术概览,一网打尽每周AI学术前沿资讯。 每周更新,AI科研,每周从这一篇开始就够啦 本周关键词:数据科学团队、神经网络、对象识别 本周最佳学术研究 数据科学团队协作模式 随着越来越多组织开始引入先进数据驱动方法来改进决策,越来越多数据科学团队正在致力于处理庞大数据集 该模型在物理世界个人构造,社会背景和代理认知资源之间建立了联系。该机制允许代理基于其显著CSF来解释现实世界,并部署不同认知资源来匹配环境要求。 他们框架基于这样一个前提,即人们对语言使用反应了人们对道德观念是非判断。因此,他们通过探索从时间性词嵌入中汲取道德偏见来构建方法论。 该框架从多个层面考察了道德情绪变化,并捕获了与道德基础理论相关性,极性和细粒度类别有关道德动力。 将方法论应用于个体概念中道德变化自动分析,可以洞悉与公众道德变化率相关语言变量。

    19720

    信任、公正与责任:IEEE人工智能合伦理设计指南解读

    诸如技术性失业、致命性自主武器、算法公平、道德判断、价值一致性等AI伦理问题需要获得深入研究。    第一,对使用者,透明性可以增进信任,让其知道AI系统可以做什么及其这样原因;   第二,对AI/AS批准和认证机构,透明性则确保AI系统可以接受审查;   第三,如果发生事故,透明性有助于事故调查人员查明事故原因 一方面,需要建立监督AI制造过程标准,避免给终端用户带来伤害;另一方面,政策制定者可以限制计算机推理,以免其过分复杂,造成人们难以理解局面。   再次,缺乏独立审查机构。 需要引入独立审查机构来给出指导意见,评估人工智能安全性及其是否符合道德标准。   最后,“黑箱”软件使用问题。深度机器学习过程是“黑箱”软件一个重要来源。 第一,设计人员应考虑采用身份标签标准,没有身份标签将不被准入,以保持法律责任链条明确性。   第二,立法者和执法者应确保AI系统不被滥用,一些企业和组织可能将AI系统作为逃避责任手段。

    883100

    Swarm AI 精确预测超级碗最终比分,大逆转剧情难逃群集智能预测

    Unanimous AI 软件允许真实的人类用户在这里聚集,共同讨论议题。 软件检测群体对话,搜集信息数据用于预测。 要成功地预测出超级碗比赛最终比分并不是一件容易事情。 通过这么,这些生物能够进行最优选择,这要远比独立个体选择能力要强得多。 但是,人类呢?我们能把个人思考组合起来,把它们作为一个统一动态系统吗?这样能让我们更好决策、预测、评估和判断吗? 吸引结合人类参与者知识、智慧、硬件和直觉,并把这些要素组合成一个统一新智能,能生成最优预测、决策、洞见和判断。 论文: ? 纯粹的人工智能没有理由和人类共有目标和感情,或者遵循我们道德和价值观。 所以,我们要问问题是,是否有一个更好方式来构建超级智能? 我们相信,这条路相比创建比我们人类更聪明系统更加安全,因为它可以确保最终智能与我们目标和愿望相符合,拥有人类情感和共情,最重要是拥有人类道德和价值观。

    513110

    当机器人能决定人类生死时,我们还能信赖它吗?

    斯蒂夫曼是位受过高等训练专家,有高超技能和判断,然而,他正在把宝贵时间花在缝合上。这只是主手术后续整理工作,如果机器人能接手这项单调机械任务,外科医生就能腾出手来更重要事。 手术机器人公司泰坦医疗(Titan Medical)执行副总裁丹尼斯·福勒曾是一名从业32年外科医生,他认为,如机器人能代替人类自动一些决策,独立执行分配给它们任务,医疗行业将能更好地为人类服务。 阿什拉芬说:“这是一步步实现,虽然每一步都不是特别大。正如50年前医生想象不出现在手术室样子,从现在起再过50年,估计又是另一番景象。” 其实手术机器人已经能自己决定,独立性比人们所想更强。 现在工程师必须是,把一些基本判断因素教给自动驾驶汽车和其他机器人。 目前,在英国部分地区、德国、日本、美国4个州和哥伦比亚特区,法律已明确允许对完全自动化车辆进行测试,但车里还要有一个测试司机。 这种策略很有吸引力,因为它允许开发人员为肇事车“不作为”行为辩护,也向立法者传递了定义道德行为责任。但不幸是,这方面的法律尚未完善。

    50170

    欧盟发布“可信赖AI道德准则草案,提出两大要素、数个不可为

    关于AI道德行为框架”,这早已是一个国际性问题。 策划&撰写:韩璐 日前,欧盟委员会(EC)任命的人工智能高级专家小组(AI HLEG)发布了一份内容长达37页AI开发和使用道德草案——可信赖AI道德准则草案(Draft Ethics Guidelines 其中提出,可信赖AI应该具备两大要素,以及AI不可为基本原则。 据了解,人工智能高级专家小组由欧盟委员会于去年4月任命,组内共有52位代表学术界、工业界和民间社会独立专家。 该指导方针将在欧洲委员会独立咨询机构欧洲科学和新技术伦理组织(EGE)发言中进行广泛磋商和建设之后起草。 如今,这一小组已经完成了任务。 在整体框架上,草案可分为三部分,第一部分阐述了AI必须遵守基本权利和价值观,以确保其能够符合“道德目的”;第二部分提出了实现可信赖AI指导方针,同时兼顾道德目的和技术稳健性,并列出了可信赖AI要求

    28220

    特朗普启动国家级AI战略:调配更多资源到AI领域,争夺全球领导权

    美国目前在AI领域优势也有国外人才加持功劳,特朗普政府移民政策看起来是在损害这一领域,拽了美国AI发展后腿。 Calo表示,他还需要时间判断特朗普政府在人工智能道德和人权问题上处理得是否得当,而这一点是必须要关注。 前奥巴马经济顾问委员会主席、哈佛大学教授Jason Furman也支持此举,表示这是美国朝正确方向迈进一大步。同时也要加强对这次计划监管,嘴上说不行,好不好才是最主要。 ? 纵观美国AI布局,在奥巴马总统在任最后几个月,美国迎来了一波小高潮,白宫发布了三份独立报告,篇篇都在关注AI: 《为未来AI做准备》中主要在道德、安全和法律法规层面做出了相关规定,《国家AI研发战略计划 AI特别委员会属国家科学与技术委员会管辖范围,主要负责向白宫提供政府层面有关AI研究与发展建议,同时帮助政府、私企及独立研究者建立合作关系。

    17820

    AI用来“窥伺”学生喜怒哀乐,伦理边界在哪儿?

    整理 | Just 出品 | 人工智能头条(公众号ID:AI_Thinker) 人工智能会成为推动人类未来发展水和电,当它在迅速改变人类生活环境同时,也在模糊着物理世界和个人界限,延伸出复杂道德伦理问题 背后具体技术应用正是人脸识别,一方面是通过实现“刷脸”完成实时考勤...这一场景技术应用已经比较完备了,但在最多三四十教室里,这样是不是大材小用了? 校方称,现在获取数据仅为片段性,也没有形成大数据来支撑对学生行为判断。 我们要防止人工智能“触电”人类道德伦理,但在相应伦理道德框架和机制建立上还处于黎明前暗夜里。 国外有诸多大公司相继已建立了相关组织来讨论 AI 道德伦理问题。 我国《新一代人工智能发展规划》也专门提出人工智能伦理与法律三步走规划,但将伦理与法律要求嵌入到 AI 系统仍是世界性难题。即便如此,逐步制定行业标准和道德标准,了解 AI 存在风险刻不容缓。

    38980

    AI用来“窥伺”学生喜怒哀乐,伦理边界在哪儿?

    整理 | Just 出品 | AI科技大本营(公众号ID:rgznai100) 人工智能会成为推动人类未来发展水和电,当它在迅速改变人类生活环境同时,也在模糊着物理世界和个人界限,延伸出复杂道德伦理问题 背后具体技术应用正是人脸识别,一方面是通过实现“刷脸”完成实时考勤...这一场景技术应用已经比较完备了,但在最多三四十教室里,这样是不是大材小用了? 校方称,现在获取数据仅为片段性,也没有形成大数据来支撑对学生行为判断。 我们要防止人工智能“触电”人类道德伦理,但在相应伦理道德框架和机制建立上还处于黎明前暗夜里。 国外有诸多大公司相继已建立了相关组织来讨论 AI 道德伦理问题。 我国《新一代人工智能发展规划》也专门提出人工智能伦理与法律三步走规划,但将伦理与法律要求嵌入到 AI 系统仍是世界性难题。即便如此,逐步制定行业标准和道德标准,了解 AI 存在风险刻不容缓。

    17430

    日不落帝国下一个统领全球领域:人工智能伦理道德? | 附报告

    而当这样一个消息传到大西洋彼岸英国,上议院老爷们不仅为AI所造成伦理问题困扰,还中二发现了自己在人工智能浪潮中历史使命:不是写论文或者搞算法,而是引领全球发展人工智能伦理道德。 英国应当抓住机会积极地推进AI与公众利益结合,并领导国际社会在人工智能伦理领域发展,而不是被动承担那些AI可能造成消极后果。” 向人工智能审问:AI,你决定,真的没有偏见和歧视吗? 除了种族性别这些出身因素,更为重要是,研究者应当保证他们产出符合人类道德:不侵犯隐私、不伤害人类、不左右政局,尤其在AI武器方面应当更为谨慎。 AI研究人员道德水平可能让人放心,但是能够独立做出决定AI本身呢? 该报告呼吁英国政府采取紧急措施来“建立权威审核测试工具与数据集合,以确保这些数据代表不同种族,确保AI在作出决定时不会出现含有偏见、歧视决定”,建立机制,审问AI,以保证AI们符合人类伦理道德

    49320

    千万不要相信程序员在加班时间写代码!

    注意,这通常不被看做一个bug,普通黑盒与白盒测试都是无法发现。只是你App会比较卡,或者后台会比较慢。当需要解决这种性能问题时,可能需要非常经验丰富程序员,在海量代码里找数周时间。 大多数管理者,往往会对熬夜程序员给出一些肯定,并且允许第二天可以休息一天(有些甚至只给一早上)。但如果他们知道内情,会发现自己其实亏了一天。 // Implementation B } private boolean isSth2True() { // Implementation C } 本来isSthTrue()是可以通用判断 约半年后,我水平也提高了些,总体项目时间也松散了些,我花了六周重写(rewrite)了这个不大代码库。这个class最终只用了100行,部分功能都独立封装到了其它class中。 这关乎职业道德,关乎我是否意念通达、心境澄明。(坐等穿越去修真:P) 但是,我不能用自己道德准绳去要求别人,对吧? 而且,永远不要指望一个人在承受不道德对待时,仍然能谨守原来道德

    55510

    程序员在加班时间写代码bug骤增

    注意,这通常不被看做一个bug,普通黑盒与白盒测试都是无法发现。只是你App会比较卡,或者后台会比较慢。 大多数管理者,往往会对熬夜程序员给出一些肯定,并且允许第二天可以休息一天(有些甚至只给一早上)。但如果他们知道内情,会发现自己其实亏了一天。 isSth1True() { // Implementation B}private boolean isSth2True() { // Implementation C} 本来isSthTrue()是可以通用判断 约半年后,我水平也提高了些,总体项目时间也松散了些,我花了六周重写(rewrite)了这个不大代码库。这个class最终只用了100行,部分功能都独立封装到了其它class中。 这关乎职业道德,关乎我是否意念通达、心境澄明。(坐等穿越去修真:P) 但是,我不能用自己道德准绳去要求别人,对吧? 而且,永远不要指望一个人在承受不道德对待时,仍然能谨守原来道德

    26920

    程序员加班写代码那些事

    如果状态不佳、做事前想东西少了点,那么很可能直接这么: ? 这样是从C/C++带来一种很直观做法。有什么问题吗? 这使用了for-each语法,实际上是用Iterator来遍历,无论对哪种List都是总共是O(n)开销。 注意,这通常不被看做一个bug,普通黑盒与白盒测试都是无法发现。 大多数管理者,往往会对熬夜程序员给出一些肯定,并且允许第二天可以休息一天(有些甚至只给一早上)。但如果他们知道内情,会发现自己其实亏了一天。 本来isSthTrue()是可以通用判断,他没有在规定时间内找到根本原因(Root Cause),实际上当时他也根本没有往发现根本原因方向去查找代码,而是一晚上都在做一些无效调试。 这关乎职业道德,关乎我是否意念通达、心境澄明。(坐等穿越去修真:P) 但是,我不能用自己道德准绳去要求别人,对吧? 而且,永远不要指望一个人在承受不道德对待时,仍然能谨守原来道德

    28020

    AI 是否拥有意识?从意识定义说起

    而且她认为,如果出现了「现象意识」,就意味着一些道德和伦理问题也将随之出现。这也是她认为研究意识具有重要意义原因所在。 1 当下AI系统是否有意识? 可能争论是某些群体是否具有道德地位(moral status),或者是否拥有更高道德地位。道德地位来自伦理学,是指一个群体是否可以从道德意义上讨论它们过失。 所以,当未来有感知能力 AI 系统成为道德关怀体时,并不意味着我们对其它人类福祉不再关心,也不意味着我们需要转移现有资源来帮助他们。 道德行为体 道德行为体因为懂得善恶是非,他们倾向以好方式行事,避免以坏方式行事。当做了道德或法律上不允许事情时候,他们会受到相应惩罚。 有时这些失败还是由于创造者错误或疏忽而导致。Askell 认为:创造道德行为体肯定会使事情复杂化,因为道德行为体比自动机(automata)更难预测,比方自动驾驶对于路况判断

    9520

    谷歌等五大巨头联手打破行业壁垒,欲为 AI 制定新标准

    Google,Amazon,IBM和Microsoft联合成立名为“Partnershipon AIAI组织,致力于普及AI知识,提高公众对AI理解,以及为将来研究制定AI标准。 Apple在AI相关领域研究上马力十足,例如个人助手、图像识别和声音控制,但却被排除在该组织外。苹果公司长期以来都喜欢独立作战,哪怕其它巨头开始停战合作。 另一缺席者Elon Musk研究机构OpenAI,它致力于寻求“以最可能让全体人类受益方式推动数字智能”,该机构是AI领域得到投资最多(10亿美元)AI研究实验室之一,而且它目标似乎也与“Partnership 这也不是DeepMind第一次提出建立支持AI伦理组织。该公司早在2014年被Google收购时,收购协议一部分即包括Google要承诺建立AI伦理委员会,以确保新技术不被滥用。 “这个组织是一个巨大进步,它打破了AI团队间壁垒,推动实践分享,研究最大化社会效益并解决道德问题,同时为其它领域同行在作同样努力时更容易。

    46250

    10月AI热文:强化学习、定制合成人脸、道德机器等

    ,以及AI道德判断、算法偏见等受关注话题。 但是,对于难以评估性能、高度复杂任务,该怎么呢?有时候,即使是人类也无法向AI展示如何某事——比如管理整个城市交通系统。 基于此,它可以独立解决大任务。 这项技术还处于非常早期阶段,但由于它来自OpenAI,接下来几个月应该会有更新,保持关注。 / 3、MIT道德机器 ? 自动驾驶汽车相关一个主要问题是,它们最终将不得不做出连人类都无法决定道德选择。 如果不避让就会撞上一群人,避让就会撞上另一个人,它应该避开人群吗?它应该保护乘客,还是保护行人?

    25220

    相关产品

    • 智能媒资托管

      智能媒资托管

      智能媒资托管(SMH)是为开发者构建网盘、相册、小程序等媒资应用提供的一站式存储处理解决方案。智能媒资托管除了提供图片的存储、管理等基础功能以外,还集成腾讯云先进的AI技术,支持对图片内容的编辑处理、标签分类、人脸识别等智能分析。

    相关资讯

    热门标签

    活动推荐

    扫码关注腾讯云开发者

    领取腾讯云代金券