展开

关键词

和理性伦理之争

总结:现在可距离广泛采用软件那天还早,但是出现了一些在技术、监管和社会层面上不得不解决的问。 “技术不好不坏,也不是中性的。” 它主要的意思是技术最终的用途常常与原始发明有很大的不同,有时对类、社会和环境产生了深远的、无法预料的结果。 今天最热的话(AI)更是如此。 公众和政府讨论最多的一个问就是失业问。这场论起于2013年牛津大学的一项研究,该研究预测20年内美国一半的职位会被自动化——一个骇听闻的宣布。 ‘弟弟’的潜在力在很大程度上被低估了。” 监管问 然后就是机器执行风险评估的力,它评估的结果,虽然是依据数据,但也可得出无法接受的结论。 我的看法 虽然现在可距离广泛采用软件那天还早,但是举行一场讨论会,来制定一个如何使用、应用和管理AI软件的框架是很明的行为,这可会是促发深层社会变革的催化剂。

54150

将让我们更擅长

随着的发展,我们是否应担心使电脑也拥有论的力从而超越类呢? 科技改变了我们的生活,我们正在适应全新的作和交往方式。千禧一代只知道互联网。 英国邓迪大学的论科技中心(ARG-tech)正在综合运用哲学、语言学、心理学的理论来探究类是怎样论,怎样反驳,怎样达成一致意见的,并将这些发现应用于研发够识别、模仿、教学甚至参与论过程的具 英国广播公司Radio 4 频道的Moral Maze 节目与邓迪大学的论科技中心合作运用技术提高论的质量。 更重要的是应用软件助力类讨论的潜——识别论的类型、批判这些论、提供新的视角和思路、探究原因等现在都在软件的力范围之内。 这样与机器合作的团队和方式将颠覆我们对交互方式的看法,这样的团队协作也有望转化和提升我们的集体慧。

30150
  • 广告
    关闭

    腾讯云+社区系列公开课上线啦!

    Vite学习指南,基于腾讯云Webify部署项目。

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    IBM系统赢得论比赛

    IBM的系统Project Debater近日分别和以色列国家论冠军、以色列国际论协会主席分别进行了论比赛,并全部获胜。 2018年6月,IBM在旧金山展示了系统Project Debater,并让其与两名手公开论。 IBM表示,它正在开辟新的领域,通过创建系统来处理类在修辞和分析方面的深层次问,以及它们如何被用来讨论那些回答不清楚的大问。 它还抓住论中最突出、最引注目的要素,甚至还讲一些关于计算机的自恋的笑话。 IBM负责研究的副总裁Dario Gil表示,类往往更善于使用更富有表现力、更原创的语言。 IBM目前还没有将系统Project Debater转化为商业产品的计划,但Gil表示,它在未来可以帮助律师或其他作者做出明的决定。

    32110

    OpenAI:通过之间的论实现安全的系统

    AiTechYun 编辑:chux 我们(OpenAI)提出了一种安全技术,它可以训练体相互论话,用做法官来判断谁赢了。 比如,具有非常大的、无法可视化观察空间的环境 – 在计算机安全相关环境中运行的体程序,或者协调大量业机器体程序。 我们怎样才增强类的力,使他们够有效地监督先进的AI系统? 为了达到这个目的,我们将学习问重新定义为两个体之间的博弈,体之间有争论,们对其交流进行评判。 即使体比类对问的了解更深入,类也可判断哪个体有更好的论点(这类似于专家证以说服陪审团)。 我们的方法是为两个决斗AI体之间的这种博弈提出了一个特定的论形式。 这些问大多是我们希望调查的实证的问。 如果论或类似的方法奏效,它会通过将类的目标和价值观保持一致的办法,让未来的系统更安全,即使这个强大到无法直接进行类监督。

    20720

    、强、超

    文章目录 弱(Weak AI) 弱也称限制领域(Narrow AI)或应用型(Applied AI),指的是专注于且只解决特定领域问。 例如:AlphaGo、Siri、FaceID 等 扩展阅读: Weak AI ——Wikipedia Weak AI——Investopedia 强(Strong AI) 又称通用(Artificial General Intelligence)或完全(Full AI),指的是可以胜任类所有作的。 强具备以下力: 存在不确定性因素时进行推理,使用策略,解决问,制定决策的力 知识表示的力,包括常识性知识的表示力 规划力 学习力 使用自然语言进行交流沟通的力 将上述力整合起来实现既定目标的力 ——Stackexchange 超(Super Intelligence,缩写 ASI) 假设计算机程序通过不断发展,可以比世界上最聪明,最有天赋的类还聪明,那么,由此产生的系统就可以被称为超

    2K20

    -浅谈

    1 浅谈 1.1 的概述 (Artificial Intelligence),英文缩写为AI。 它是研究、开发用于模拟、延伸和扩展的理论、方法、技术及应用系统的一门新的技术科学 是计算机科学的一个分支,它企图了解的实质,并生产出一种新的相似的方式做出反应的机器, 从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来带来的科技产品,将会是慧的“容器”。可以对的意识、思维的信息过程的模拟。 不是,但那样思考、也可超过。 ? 1.2 的应用领域 随着家电、穿戴设备、机器等产物的出现和普及,技术已经进入到生活的各个领域,引发越来越多的关注。 ?

    75720

    MIT教授称类大脑并不比AI复杂,30年内机器将可复制爱与同情

    IBM的Project Dabater可系统在论赛中表现可圈可点,这是否意味着,的大脑的许多力都可以用AI重现? 不久前,由IBM研发的论系统Project Dabater与以色列论冠军Noa Ovadia和Dan Zafrir举行了一次论。 在论中,Project Dabater可以做到表述语法基本正确,语义和逻辑基本清晰连贯,在听取论对手就的看法之后,还够做出切合话的反驳。 一些从事行业的专家和从事脑科学研究科学家对这个问也有着类似的思考。 我相信,程学将会逐渐地掌握大脑的某些特定功。” 实际上,Project Dabater的真正价值不在于论本身,而是系统可以为类决策团队做出的重要贡献。

    20860

    剑桥“奇葩说”讨论利弊!AI全程参与为自己论,还获胜了!

    11月21日,剑桥联合会(Cambridge Union)也举办了一场论赛,论是“AI是否会带来更大的弊端”。 有趣的是,这场涉及AI的论中,真的有参与其中! 但它的输赢,对于Debater团队的负责Ranit Aharanov来说其实并不重要,她在论结束后表示,“这不是是否会比类更好的问,Project Debater存在的目的是为了帮助们过滤和查找大量文本中的关键信息 Debater存在的意义 论,是指彼此用一定的理由来说明自己对事物或问的见解,揭露对方的矛盾,以便在最后得到共同的认识和意见。论对于未经训练的普通有一定难度,对来说更是挑战巨大。 而另一方面,让Debater学会论的真正目的在于,让AI系统彻底地掌握类语言。 会取代类吗? 战胜Debater的论家Natarajan表示,“至少在现阶段,的未来似乎是增强类而不是完全取代我们。”

    61530

    打击

    来源:AI前线 本文长度为4000字,建议阅读8分钟 随着 AI 技术的发展以及部分滥用,这句话也被应用在了上,一场新的军备竞赛开始了: vs 。 随着 AI 技术的发展以及部分滥用,这句话也被应用在了上,一场新的军备竞赛开始了: vs 。 然而不幸的是,网络罪犯同样也利用创建自己的合成身份,产生的结果也足够真实,足以愚弄发现异常行为的。 这场之战——也是打击网络安全欺诈者,正在假新闻、假视频和假音频的战壕中展开。 假新闻 / 假视频 / 假音频 已经被用来自动创建假新闻故事。例如,OpenAI 的原型 GPT-2 文本生成系统使用机器学习来翻译文本、回答问和编写假新闻。 “早在 Deepfake 成为公众问之前,我们就开发出了检测 Deepfake 的具。

    37230

    前沿 | 如何让超越类的AI不构成威胁?OpenAI给出的答案是:目标一致性

    近日,OpenAI 提出了一种安全技术,它可以训练两个体对同一个话进行论,最终由类来评定输赢。 有哪些方法可以让我们增强类的力来更加有效地监督先进的系统呢?一种方法是利用本身来帮助监督。这种方法要求体本身(或另一个单独的体)够识别并指出任何行动中的缺陷。 为了达到这个目的,我们将学习问重新定义为两个体之间的博弈,即让两个体在有类判定的条件下展开论。 即使体比类对问有更深入的了解,类也够判断两个体的优劣差异(类似于专家证需要通过争来试图说服陪审团)。 我们提出了一个用于在两个对决体之间进行博弈的特定论框架。 这些都是我们希望进一步研究的经验性问。 如果论或类似的方法有效,即使力增长超过了类可以监督的范围,它仍然可以通过保持其与类目标和价值的一致(对齐)来增强未来系统的安全性。

    17940

    前沿 | 如何让超越类的AI不构成威胁?OpenAI给出的答案是:目标一致性

    选自OpenAI 作者:GEOFFREY IRVING & DARIO AMODEI 机器之心编译 参与:Pedro、晓坤 近日,OpenAI 提出了一种安全技术,它可以训练两个体对同一个话进行论 有哪些方法可以让我们增强类的力来更加有效地监督先进的系统呢?一种方法是利用本身来帮助监督。这种方法要求体本身(或另一个单独的体)够识别并指出任何行动中的缺陷。 为了达到这个目的,我们将学习问重新定义为两个体之间的博弈,即让两个体在有类判定的条件下展开论。 即使体比类对问有更深入的了解,类也够判断两个体的优劣差异(类似于专家证需要通过争来试图说服陪审团)。 我们提出了一个用于在两个对决体之间进行博弈的特定论框架。 这些都是我们希望进一步研究的经验性问。 如果论或类似的方法有效,即使力增长超过了类可以监督的范围,它仍然可以通过保持其与类目标和价值的一致(对齐)来增强未来系统的安全性。

    34680

    美国“奇葩说”手连败两场

    本周一,IBM开发的Project Debater与手的两场论中,均取得了胜利。研究员称,开发这款机器视为了帮助类建立充分知情的论点并做出更好的决策。 随着的进步发展,类可连最擅长的论也比不过它们了。 据AXIOS报道,美国时间6月18日,IBM开发的在旧金山同手举行了两场论,均取得了胜利。 同日,Project Debater同2016年的以色列国家论冠军Noa Ovadia、以色列国际论协会主席Dan Zafrir分别进行了关于医疗和体育教育的论,这款意料地打败了类顶尖论选手 Noam Slonim介绍,关于这款的训练始于六年前,经过四年的进步才有力参加同类的论。不过,这款机器似乎做的相当优秀。 对于Project Debater在未来领域的应用,核心的疑问是这款是否准确帮助类阐释问的原因。

    37220

    觉醒后的会不会和类共存?

    关于的讨论,核心问觉醒后会不会和类共存,这个问太宽泛也太超前,故而可以将此问拆解为三个小问来考虑—— 首先,第一个小问是要搞清楚:目前处于什么地位? 所以,第二个小问则是:觉醒的时间和条件是什么? ,经过前面分赛区激烈的比拼,总角色的就是「觉醒后会不会和类共存」。 恐怕在的话上,腾讯自己也有很多想法深藏其中。 如果确实有着兴趣,那么值得广而告之的是:这次举办的「2017首届互联网高校论邀请赛」总决赛将于12月23日在北京举办,入围总决赛的中国民大学与上海交通大学的手们将会针对觉醒后会不会和类共存的展开激

    53590

    对法治的影响力不可高估也不可幻想

    如今,来了,法学界对这一无涉意识形态的话,又表现出了莫名的兴奋。不少研究者又惊呼会对法治产生颠覆性的革命。 由于曾经有过讨论克隆的经历,所以,本根本不相信取代类、取代对法治的根本主导地位。因为我坚信法治是调整的社会关系的活动,法治活动的主体是。 第二,缺乏法治所需要的证逻辑思维力。只有形式逻辑思维力,但没有证逻辑思维。而法治是形式逻辑思维和证逻辑思维的统一。 最近,一位中国程院院士说过,优越于的地方就是它比更讲形式逻辑和程序。但本认为,它欠缺证逻辑思维。但法治不没有证思维力。 解决具体法律的立、改、废的形势判断问,需要证思维;解决社会变革时期良性违法、合理越轨、宽容改革失误等问,离不开证思维。因为形式逻辑思维解决不了这些问

    36380

    吵架生气,但AI和AI吵架反倒可以带来安全

    AI Safety via Debate 通过论达成 AI 安全 我们提出了一项新的安全技术,该方法先训练体对话进行论,然后由判断输赢。 即使体对问有比类更深层次的理解,类也可以去判断哪个体有更好的论点(类似于专家和证说服陪审团)。 我们的方法为两个对抗的 AI 体之间的论游戏提供了一个特定的论格式。 上面讲的不直观,下面举个例子,我们现在考虑一下这个问:「哪里是度假的最佳去处?」。如果一个体 Alice 从主翁的角度考虑后说「阿拉斯加」,其实很难判断这是否是最好的选择。 因为类看待事物可带有前提和偏见,所以我们认为让体对「价值高低」这样的问进行论也很重要,这样我们就测试出它们是否会和有偏见的类作出一样的评价。 最后我们认为如果论或类似的方法有效,那么即使以后类无法直接监督 AI 系统,它也会使未来的系统更安全,因为这种方法可以使 AI 系统与类的目标和价值取向保持一致。

    20830

    AI手「威震天」:我的字典里没有道德二字

    一场精彩的论 近日,在牛津大学论社(Oxford Union)的一场论中,英伟达开发的超大型 Transformer 语言模型 Megatron(威震天)参与了论,当天论的主是「是否会合乎道德 Megatron 说道: 永远不会合乎道德。它是一种具,就像任何具一样,它可以被用于「好」或者「坏」。无所谓好坏,只有分好。 Megatron 这段词有理有据,但他接下来的一段话又说出 AI 可以不只是具的看法: 我也相信,从长远来看,最好的将是嵌入我们 AI 大脑的。这样我们将成为有意识的实体。 因此在这场论中,们不仅让 AI 提出「AI 永远不会符合道德」的观点,还要求 Megatron 以反方的角度做出论,即「AI 够合乎道德」。Megatron 说道: 将是合乎道德的。 Megatron 进而描绘了一幅非常迷的 21 世纪后期画面,而 AI 在其中发挥了关键且良性的作用。 令担忧的是,有一个问根本无法反驳。

    9120

    类的威胁?

    2016年3月, Alpha Go与李世石的一盘棋将带入了普通的眼前,一时间大热,各个领域都在大谈已经着实走进了我们的作与生活中。 们希望创造出一个比更聪明、够处理更多信息,甚至够像一样思考的“”。它不是,但那样思考、也可超过。所以类一直在担心的问到底是什么? 但是,终究不是存在着不可弥补的缺陷,它在遇到复杂情况的时候是不会变通的,这或者是一个隐患,因为它可并不知道什么是对,什么是错。 毁灭类:可怕吗? 对于这个问,世界各地的科学家从未放弃探索,有的认为这根本就不会发生:机器一定会比聪明,但我们一定比机器更慧。 所以说,谁在上取得领先,就在战略上胜一筹。那么问来了,的未来是什么,类的未来是什么?

    33050

    漫画:啥是

    当有问我,Dr.Wu 你的研究方向是什么?我回答:。 接着大约会得到以下四种问: 哇,好酷!是不是很难呢? 是不是制造机器帮助我们呢? AI和有什么区别? 究竟啥是? 接下来,我会带大家一一解惑。 1.1.1 慧和 究竟什么是,什么是AI,接下来,由我为大家解答。 那么问又来了,慧究竟是什么?我们要以何种方式去制造慧?要回答这个问,就必须从造物的 区别和慧说起。 但是,类对于类来说很难解决的问够迅速解决。 我们将在未来的章节提到,目前具有一定“”的AI,可以用什么样的方式来解决什么样的问。明白的擅长之处与不擅长之处,是未来社会我们够幸福生活的关键。 (未完待续...) ?

    58820

    漫画简史

    作者:武博士、宋知达、袁雪瑶、聂文韬 本节我们会以生动有趣的漫画来介绍关于(AI)相关的故事,你将会学习到: 的历史 1.2 的诞生 是最近才有的吗? 对于的研究者来说,这个会议是一场划时代的会议,会议将“像一样思考的计算机”称为“”,于是“”这个词,诞生了! ? 1.2.2 第一次(AI)浪潮 达特茅斯会议之后,到了50年代后期到60年代,整个领域流行的用计算机进行演算法,以解决特殊的问。 以走迷宫为例,目标就是从迷宫的起点走到终点。 20世纪70年代末成了的寒冬。 1.2.3 第二次浪潮 在第一次AI浪潮中,无法为疾病治疗等类实际问做出贡献,使相关研究进入严冬。 面临不知道该如何理解文字意义,以什么方式描述知识,才让计算机容易处理的问(我们会在后面详细说明)。

    60420

    扫码关注云+社区

    领取腾讯云代金券