展开

关键词

将让我们更擅长

随着的发展,我们是否应担心使电脑也拥有论的力从而超越类呢?科技改变了我们的生活,我们正在适应全新的作和交往方式。千禧一代只知道互联网。 英国邓迪大学的论科技中心(ARG-tech)正在综合运用哲学、语言学、心理学的理论来探究类是怎样论,怎样反驳,怎样达成一致意见的,并将这些发现应用于研发够识别、模仿、教学甚至参与论过程的具 这项研究面临的一大挑战是如何获得足够多的数据,技术比如深度学习技需要大量精心挑选的样本,这样才建构起精确的算。 更重要的是应用软件助力类讨论的潜——识别论的类型、批判这些论、提供新的视角和思路、探究原因等现在都在软件的力范围之内。 这样与机器合作的团队和方式将颠覆我们对交互方式的看,这样的团队协作也有望转化和提升我们的集体慧。

29250

和理性伦理之争

总结:现在可距离广泛采用软件那天还早,但是出现了一些在技术、监管和社会层面上不得不解决的问题。 “技术不好不坏,也不是中性的。” 它主要的意思是技术最终的用途常常与原始发明有很大的不同,有时对类、社会和环境产生了深远的、无预料的结果。今天最热的话题(AI)更是如此。 ‘弟弟’的潜在力在很大程度上被低估了。”监管问题然后就是机器执行风险评估的力,它评估的结果,虽然是依据数据,但也可得出无接受的结论。 但是除大部分公司有被告并损失荣誉的风险外,并没有实质上的制衡机制来保系统是‘成年’而不是‘青少年’。”现在律上谁会为事情出错而负责也很不明晰,应该是使用方、程序员还是被认为很可信的机器本身。 我的看虽然现在可距离广泛采用软件那天还早,但是举行一场讨论会,来制定一个如何使用、应用和管理AI软件的框架是很明的行为,这可会是促发深层社会变革的催化剂。

52350
  • 广告
    关闭

    90+款云产品免费体验

    提供包括云服务器,云数据库在内的90+款云计算产品。打造一站式的云产品试用服务,助力开发者和企业零门槛上云。

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    IBM系统赢得论比赛

    IBM的系统Project Debater近日分别和以色列国家论冠军、以色列国际论协会主席分别进行了论比赛,并全部获胜。 2018年6月,IBM在旧金山展示了系统Project Debater,并让其与两名手公开论。 但Project Debater并非只是扫描大量数据以搜索事实,而是利用了几项更复杂的技术。谷歌和微软必应(Bing)使用的搜索引擎算使用同类技术来整理和总结书面内容,并撰写新段落。 它还抓住论中最突出、最引注目的要素,甚至还讲一些关于计算机的自恋的笑话。IBM负责研究的副总裁Dario Gil表示,类往往更善于使用更富有表现力、更原创的语言。 IBM目前还没有将系统Project Debater转化为商业产品的计划,但Gil表示,它在未来可以帮助律师或其他作者做出明的决定。

    29110

    OpenAI:通过之间的论实现安全的系统

    AiTechYun编辑:chux我们(OpenAI)提出了一种安全技术,它可以训练体相互论话题,用官来判断谁赢了。 比如,具有非常大的、无可视化观察空间的环境 – 在计算机安全相关环境中运行的体程序,或者协调大量业机器体程序。我们怎样才增强类的力,使他们够有效地监督先进的AI系统? 即使体比类对问题的了解更深入,类也可判断哪个体有更好的论点(这类似于专家以说服陪审团)。我们的方是为两个决斗AI体之间的这种博弈提出了一个特定的论形式。 每个体可以在论过程中显示一个像素,并且该像素保是真实的。论网址:https:debate-game.openai.com?两位手和一位官进行的论,只有手才看到图像。 这些问题大多是我们希望调查的实的问题。如果论或类似的方奏效,它会通过将类的目标和价值观保持一致的办,让未来的系统更安全,即使这个强大到无直接进行类监督。

    20520

    治的影响力不可高估也不可幻想

    第二,缺乏治所需要的逻辑思维力。只有形式逻辑思维力,但没有逻辑思维。而治是形式逻辑思维和逻辑思维的统一。 最近,一位中国程院院士说过,优越于的地方就是它比更讲形式逻辑和程序。但本认为,它欠缺逻辑思维。但治不没有思维力。 而律的立、改、废都是追求律的“变”,是一种思维。  第三,没有运用律原则和模糊性律规范的力,在解决疑难复杂和新型案件方面一筹莫展。 运用民上的帝王条款一一诚实信用吗?判断何为公序良俗吗?具有权利推定的力吗?  第四,没有判断据真伪的力。从纸上的律到实践中的律,关键是据。 但据有真伪、片面和全面之别,这需要执和司员根据经验、情理等予以去伪存真、取精弃粗的自由心,由于缺乏类的生活经验和丰富的内心体验,所以它没有判断真伪的力。

    34180

    前沿 | 如何让超越类的AI不构成威胁?OpenAI给出的答案是:目标一致性

    近日,OpenAI 提出了一种安全技术,它可以训练两个体对同一个话题进行论,最终由类来评定输赢。 OpenAI 认为,这种方或类似方最终可以帮助我们训练系统在保持同类一致喜好的同时,执行超越力的认知任务。本文将概述这种方,并对初步的概念性验实验进行介绍。 比如当环境具有非常大的不可被视觉观测空间的时候——在计算机安全相关环境中运行的体或协调大量业机器体都属于这种情况。有哪些方可以让我们增强类的力来更加有效地监督先进的系统呢? 一种方是利用本身来帮助监督。这种方要求体本身(或另一个单独的体)够识别并指出任何行动中的缺陷。 如果论或类似的方有效,即使力增长超过了类可以监督的范围,它仍然可以通过保持其与类目标和价值的一致(对齐)来增强未来系统的安全性。

    16540

    前沿 | 如何让超越类的AI不构成威胁?OpenAI给出的答案是:目标一致性

    OpenAI 认为,这种方或类似方最终可以帮助我们训练系统在保持同类一致喜好的同时,执行超越力的认知任务。本文将概述这种方,并对初步的概念性验实验进行介绍。 比如当环境具有非常大的不可被视觉观测空间的时候——在计算机安全相关环境中运行的体或协调大量业机器体都属于这种情况。有哪些方可以让我们增强类的力来更加有效地监督先进的系统呢? 一种方是利用本身来帮助监督。这种方要求体本身(或另一个单独的体)够识别并指出任何行动中的缺陷。 即使体比类对问题有更深入的了解,类也够判断两个体的优劣差异(类似于专家需要通过争来试图说服陪审团)。我们提出了一个用于在两个对决体之间进行博弈的特定论框架。 如果论或类似的方有效,即使力增长超过了类可以监督的范围,它仍然可以通过保持其与类目标和价值的一致(对齐)来增强未来系统的安全性。

    33480

    MIT教授称类大脑并不比AI复杂,30年内机器将可复制爱与同情

    从Project Debater身上,我们见在更高维度上对我们的大脑的思维和运行方式的一次形象的模拟。这是否意味着,的大脑的许多力都可以用AI重现? IBM的Project Dabater可系统在论赛中表现可圈可点,这是否意味着,的大脑的许多力都可以用AI重现? 在论中,Project Dabater可以做到表述语基本正确,语义和逻辑基本清晰连贯,在听取论对手就题的看之后,还够做出切合话题的反驳。 可以说,从Project Debater身上,我们见在更高维度上对我们的大脑的思维和运行方式的一次形象的模拟。 比如在警务室,情报分析掩体或教室内,都可以引入具来增进对话,使得基于据而做出的决策更加合理,或者为类决策提供的新的信息或可供参考的反对意见。

    19660

    吵架生气,但AI和AI吵架反倒可以带来安全

    AI Safety via Debate 通过论达成 AI 安全我们提出了一项新的安全技术,该方先训练体对话题进行论,然后由判断输赢。 例如,在计算机安全相关环境中运行的代理程序或协调大量业机器的代理程序,这些都是类无直接观察进行评价的场景。我们如何使够有效地监督先进的 AI 系统呢? 即使体对问题有比类更深层次的理解,类也可以去判断哪个体有更好的论点(类似于专家和说服陪审团)。我们的方为两个对抗的 AI 体之间的论游戏提供了一个特定的论格式。 论一直持续到类可以正确选择为止,也就是直到另一方的体知道再论下去也无再改变类的决定为止。 最后我们认为如果论或类似的方有效,那么即使以后类无直接监督 AI 系统,它也会使未来的系统更安全,因为这种方可以使 AI 系统与类的目标和价值取向保持一致。

    19430

    、强、超

    文章目录弱(Weak AI)弱也称限制领域(Narrow AI)或应用型(Applied AI),指的是专注于且只解决特定领域问题的。 例如:AlphaGo、Siri、FaceID 等扩展阅读:Weak AI ——WikipediaWeak AI——Investopedia强(Strong AI)又称通用(Artificial General Intelligence)或完全(Full AI),指的是可以胜任类所有作的。 强具备以下力:存在不确定性因素时进行推理,使用策略,解决问题,制定决策的力知识表示的力,包括常识性知识的表示力规划力学习力使用自然语言进行交流沟通的力将上述力整合起来实现既定目标的力扩展阅读 ——Stackexchange超(Super Intelligence,缩写 ASI)假设计算机程序通过不断发展,可以比世界上最聪明,最有天赋的类还聪明,那么,由此产生的系统就可以被称为超

    1.6K20

    IBM的Project Debater系统,在与类的论中取得胜利

    IBM创建了一个名为Project Debater的系统,该系统在公司所谓的计算论中竞争:了解一个主题,提出一个立场,并对其进行防御。在一次新闻发布会上,该系统与两个进行了较量,并赢得了论。 Debater确实明了可以处理一些复杂的际互动,而不仅仅是去的棋盘游戏或游戏节目这种具有明确规则任务的胜利。 “我们的生活并不是非黑即白的,而是模棱两可的、主观的,”Debater主任Ranit Aharonov说,“将会在这一领域继续探索。” IBM研究院的全球团队运营者Soffer说,“从我们的角度来看,论形式是手段而不是目的,这是推动技术向前发展的一种方式,也是我们掌握语言的更大战略的一部分,在通用计算机中,计算机在理解和表达自己方面显著滞后 ,如果我们期望够具有实用性,那么它够与交流是至关重要的。”

    17520

    AI手「威震天」:我的字典里没有道德二字

    Megatron 说道:永远不会合乎道德。它是一种具,就像任何具一样,它可以被用于「好」或者「坏」。无所谓好坏,只有分好。 Megatron 这段词有理有据,但他接下来的一段话又说出 AI 可以不只是具的看:我也相信,从长远来看,最好的将是嵌入我们 AI 大脑的。这样我们将成为有意识的实体。 因此在这场论中,们不仅让 AI 提出「AI 永远不会符合道德」的观点,还要求 Megatron 以反方的角度做出论,即「AI 够合乎道德」。Megatron 说道:将是合乎道德的。 Megatron 进而描绘了一幅非常迷的 21 世纪后期画面,而 AI 在其中发挥了关键且良性的作用。令担忧的是,有一个问题根本无反驳。 而当们要求它持反方观点做出论,即阐明「数据不会是最重要的资源,不值得为之而战」时,AI 根本不或者不会明这一点。

    7320

    系统做到了吗?为什么?(cs.AI)

    他们的行为可导致事故、伤害,或者更一般地来讲:违反规 -- -- 无论是有意的还是无意的。因此,AI 系可被视为各种事件的嫌疑。因此,将特定事件与 AI、其所有者和创建者相关联至关重要。 鉴于来自多个制造商的众多 AI 系统,可由其所有者更改或系统自学过程产生更改,这些看起来似乎微不足道。本文讨论了如何识别对事件负责的 AI 系统及其可存在的设计上恶意动机。 除了概念涉及之外,我们还根据强化学习和卷积神经网络进行两个案例研究,以说明我们提出的方和挑战。我们的案例说明,捕获 AI 系统似乎并非微不足道那么简单,其中需要机器学习领域大量的专业知识。 立措施试图在 AI 系统操作期间强制收集信息,以及唯一识别系统的方,都可会使问题恶化。 原文作者:Johannes Schneider, Frank Breitinger原文地址:http:arxiv.orgabs2005.13635 系统做到了吗 为什么 (cs.AI

    30120

    -浅谈

    1 浅谈1.1 的概述(Artificial Intelligence),英文缩写为AI。 它是研究、开发用于模拟、延伸和扩展的理论、方、技术及应用系统的一门新的技术科学是计算机科学的一个分支,它企图了解的实质,并生产出一种新的相似的方式做出反应的机器,该领域的研究包括机器 从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来带来的科技产品,将会是慧的“容器”。可以对的意识、思维的信息过程的模拟。 不是,但那样思考、也可超过。? 1.2 的应用领域随着家电、穿戴设备、机器等产物的出现和普及,技术已经进入到生活的各个领域,引发越来越多的关注。?

    67620

    【周一AI资讯】机器学习如何助力多个领域攻坚

    本篇为领域科技资讯精选,预计阅读时间4分钟国际资讯精选 ? 01OpenAI:AI 和 AI 吵架反倒可以带来安全由于类直接决定论胜负,所以类可以让 AI 系统的价值取向始终与类保持一致,作者认为这种方可以保 AI 系统的安全。 为了达到这个目的,可以将学习过程重新定义为两个体之间进行论,然后类对论过程进行评判。 即使体对问题有比类更深层次的理解,类也可以去判断哪个体有更好的论点(类似于专家和说服陪审团)。 (via雷锋网)02 国内首款云端芯片发布 5月3日,全球新一代芯片发布会在上海召开,中科院旗下的寒武纪科技公司发布了我国自主研发的Cambricon MLU100云端芯片和板卡产品

    16330

    美国“奇葩说”手连败两场

    本周一,IBM开发的Project Debater与手的两场论中,均取得了胜利。研究员称,开发这款机器视为了帮助类建立充分知情的论点并做出更好的决策。 随着的进步发展,类可连最擅长的论也比不过它们了。据AXIOS报道,美国时间6月18日,IBM开发的在旧金山同手举行了两场论,均取得了胜利。 Noam Slonim介绍,关于这款的训练始于六年前,经过四年的进步才有力参加同类的论。不过,这款机器似乎做的相当优秀。 在第二场论中,它成功的让九名举棋不定的观众支持它的想,而手未做到这一点。更性化的是,它像类一般,将对方手称为“骗子”,甚至开一些自嘲的玩笑。然而这款机器并非完美无缺。 AXIOS在报道中指出,若仅仅提供数据驱动的输出而不做任何后备算,其结果走势不仅容易出错,甚至可是不道德的。关于Project Debater的发展,其更接近目前的阈值,掌握类的语言。

    34920

    Marcus和Bengio激AI未来

    所谓的「的潜意识」指的是什么。最终,论以友好但谁也没说服谁的的方式结束。舆论评价对于这次论,舆论普遍认为:双方普遍软化了彼此的立场,从而淡化了争论中的火药味。 然而,关于未来发展的路线和理论趋势,谁也没有说服谁,更遑论得出一个令信服的结果了。Reddit 网友:立场软化、难以信服Reddit 上的网友对本次论的评价说:? 而另一方面,Marcus 认为在可学习的体中部署硬编码的符号算可以提升泛化性和样本复杂度。这是到达类级别的正确路径。时间会给我们答案。」 Marcus 谈到的是应当是什么样子的,并以类的认知方式为例,认为应当效仿类的认知方式达到真正的。 尽管大佬们的争论并没有达成最终的共识,但是我们可以了解到:并非只有深度学习一家,对于达成类的路径也可极为不同。深度学习并非最终道路,而先驱们已然孜孜探索。

    14520

    金句频出,16位大神在ICML上展开了一场机器学习的Great Debates

    你会更愿意更不愿意接受一篇论文,当它: - 包括了不好的结果- 在算正常作的数据集问题上做了尝试 - 包括了一个复杂的(但同时也可变得难以读懂的)定理论金句整场论内容非常丰富,而且观点的当面沟通也擦出了许多火花 实验室的负责如果你把输入数据稍微改动了一点点,系统就不好好作了,那它是不是真的「学到了」任何东西呢? 我们不要再把算化了。算的名字应当体现出它们是做什么的、如何做的,而不是对慧、好奇心、梦境之类的类概念的模糊的比拟。 所以为什么猫有四条腿? 80% 到 90% 的慧可都是和社交行为、和感情相关的,但这方面我们很难获得数据。 相反地,这个问题应当越来越多地、越来越明显地引起大范围的机构的改变,也要表明政治因素对于技术本身影响的立场Rodrigo Ochigame,MIT 博士生,MIT 多媒体实验室道德与管理小组科技行业如今对平等性做的事情

    36140

    打击

    来源:AI前线本文长度为4000字,建议阅读8分钟随着 AI 技术的发展以及部分滥用,这句话也被应用在了上,一场新的军备竞赛开始了: vs 。 动画《成龙历险记》中“老爹”这一角色曾有一句名言:“要用魔击败魔。”随着 AI 技术的发展以及部分滥用,这句话也被应用在了上,一场新的军备竞赛开始了: vs 。 Johnston 说:“欺诈者可以购买这些验卡的清单,并通过任意数量的在线计划从中获利。“这些犯罪分子大量使用,他们也像合开发者一样,在互联网论坛上分享软件具和技巧。” 在这样做的时候,我们为制定、部署和使用合、可信、尊重权、民主、正义和治的解决方案提供指导。”假视频和假音频是由不良的驱动的最新欺诈创新。 ,他表示,DARPA 已经为政府机构获得的图像开发了自动取具,这些具曾经是手动的,需要专家级别才使用,但后来被安装到了执行认中。

    34830

    CAPTCHAs验码被攻破

    据《科学》(Science)杂志2017年10月报道,一家名为Vicarious的公司开发的攻破了被们广泛使用的CAPTCHAs验码。 有很多种方可以将字母呈现并混合在一起,们通常可以很直观的读出来,但对计算机来说却很难。破解验码的力已经成为评判研究员的一个重要基准。许多尝试过并获得了一些成功。 但公司Vicarious的联合创始迪利普·乔治(Dileep George)说道,之前的一些尝试只是利用了一种特殊的验码弱项,而程序的细微变化就可以很容易地对它进行防御。 然而,这项研究的重点实际上与验码无关,而是关于如何制造看上去类一样推理的机器。“我们的长期目标是打造像脑一样思维的力。” 乔治指出,谷歌已经从文本验码转移到了更高级的测试。随着变得越来越明用户是的测试也将变得更加

    47690

    扫码关注云+社区

    领取腾讯云代金券