这个名为Xuan的机器人由新加坡义安理工学院制造,像它这样为老年人提供便利的数码伴侣还有不少。请看下文的这些机器人: 机器狗Eric: ? 图中是老年康复交互运动伴侣,也可以称它的别名Eric。 Eric安装视觉传感器,能对外界的动作作出反应,令老人们的重复治疗练习更加有趣,也相对减轻了护士的工作负担。其研发团队来自新加坡理工学院,他们发现老人在有机器人陪伴练习时会更加投入。 经过14余年的研究,Asimo取得了“飞跃”性的成就。的确如此,去年4月发布的最新模型的灵活性和平衡能力大大提高,甚至可以“跳跃”。 宠物机器人Huggler: ? 这个机器人是宠物机器人大家族中的一员。图中圆滚滚呆萌萌的猴子可不仅仅是一只普通的玩具。他会笑,会打呼噜,会因为摸的地方不同而发出不同的声音。 通过侦测穿戴者皮肤发出的微弱电脉冲,完成用户大脑对四肢发出的行动指令。机器人套装做出与人体本身相同的运动,为肢体提供更有力的支持。也就是说,或许很快你连扳手腕都赢不了你的外婆了。
虽然国家、公司和国际组织在人工智能治理中的作用已经被广泛理论化,但工人的作用却很少受到关注。本章着眼于工人在识别和减轻人工智能技术带来的危害方面所发挥的作用。危害是对技术的因果“影响”进行评估。 由于缺乏共识,工人们采取了一系列集体行动,抗议在工作场所如何识别和处理危害。我们将工人在人工智能治理中的作用理论化,并构建了人工智能工作场所伤害报告过程的模型。 危害报告过程涉及三个步骤:识别、治理决策和响应。工人们利用三种类型的主张来论证对人工智能治理问题的管辖权:服从、对劳动产品的控制,以及对系统的近似知识。 回顾过去十年与人工智能相关的工人维权活动,我们可以了解不同类型的工人在生产人工智能系统的工作场所是如何被定位的,他们的位置如何影响他们的主张,以及集体行动在实现他们的主张时所处的位置。 本章认为,工人在识别和减轻人工智能系统造成的危害方面发挥着独特的作用。
吴:如今的人工智能系统确实面临着为人们带来损害的风险,例如:偏见、公平性、过于集中的能力。这些都是客观存在的问题。然而,AI 也会创造巨大的价值! 如今,有了 ChatGPT、GPT-4 这样的模型,人们玩得不亦乐乎。这造成了一种印象,让我们以为已经距离具有人类水平的智能十分接近了。这是因为人类是以语言为导向的。 Q1:如何看待AI发展会带来危害这一观点?通过暂停试验能扼止这种危害吗? LeCun:当然会有一些东西可能是小规模部署用于试验,并且可以识别出真正的危害。 因为有两种危害,即潜在危害和真实危害,以及想象中的危害。如果存在真实危害, 你现在应该停止部署该产品。但是否意味着你应该禁止所有人工智能研究吗,当然不。 人工智能技术的飞速发展不可避免地带来了人们对于新技术伦理、法律规范的探讨,而保持乐观的态度也许正是面对不确定性的最佳途径。正如本次对话最后吴恩达所说,不管怎样,应继续推动AI为所有人创造普世的价值。
吴:如今的人工智能系统确实面临着为人们带来损害的风险,例如:偏见、公平性、过于集中的能力。这些都是客观存在的问题。然而,AI 也会创造巨大的价值! 如今,有了 ChatGPT、GPT-4 这样的模型,人们玩得不亦乐乎。这造成了一种印象,让我们以为已经距离具有人类水平的智能十分接近了。这是因为人类是以语言为导向的。 Q1:如何看待AI发展会带来危害这一观点?通过暂停试验能扼止这种危害吗? LeCun:当然会有一些东西可能是小规模部署用于试验,并且可以识别出真正的危害。 因为有两种危害,即潜在危害和真实危害,以及想象中的危害。如果存在真实危害, 你现在应该停止部署该产品。但是否意味着你应该禁止所有人工智能研究吗,当然不。 人工智能技术的飞速发展不可避免地带来了人们对于新技术伦理、法律规范的探讨,而保持乐观的态度也许正是面对不确定性的最佳途径。
--- 拔出你心中最困惑的刺!--- 在这个用过即弃的时代,不要让你的求知欲过期。 今日拔刺: 1、超人工智能会给人类带来什么危害? 2、Google如何透过搜索结果洞察搜索者的意图? 3、宇宙存活亿年的文明,可以瞬间摧毁银河系吗? 本文 | 1728字 阅读时间 | 4分钟 超人工智能会给人类带来什么危害? 人工智能分为弱人工智能、强人工智能和超人工智能,现在的科技虽然发达,但是人工智能也仅停留在弱人工智能的阶段,人们渴望科技发达带给他们越来越多的便利,但是也会害怕当人工智能发展越来越迅速后对人类造成危害。 不过根据计算即使我们制造十万枚沙皇炸弹,也不过是相当于把胡夫金字塔中一块3.6公斤的碎石加速到第二宇宙速度,连给地球挠痒痒都算不上。 同理,根据科学家的计算,银河系的年龄已经达到136亿岁,你一个存活亿年的文明想要摧毁银河系,还是瞬间?
ChatGPT丨小智ai丨chatgpt丨人工智能丨OpenAI丨聊天机器人丨AI语音助手丨GPT-3.5丨开源AI平台ChatGPT是一种非常强大的自然语言处理技术,可以为我们的生活带来很多便利和创新 引发人工智能安全问题随着ChatGPT的不断发展和应用,其安全问题也成为人们关注的焦点。ChatGPT可能被黑客用于发动网络攻击,例如冒充用户身份、诈骗、传播恶意软件等。 另外,ChatGPT的误导性可能会对政治、商业和社交领域产生影响。例如,人们可能会使用ChatGPT来扰乱选举、破坏商业竞争和危害社交关系。 缺乏透明度和可解释性ChatGPT的一个主要缺点是缺乏透明度和可解释性。ChatGPT的训练和学习过程是非常复杂和困难的,很难将其内部运行过程解释给外部观察者。 人们可能无法享受ChatGPT带来的优势,例如更快速和高效的自然语言处理、更好的客户服务和更智能的助理功能等。这可能会导致一些地区和人群落后于技术和信息的发展,进一步增加数字鸿沟。
:「我现在已经停止了计算机视觉研究,因为我看到了自己工作造成的影响。 我热爱自己的作品,但我已经无法忽视它在军事领域的应用以及给个人隐私带来的风险。」 他还表示,一些学者的想法是错误的,他们认为,「我们不必考虑新研究的社会影响,因为这很困难,而且其他人也会帮我们做。」 近年来,随着 AI 领域的快速发展,人们对于科技的思考也越来越多。投向 NeurIPS 的新研究,显然代表了人工智能领域最先进的技术。但新科技对于社会发展的影响,或许是科学家们此前有所忽略的地方。 前谷歌大脑机器人研究专家 Kevin Zakka 认为,研究者不应该因为自己的工作可能带来负面影响而停止研究。相反,你应该利用自己在该领域的影响力来提高人们的警惕,将研究成果用在正确的地方。 ? 从这个逻辑上来说,如果某个方向有潜在危害,这个领域的专家不仅应该停止研究,更应该站出来,成为阻止这种研究方向的意见领袖。 ?
Sam Altman、谷歌劈柴、微软纳德拉、Anthropic的Dario Amodei参加了这场不同寻常的会议。 拜登开场非常直白,「你们正在做的事不仅有巨大的影响力,还将带来巨大的危害」。 与此同时,风投家已经向人工智能初创企业投入了数十亿美元。 但人工智能的爆炸式发展,引发了人们对这一技术可能如何改变经济、动摇地缘政治,以及助长犯罪活动的担忧。 批评人士担心,强大的人工智能系统并不透明,有可能带来歧视、失业、散布虚假信息,甚至违反法律的危险行为。 甚至,一些人工智能公司也对这项技术带来的后果提出了警告。 开会前,拜登自己尝试了ChatGPT,完完全全被「迷住了」,并认为这是「我们这个时代最强大的技术之一」。 白宫政府在会上向这些AI公司强调,它们应该解决人工智能发展带来的风险。 她把这项技术的最新发展比作谷歌和Meta等科技巨头的诞生,并警告称,如果没有适当的监管,这项技术可能会放大大型科技公司的权力,并给骗子提供一个强有力的工具。
例如在快思考的模式下进行呼吸,此时是无意识的,感受不到空气的一进一出,胸膛的起伏。 可一旦将注意力集中到呼吸这件事情上来,就会意识到呼吸动作所带来的的身体变化。 人工智能会毁灭人类吗? 从人们对CHatGPT不断进行的测试来看,它已经具备了慢思考的能力。 一旦这种能力让它的行为更主动,那么它的进化速度会非常的快。 对于研发它们的工程师来说,人工智能程序并没有那么的可怕,它能做到什么已经很清晰明了,就来源于它的每一行代码,来源于训练它的数据。 它的进化方式决定了只要它不停擭取数据,人类就有对付它的办法。 在我看来,人工智能站在全体人类的对面的时候,它的危害程度其实有限。 相比于人工智能给人类带来的危害,人类本身反而更具威胁。 脑子如浆糊,也没时间去思考构思文章结构了,等啥时候有闲再来修改吧。 与其担心发展人工智能带来的后果,不如大力发展人工智能,毕竟这世界,就算没有人工智能,咱们的明天也不见得更美好。
人工智能之所以会受到广泛关注,一个重要原因在于人工智能与人们的生活结合得越来越紧密。与此同时,人们还需要认真思考这样一个问题,人工智能迅速向前发展,现有法律是否能跟上人工智能的发展速度。 人脸识别技术也已经应用到很多场景,而且以后的应用场景会越来越多。比如高铁、机场的安全检查以及照相机、摄像机中的人脸识别等应用场景。 现阶段尚未改变现有法律关系 “人工智能的飞速发展,带来了应用的快速落地,产生了货币的两面效应。一方面,降低了风险,另一方面也带来了新的风险。 这里的‘犯罪问题’,是指人工智能的类人行为导致社会危害结果而引发的是否构成犯罪的问题,而不包括损害人工智能的犯罪问题。” 根据刘灿华的总结,人工智能犯罪问题可能有这样三种情形: 利用人工智能技术实施犯罪,即因为人工智能的缺陷而产生的犯罪行为。由于设计上的缺陷或者硬件缺陷、故障等原因,机器人实施了危害行为。
首先是 GitHub Copilot 的发布,这是一个基于大型语言模型的系统,它能将自然语言提示词转化为代码,给开发人员的工作效率带来了非常积极的影响。 像 DALL∙E 2 这样的人工智能系统尽管不能把普通人变成专业的艺术家,但它给了很多人视觉表达的能力,一种他们从未想过自己会拥有的全新超能力。 我们还看到,人工智能模型变得越来越强大,并为其所要解决的问题带来了更多实质性的收益。 其中一些人非常乐意获得、掌握这些工具,并且弄清如何以超级有效的方式用它们来做事。在很多情况下,人们已经有了全新、有趣且从根本上比以前更有效的工具。 我们为人工智能系统制定的计划还包括在发布后尽快发现并减轻任何我们没有预料到的危害。 另一个非常重要的保护措施是有意识的迭代部署。我们所做的大部分工作都是针对具有广泛能力的模型。
编译 | 王晔 校对 | 琰琰 可解释性对人工智能发展来说至关重要,但在可解释系统的可信度方面,理解其可能带来的负面效应亦同等重要。 目前关于可解释AI(XAI)的研究已经取得了令人称赞的进展,但最新研究发现,这些解释所带来的的影响不一定是积极的,也可能在下游任务中产生消极影响。 例如设模型计者故意制造不合理的解释,让人们对人工智能系统产生信任,从而隐瞒其可能带来的风险。更重要的是,尽管模型设计的最初意图是好的,这种负面影响似乎也不可避免。 有意思的是,他们还把最聪明的AI投给了“行为最奇怪”的智能体,这说明,他们不仅过度重视数字结果,而且将“含义不明”的数字视为潜在的可操作性。 总结来看,可解释性陷阱(EPs)有两个特性,一是它仅是存在,但并不一定会对下游产生危害;二是现有知识不能预测给定的一个人工智能解释何时、如何以及为何会引发意料之外的负面下游效应。
如今人们越来越担心 ChatGPT 等 AI 模型的发展可能给人类带来的潜在威胁。AI 在不断发展的同时,但相应的监管却迟迟没有跟上。 不过一些 AI 研究者们已经意识到这一点,就在上个月,Hinton 离开谷歌,并表示希望不受公司隶属关系的限制,就人工智能的潜在风险进行坦诚的讨论。 在之后的参议院听证上,Sam Altman 主张政府干预,并强调了先进 AI 系统带来的严重风险以及对解决潜在危害进行监管的必要性。 作家、未来学家 Daniel Jeffries 发推表示,「AI 的风险和危害现在正成为一种地位游戏,每个人都挤在这波潮流中让自己看起来不错…… 人们为什么一直在喋喋不休呢? 因此,尽管有朝一日或许有一种先进的人工智能威胁到了人类,但将注意力集中在假想中的不清不楚的世界末日场景上并不富有建设性,也不会产生助益。人们不能老是将精力放在不存在的事情上。
作者 James Vincent 编译 Mika 当谈到人工智能所带来的危险,我们通常强调的是意想不到的副作用。 Mitigation)的报告中,这些学者和研究人员列举了在未来5年内AI可能给我们生活带来危害的方式,以及能够阻止这些危害的方法。 虽然AI给人们带来新型的攻击,该报告的合著者,来自人类未来研究所的Miles Brundage认为,我们并不该感到恐慌或放弃希望。 ? 钓鱼邮件已经带来了足够的危害,比如2014年好莱坞名人iCloud照片泄露事件,以及希拉里克林顿的竞选主席John Podesta私人邮件的泄露事件。 ? 这利用了AI的新产品(清洁机器人)和其自主功能(机器视觉追踪)。 这些情景听起来似乎有些不切实际,但我们已经目睹了利用AI进行的新型攻击。
但同时,他又是个激进的AI威胁论者,过度宣扬AI将会为人类带来的危险。 ? 马斯克:超级人工智能“将会很快发生在我们身上” 很多AI从业人员对他很反感,认为他在危言耸听,但因为他自己的名人身份,对AI的过度警惕和反对给实际研究工作带来了困难。 此文一石激起千层浪。 Facebook首席AI科学家Yann LeCun也在2018年骂马斯克是“疯子”,因为后者对AI的危害发表了过度言论。 ? 马斯克曾表示,「人类面临被人工智能超越的风险,但如果人脑能通过与电脑连接得到增强,我们就能够加入这一旅程。」 他在2017年说: “我接触了最前沿的AI,我认为人们应该对此予以真正关注。 “不过,在那之后的几十年中,AI已经变得足够强大,值得关注。我同意埃隆·马斯克和其他一些人的看法,而且不理解为什么有些人不关心。” 对于IT界这场大论战,你站谁的边?
这是一个开放源代码平台,目前已经有5000多家机构使用,其中包括谷歌、Facebook、和微软。米切尔计划在10月份启动,并将首先开发一套工具,以确保用于训练人工智能算法的数据集不存在偏见。 米切尔和Hugging Face已经建立了关系,因为为了确保模型的公平性,Hugging Face建议工程师和科学家在发布项目时使用米切尔在谷歌开发的名为“Model Cards”的工具来评估人工智能系统 米切尔在一次采访中表示,在用软件评估人工智能系统方面,"要用非常严肃和积极的态度去工作。“这对我来说是一个非常好的机会,可以帮助模型构建者更好地理解他们正在构建的模型的危害和风险。” 米切尔在从谷歌离职后表示,她希望在一家规模较小的公司工作,这样可以从一开始就将人工智能伦理纳入在考虑内。她说,在Hugging Face中,“已经有很多基本的道德价值观。 谷歌在许多基础研究上遥遥领先,这带来了大型语言模型的最新爆炸式增长。如果真的如论文所说大规模语言模型“危害大于利益”,而谷歌解雇一系列人员,那对这件事的态度也就不言而喻了。
近日全球机器人大会如约在京举行,会上千奇百怪的机器人令人惊叹,随着人工智能时代的临近,机器人早已不是什么新鲜物件儿,仿生机器人、家务机器人、军事机器人等类别的机器人一次又一次地刷新着人们对于机器人的认识 然而对于机器人,在憧憬之余也有人感到担忧,其中比较具有代表性的就是比尔·盖茨和特斯拉总裁马斯克等人对人工智能机器人危害提出的假设:他们担心有一天,智能机器人将脱离人们的控制,变成人工杀|人|狂来反噬人类 尽管他们的担忧不无道理,但是如今我们的生活早已离不开机器人,小到家用智能吸尘器,大到工厂里的机械手臂、医院的智能手术台,甚至是军事上的侦查机器人,这些无一不是机器人给我们带来的利好。 由于不断享受着机器人带来的便利,人们也乐于在生活中见到更多的机器人。那么,在当今科技下,机器人又发展到哪种程度了呢?下面所展示的是汇聚时代尖端科技、备受好评的全球机器人Top50。 ? ? ? 诚然,如盖茨等人所言,如若不能控制好机器人的弊端,未来或将为人类带来毁灭的打击,但是纵观历史,又有哪一次的科技革新不是利弊共存的呢?
如今,美国和中国已经是毋庸置疑的AI超级体了,那么欧盟有可能成为下一个吗? 震撼! 这种思想是欧洲更广泛的现实化的一部分,即AI在未来应当成为像电力、蒸汽机等基础科技同样重要的技术。一些国家如芬兰、法国已经制定了国家级人工智能战略,而德国正在制定中,预计将在今年末完成。 纽约大学的研究中心AI Now Institute的联合创始人Kate Crawford说。 欧洲可以率先制定规则来限制AI系统可能造成的危害,比如算法偏差或失控带来的危害。 这样就涉及到定义数据的访问权(即数字领域的财产所有权)和数据的类别,比如商业数据由于其社会价值而需要公开,就像欧洲的银行需要在客户同意的前提下给金融科技公司以数据访问权一样。 许多欧洲研究机构都是几十年前建立的,经历过了上世纪九十年代到二十一世纪初的AI寒冬,当时除了研究机构之外的人们都对AI丧失了兴趣,也普遍没有资金支持。
换脸甄别(ATDF)技术可鉴别视频、图片中的人脸是否为AI换脸算法所生成的假脸,同时可对视频或图片的风险等级进行评估。广泛应用于多种场景下的真假人脸检测、公众人物鉴别等,能有效的帮助支付、内容审核等行业降低风险,提高效率。
扫码关注腾讯云开发者
领取腾讯云代金券