学习
实践
活动
专区
工具
TVP
写文章

那些老年人带来欢乐和尊严机器人们

这个名为Xuan机器人由新加坡义安理工学院制造,像它这样为老年人提供便利数码伴侣还有不少。请看下文这些机器人: 机器狗Eric: ? 图中是老年康复交互运动伴侣,也可以称它别名Eric。 Eric安装视觉传感器,能对外界动作作出反应,令老人们重复治疗练习更加有趣,也相对减轻了护士工作负担。其研发团队来自新加坡理工学院,他们发现老人在有机器人陪伴练习时会更加投入。 经过14余年研究,Asimo取得了“飞跃”性成就。的确如此,去年4月发布最新模型灵活性和平衡能力大大提高,甚至可以“跳跃”。 宠物机器人Huggler: ? 这个机器人是宠物机器人大家族中一员。图中圆滚滚呆萌萌猴子可不仅仅是一只普通玩具。他会笑,会打呼噜,会因为摸地方不同而发出不同声音。 通过侦测穿戴者皮肤发出微弱电脉冲,完成用户大脑对四肢发出行动指令。机器人套装做出与人体本身相同运动,为肢体提供更有力支持。也就是说,或许很快你连扳手腕都赢不了你外婆了。

59040

牛津人工智能治理手册:工人在人工智能道德和治理中作用

虽然国家、公司和国际组织在人工智能治理中作用已经被广泛理论化,但工人作用却很少受到关注。本章着眼于工人在识别和减轻人工智能技术带来危害方面所发挥作用。危害是对技术因果“影响”进行评估。 由于缺乏共识,工人们采取了一系列集体行动,抗议在工作场所如何识别和处理危害。我们将工人在人工智能治理中作用理论化,并构建了人工智能工作场所伤害报告过程模型。 危害报告过程涉及三个步骤:识别、治理决策和响应。工人们利用三种类型主张来论证对人工智能治理问题管辖权:服从、对劳动产品控制,以及对系统近似知识。 回顾过去十年与人工智能相关工人维权活动,我们可以了解不同类型工人在生产人工智能系统工作场所是如何被定位,他们位置如何影响他们主张,以及集体行动在实现他们主张时所处位置。 本章认为,工人在识别和减轻人工智能系统造成危害方面发挥着独特作用。

34000
  • 广告
    关闭

    有奖征文丨玩转 Cloud Studio

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    LeCun吴恩达开直播,疾呼GPT-5不能停!LeCun:干脆管制凤头鹦鹉6个月

    吴:如今的人工智能系统确实面临着为人们带来损害风险,例如:偏见、公平性、过于集中能力。这些都是客观存在问题。然而,AI 也会创造巨大价值! 如今,有了 ChatGPT、GPT-4 这样模型,人们玩得不亦乐乎。这造成了一种印象,让我们以为已经距离具有人类水平智能十分接近了。这是因为人类是以语言为导向。 Q1:如何看待AI发展会带来危害这一观点?通过暂停试验能扼止这种危害吗? LeCun:当然会有一些东西可能是小规模部署用于试验,并且可以识别出真正危害。 因为有两种危害,即潜在危害和真实危害,以及想象中危害。如果存在真实危害, 你现在应该停止部署该产品。但是否意味着你应该禁止所有人工智能研究吗,当然不。 人工智能技术飞速发展不可避免地带来人们对于新技术伦理、法律规范探讨,而保持乐观态度也许正是面对不确定性最佳途径。正如本次对话最后吴恩达所说,不管怎样,应继续推动AI为所有人创造普世价值。

    13430

    为何不能暂停 AI 研发?杨立昆、吴恩达对话实录

    吴:如今的人工智能系统确实面临着为人们带来损害风险,例如:偏见、公平性、过于集中能力。这些都是客观存在问题。然而,AI 也会创造巨大价值! 如今,有了 ChatGPT、GPT-4 这样模型,人们玩得不亦乐乎。这造成了一种印象,让我们以为已经距离具有人类水平智能十分接近了。这是因为人类是以语言为导向。 Q1:如何看待AI发展会带来危害这一观点?通过暂停试验能扼止这种危害吗? LeCun:当然会有一些东西可能是小规模部署用于试验,并且可以识别出真正危害。 因为有两种危害,即潜在危害和真实危害,以及想象中危害。如果存在真实危害, 你现在应该停止部署该产品。但是否意味着你应该禁止所有人工智能研究吗,当然不。 人工智能技术飞速发展不可避免地带来人们对于新技术伦理、法律规范探讨,而保持乐观态度也许正是面对不确定性最佳途径。正如本次对话最后吴恩达所说,不管怎样,应继续推动AI为所有人创造普世价值。

    12820

    为何不能暂停AI研发?丨杨立昆吴恩达对话实录

    吴:如今的人工智能系统确实面临着为人们带来损害风险,例如:偏见、公平性、过于集中能力。这些都是客观存在问题。然而,AI 也会创造巨大价值! 如今,有了 ChatGPT、GPT-4 这样模型,人们玩得不亦乐乎。这造成了一种印象,让我们以为已经距离具有人类水平智能十分接近了。这是因为人类是以语言为导向。 Q1:如何看待AI发展会带来危害这一观点?通过暂停试验能扼止这种危害吗? LeCun:当然会有一些东西可能是小规模部署用于试验,并且可以识别出真正危害。 因为有两种危害,即潜在危害和真实危害,以及想象中危害。如果存在真实危害, 你现在应该停止部署该产品。但是否意味着你应该禁止所有人工智能研究吗,当然不。 人工智能技术飞速发展不可避免地带来人们对于新技术伦理、法律规范探讨,而保持乐观态度也许正是面对不确定性最佳途径。

    10630

    拔刺 | 超人工智能会给人类带来什么危害

    --- 拔出你心中最困惑刺!--- 在这个用过即弃时代,不要让你求知欲过期。 今日拔刺: 1、超人工智能会给人类带来什么危害? 2、Google如何透过搜索结果洞察搜索者意图? 3、宇宙存活亿年文明,可以瞬间摧毁银河系吗? 本文 | 1728字 阅读时间 | 4分钟 超人工智能会给人类带来什么危害人工智能分为弱人工智能、强人工智能和超人工智能,现在科技虽然发达,但是人工智能也仅停留在弱人工智能阶段,人们渴望科技发达带给他们越来越多便利,但是也会害怕当人工智能发展越来越迅速后对人类造成危害。 不过根据计算即使我们制造十万枚沙皇炸弹,也不过是相当于把胡夫金字塔中一块3.6公斤碎石加速到第二宇宙速度,连地球挠痒痒都算不上。 同理,根据科学家计算,银河系年龄已经达到136亿岁,你一个存活亿年文明想要摧毁银河系,还是瞬间?

    96250

    chatgpt对人类有哪些不利丨小智ai

    ChatGPT丨小智ai丨chatgpt丨人工智能丨OpenAI丨聊天机器人丨AI语音助手丨GPT-3.5丨开源AI平台ChatGPT是一种非常强大自然语言处理技术,可以为我们生活带来很多便利和创新 引发人工智能安全问题随着ChatGPT不断发展和应用,其安全问题也成为人们关注焦点。ChatGPT可能被黑客用于发动网络攻击,例如冒充用户身份、诈骗、传播恶意软件等。 另外,ChatGPT误导性可能会对政治、商业和社交领域产生影响。例如,人们可能会使用ChatGPT来扰乱选举、破坏商业竞争和危害社交关系。 缺乏透明度和可解释性ChatGPT一个主要缺点是缺乏透明度和可解释性。ChatGPT训练和学习过程是非常复杂和困难,很难将其内部运行过程解释外部观察者。 人们可能无法享受ChatGPT带来优势,例如更快速和高效自然语言处理、更好客户服务和更智能助理功能等。这可能会导致一些地区和人群落后于技术和信息发展,进一步增加数字鸿沟。

    20120

    YOLO之父宣布退出CV界,坦言无法忽视自己工作带来负面影响

    :「我现在已经停止了计算机视觉研究,因为我看到了自己工作造成影响。 我热爱自己作品,但我已经无法忽视它在军事领域应用以及个人隐私带来风险。」 他还表示,一些学者想法是错误,他们认为,「我们不必考虑新研究社会影响,因为这很困难,而且其他人也会帮我们做。」 近年来,随着 AI 领域快速发展,人们对于科技思考也越来越多。投向 NeurIPS 新研究,显然代表了人工智能领域最先进技术。但新科技对于社会发展影响,或许是科学家们此前有所忽略地方。 前谷歌大脑机器人研究专家 Kevin Zakka 认为,研究者不应该因为自己工作可能带来负面影响而停止研究。相反,你应该利用自己在该领域影响力来提高人们警惕,将研究成果用在正确地方。 ? 从这个逻辑上来说,如果某个方向有潜在危害,这个领域专家不仅应该停止研究,更应该站出来,成为阻止这种研究方向意见领袖。 ?

    88530

    AI危险!白宫召集AI领袖紧急开会,再投1.4亿美金建研发中心

    Sam Altman、谷歌劈柴、微软纳德拉、AnthropicDario Amodei参加了这场不同寻常会议。 拜登开场非常直白,「你们正在做事不仅有巨大影响力,还将带来巨大危害」。 与此同时,风投家已经人工智能初创企业投入了数十亿美元。 但人工智能爆炸式发展,引发了人们对这一技术可能如何改变经济、动摇地缘政治,以及助长犯罪活动担忧。 批评人士担心,强大的人工智能系统并不透明,有可能带来歧视、失业、散布虚假信息,甚至违反法律危险行为。 甚至,一些人工智能公司也对这项技术带来后果提出了警告。 开会前,拜登自己尝试了ChatGPT,完完全全被「迷住了」,并认为这是「我们这个时代最强大技术之一」。 白宫政府在会上向这些AI公司强调,它们应该解决人工智能发展带来风险。 她把这项技术最新发展比作谷歌和Meta等科技巨头诞生,并警告称,如果没有适当监管,这项技术可能会放大大型科技公司权力,并骗子提供一个强有力工具。

    11640

    聊一聊ChatGPT之外事情

    例如在快思考模式下进行呼吸,此时是无意识,感受不到空气一进一出,胸膛起伏。 可一旦将注意力集中到呼吸这件事情上来,就会意识到呼吸动作所带来身体变化。 人工智能会毁灭人类吗? 从人们对CHatGPT不断进行测试来看,它已经具备了慢思考能力。 一旦这种能力让它行为更主动,那么它进化速度会非常快。 对于研发它们工程师来说,人工智能程序并没有那么可怕,它能做到什么已经很清晰明了,就来源于它每一行代码,来源于训练它数据。 它进化方式决定了只要它不停擭取数据,人类就有对付它办法。 在我看来,人工智能站在全体人类对面的时候,它危害程度其实有限。 相比于人工智能给人类带来危害,人类本身反而更具威胁。 脑子如浆糊,也没时间去思考构思文章结构了,等啥时候有闲再来修改吧。 与其担心发展人工智能带来后果,不如大力发展人工智能,毕竟这世界,就算没有人工智能,咱们明天也不见得更美好。

    10820

    出现利用人工智能新技术犯罪 人工智能给法律带来哪些“变”与“不变”

    人工智能之所以会受到广泛关注,一个重要原因在于人工智能人们生活结合得越来越紧密。与此同时,人们还需要认真思考这样一个问题,人工智能迅速向前发展,现有法律是否能跟上人工智能发展速度。 人脸识别技术也已经应用到很多场景,而且以后应用场景会越来越多。比如高铁、机场安全检查以及照相机、摄像机中的人脸识别等应用场景。 现阶段尚未改变现有法律关系 “人工智能飞速发展,带来了应用快速落地,产生了货币两面效应。一方面,降低了风险,另一方面也带来了新风险。 这里‘犯罪问题’,是指人工智能类人行为导致社会危害结果而引发是否构成犯罪问题,而不包括损害人工智能犯罪问题。” 根据刘灿华总结,人工智能犯罪问题可能有这样三种情形: 利用人工智能技术实施犯罪,即因为人工智能缺陷而产生犯罪行为。由于设计上缺陷或者硬件缺陷、故障等原因,机器人实施了危害行为。

    1K100

    对话微软CTO Kevin Scott:人工智能未来之路

    首先是 GitHub Copilot 发布,这是一个基于大型语言模型系统,它能将自然语言提示词转化为代码,开发人员工作效率带来了非常积极影响。 像 DALL∙E 2 这样的人工智能系统尽管不能把普通人变成专业艺术家,但它了很多人视觉表达能力,一种他们从未想过自己会拥有的全新超能力。 我们还看到,人工智能模型变得越来越强大,并为其所要解决问题带来了更多实质性收益。 其中一些人非常乐意获得、掌握这些工具,并且弄清如何以超级有效方式用它们来做事。在很多情况下,人们已经有了全新、有趣且从根本上比以前更有效工具。 我们为人工智能系统制定计划还包括在发布后尽快发现并减轻任何我们没有预料到危害。 另一个非常重要保护措施是有意识迭代部署。我们所做大部分工作都是针对具有广泛能力模型。

    12130

    对话微软CTO Kevin Scott:人工智能未来之路

    首先是 GitHub Copilot 发布,这是一个基于大型语言模型系统,它能将自然语言提示词转化为代码,开发人员工作效率带来了非常积极影响。 像 DALL∙E 2 这样的人工智能系统尽管不能把普通人变成专业艺术家,但它了很多人视觉表达能力,一种他们从未想过自己会拥有的全新超能力。 我们还看到,人工智能模型变得越来越强大,并为其所要解决问题带来了更多实质性收益。 其中一些人非常乐意获得、掌握这些工具,并且弄清如何以超级有效方式用它们来做事。在很多情况下,人们已经有了全新、有趣且从根本上比以前更有效工具。 我们为人工智能系统制定计划还包括在发布后尽快发现并减轻任何我们没有预料到危害。 另一个非常重要保护措施是有意识迭代部署。我们所做大部分工作都是针对具有广泛能力模型。

    10120

    佐治亚理工学院发文:不要迷信可解释性,小心被误导

    编译 | 王晔 校对 | 琰琰 可解释性对人工智能发展来说至关重要,但在可解释系统可信度方面,理解其可能带来负面效应亦同等重要。 目前关于可解释AI(XAI)研究已经取得了令人称赞进展,但最新研究发现,这些解释所带来影响不一定是积极,也可能在下游任务中产生消极影响。 例如设模型计者故意制造不合理解释,让人们人工智能系统产生信任,从而隐瞒其可能带来风险。更重要是,尽管模型设计最初意图是好,这种负面影响似乎也不可避免。 有意思是,他们还把最聪明AI投了“行为最奇怪”智能体,这说明,他们不仅过度重视数字结果,而且将“含义不明”数字视为潜在可操作性。 总结来看,可解释性陷阱(EPs)有两个特性,一是它仅是存在,但并不一定会对下游产生危害;二是现有知识不能预测给定一个人工智能解释何时、如何以及为何会引发意料之外负面下游效应。

    21620

    又来:Hinton、Bengio等300余大佬、名人联名警告AI灭世风险

    如今人们越来越担心 ChatGPT 等 AI 模型发展可能给人类带来潜在威胁。AI 在不断发展同时,但相应监管却迟迟没有跟上。 不过一些 AI 研究者们已经意识到这一点,就在上个月,Hinton 离开谷歌,并表示希望不受公司隶属关系限制,就人工智能潜在风险进行坦诚讨论。 在之后参议院听证上,Sam Altman 主张政府干预,并强调了先进 AI 系统带来严重风险以及对解决潜在危害进行监管必要性。 作家、未来学家 Daniel Jeffries 发推表示,「AI 风险和危害现在正成为一种地位游戏,每个人都挤在这波潮流中让自己看起来不错…… 人们为什么一直在喋喋不休呢? 因此,尽管有朝一日或许有一种先进的人工智能威胁到了人类,但将注意力集中在假想中不清不楚世界末日场景上并不富有建设性,也不会产生助益。人们不能老是将精力放在不存在事情上。

    11330

    牛津、剑桥等专家联合发布报告:警惕AI在未来恶意使用

    作者 James Vincent 编译 Mika 当谈到人工智能带来危险,我们通常强调是意想不到副作用。 Mitigation)报告中,这些学者和研究人员列举了在未来5年内AI可能给我们生活带来危害方式,以及能够阻止这些危害方法。 虽然AI给人们带来新型攻击,该报告合著者,来自人类未来研究所Miles Brundage认为,我们并不该感到恐慌或放弃希望。 ? 钓鱼邮件已经带来了足够危害,比如2014年好莱坞名人iCloud照片泄露事件,以及希拉里克林顿竞选主席John Podesta私人邮件泄露事件。 ? 这利用了AI新产品(清洁机器人)和其自主功能(机器视觉追踪)。 这些情景听起来似乎有些不切实际,但我们已经目睹了利用AI进行新型攻击。

    77380

    马斯克宣传AI威胁,被Facebook AI负责人diss「胡说八道」,回怼:「Facebook真烂!」

    但同时,他又是个激进AI威胁论者,过度宣扬AI将会为人类带来危险。 ? ‍‍ 马斯克:超级人工智能“将会很快发生在我们身上” 很多AI从业人员对他很反感,认为他在危言耸听,但因为他自己名人身份,对AI过度警惕和反对实际研究工作带来了困难。 此文一石激起千层浪。 Facebook首席AI科学家Yann LeCun也在2018年骂马斯克是“疯子”,因为后者对AI危害发表了过度言论。 ? 马斯克曾表示,「人类面临被人工智能超越风险,但如果人脑能通过与电脑连接得到增强,我们就能够加入这一旅程。」 他在2017年说: “我接触了最前沿AI,我认为人们应该对此予以真正关注。 “不过,在那之后几十年中,AI已经变得足够强大,值得关注。我同意埃隆·马斯克和其他一些人看法,而且不理解为什么有些人不关心。” 对于IT界这场大论战,你站谁边?

    39040

    被解雇半年后,前谷歌高管米切尔加入初创公司Hugging Face

    这是一个开放源代码平台,目前已经有5000多家机构使用,其中包括谷歌、Facebook、和微软。米切尔计划在10月份启动,并将首先开发一套工具,以确保用于训练人工智能算法数据集不存在偏见。 米切尔和Hugging Face已经建立了关系,因为为了确保模型公平性,Hugging Face建议工程师和科学家在发布项目时使用米切尔在谷歌开发名为“Model Cards”工具来评估人工智能系统 米切尔在一次采访中表示,在用软件评估人工智能系统方面,"要用非常严肃和积极态度去工作。“这对我来说是一个非常好机会,可以帮助模型构建者更好地理解他们正在构建模型危害和风险。” 米切尔在从谷歌离职后表示,她希望在一家规模较小公司工作,这样可以从一开始就将人工智能伦理纳入在考虑内。她说,在Hugging Face中,“已经有很多基本道德价值观。 谷歌在许多基础研究上遥遥领先,这带来了大型语言模型最新爆炸式增长。如果真的如论文所说大规模语言模型“危害大于利益”,而谷歌解雇一系列人员,那对这件事态度也就不言而喻了。

    10210

    最受欢迎全球机器人TOP50排行榜

    近日全球机器人大会如约在京举行,会上千奇百怪机器人令人惊叹,随着人工智能时代临近,机器人早已不是什么新鲜物件儿,仿生机器人、家务机器人、军事机器人等类别的机器人一次又一次地刷新着人们对于机器人认识 然而对于机器人,在憧憬之余也有人感到担忧,其中比较具有代表性就是比尔·盖茨和特斯拉总裁马斯克等人对人工智能机器人危害提出假设:他们担心有一天,智能机器人将脱离人们控制,变成人工杀|人|狂来反噬人类 尽管他们担忧不无道理,但是如今我们生活早已离不开机器人,小到家用智能吸尘器,大到工厂里机械手臂、医院智能手术台,甚至是军事上侦查机器人,这些无一不是机器人给我们带来利好。 由于不断享受着机器人带来便利,人们也乐于在生活中见到更多机器人。那么,在当今科技下,机器人又发展到哪种程度了呢?下面所展示是汇聚时代尖端科技、备受好评全球机器人Top50。 ? ? ? 诚然,如盖茨等人所言,如若不能控制好机器人弊端,未来或将为人类带来毁灭打击,但是纵观历史,又有哪一次科技革新不是利弊共存呢?

    58250

    中美之后,欧盟会成为第三个AI超级体吗?

    如今,美国和中国已经是毋庸置疑AI超级体了,那么欧盟有可能成为下一个吗? 震撼! 这种思想是欧洲更广泛现实化一部分,即AI在未来应当成为像电力、蒸汽机等基础科技同样重要技术。一些国家如芬兰、法国已经制定了国家级人工智能战略,而德国正在制定中,预计将在今年末完成。 纽约大学研究中心AI Now Institute联合创始人Kate Crawford说。 欧洲可以率先制定规则来限制AI系统可能造成危害,比如算法偏差或失控带来危害。 这样就涉及到定义数据访问权(即数字领域财产所有权)和数据类别,比如商业数据由于其社会价值而需要公开,就像欧洲银行需要在客户同意前提下金融科技公司以数据访问权一样。 许多欧洲研究机构都是几十年前建立,经历过了上世纪九十年代到二十一世纪初AI寒冬,当时除了研究机构之外的人们都对AI丧失了兴趣,也普遍没有资金支持。

    25430

    关注

    腾讯云开发者公众号
    10元无门槛代金券
    洞察腾讯核心技术
    剖析业界实践案例
    腾讯云开发者公众号二维码

    相关产品

    • 换脸甄别

      换脸甄别

      换脸甄别(ATDF)技术可鉴别视频、图片中的人脸是否为AI换脸算法所生成的假脸,同时可对视频或图片的风险等级进行评估。广泛应用于多种场景下的真假人脸检测、公众人物鉴别等,能有效的帮助支付、内容审核等行业降低风险,提高效率。

    相关资讯

    热门标签

    活动推荐

      运营活动

      活动名称
      广告关闭

      扫码关注腾讯云开发者

      领取腾讯云代金券