【新智元导读】不远的未来,人工智能将无处不在,即使是人类专家也无法分辨,不能理解。这对人意味着什么,对人工智能又意味着什么呢? (文/Jarno M. Koponen)人工智能正在开始变得从外面看不见里面,从里面也看不见外面。对人类在来说,对人工智能技术的运作和后果的感知和理解正在变得更加困难。即便专家也并不总是能完全理解一个人工智能系统是如何运转的。 实际上,随着人工智能技术的影响日益增加,我们对这些影响的理解能力正在变得越来越有限。这对人类的能动性意味着什么,对人工智能的未来意味着什么呢? 人工智能正
人工智能可谓是21世纪最有前景的新兴技术之一,其在自动驾驶、语音识别等方面已经取得了诸多重大突破,但在其商业化应用过程中也出现了不少意外的负面后果,其中浮现出的人工智能伦理风险,为技术健康持续发展和商业化落地带来了新的挑战。
监管人工智能不应被误解为试图阻碍该技术的发展或阻碍其广泛实施。相反,监管框架的目标是提供一种结构,指导负责任的人工智能开发和部署,同时确保其利益最大化,潜在风险得到缓解。通过建立一套规则和原则,该框架促进了信任和透明度,创造了一个有利于创新和人工智能道德使用的环境。
陈桦 编译自 DeepMind Blog 量子位 报道 | 公众号 QbitAI 人类,可以在行动之前预想到后果,这是我们认知能力中一种强大的工具。 举例来说,当我们将玻璃杯放在桌子边缘时,我们很可能
紧接着3月底,由马斯克、图灵奖得主Bengio等千名大佬联名,发起暂停超级AI研发的公开信。
Generating meaning: active inference and the scope and limits of passive AI
【新智元导读】如果有一天,机器学会了互相通信,超越人类的认知,这个世界会变成什么样?美国前国务卿亨利·基辛格向人类发出了一个严厉警告:人工智能的进步可能导致一个人类将无法理解的世界 ,而我们应该从现在就开始准备,否则“不久后我们就会发现开始得太晚了”。
【新智元导读】来自墨尔本大学的研究人员设计了一种AI生物识别镜,可以仅仅根据人的脸部照片检测和显示其个性特征和外貌上的魅力,最多可以分析14项性格特征,这一系统属于世界首创。
Yann LeCun(杨立昆)出生于 1960 年,他一直被认为是世界上最重要的人工智能研究者之一。20 世纪 80 年代,LeCun 参与了卷积神经网络的发明,在 AI 领域低潮时期坚持了这一方向,并贡献了工程实践成果,推动了人工智能图像分析技术的突破。
在人工智能时代,每一个关于道德的问题似乎都在引发另一个问题。利兹培根教授是英国格林尼治大学建筑、计算和人文学科的副校长,她还拥有人工智能博士学位,是英国计算机协会的前任主席。上周在墨尔本举行的国际人工智能联合会议上培根教授表示,那些关于AI的法律的辩论仍面临着大量复杂的问题亟待解决。 在汽车中输入的程序需要取代人类在同样情况下所做的思考。“现在作为一名司机,你必须做出一个瞬间的决定,但对于自动驾驶汽车,你必须通过编程来判断其后果。”在没有选择的情况下,你会怎么做? “你可以直接用数字来解决。”汽车可能会说,
人工智能不再是科幻小说,将促进向数字时代的过渡。各国和国际社会都纠结于这一问题,忧心人工智能和工业机器人迅速扩散的后果。《2017年OECD数字经济展望》在人工智能还未破坏和改变,但已开始占据并慢慢渗透经济和社会之时,及时地认识到人工智能将会带来的潜在好处和机会。 1 人工智能不再是科幻小说 2016年10月,美剧《西部世界》(Westworld)荣登排行榜榜首,成为有史以来收视率最高的HBO原创剧集。这部科幻惊悚剧基于1973年的同名电影改编,由小说家迈克尔·克莱顿(Michael Crichton)撰写
这是1968年科幻电影《2001:太空漫游》中的经典场景,人工智能HAL9000拒绝了人类的请求,由此展开了殊死搏斗。
近日,一项新的研究发现,从理论上来看,人类不可能控制超级人工智能。更为糟糕的是,这项研究也明确了人类无法在这种 AI 生成之时发现它。
2018年11月15日,美国国家科学基金会(NSF)发布致同事信,表示NSF计算机与信息科学工程部(CISE)和社会、行为与经济科学部(SBE)将与人工智能合作伙伴关系(PAI)合作,发起针对人工智能与社会探索性研究的早期概念资助(EAGERs),旨在理解人工智能技术方面的社会挑战,并通过科学研究来克服这些挑战。
专注于数据、技术与公共政策的美国科技智库数据创新中心的高级政策分析师Joshua New撰文表示,由于美国采取的一些错误建议,美国有可能在当前的全球人工智能竞赛中落后于他国。该文主要内容如下:
墨尔本大学的研究人员设计了一种AI系统,该系统为世界首创,可以根据脸部照片来检测和显示人们的个性特征和生理上的吸引力。
哈佛大学的学者启动了一项研究,将在2019年2月为美国国会的政治家和政策制定者们“补课”,帮助他们深入了解人工智能的潜力与风险。
ImageNet 数据集的管理者为如今深度学习的进步铺平了道路。现在,他们在保护人们的隐私方面又迈出了一大步:对数据集模糊处理。
据国外媒体报道,从看护婴儿的“临时保姆”到围棋大赛中打败世界冠军,人工智能机器人已无所不在,无所不能,它们正在稳步地发展,并且具备越来越先进的能力。目前,包括斯蒂芬·霍金(Stephen Hawking)教授在内的许多科学家都认为,机器人拥有意识,这仅是一个时间问题而已。 美国俄克拉荷马州立大学电子和计算机工程学教授苏哈什·卡克(Subhash Kak)解释了如果人工智能获得意识,可能会出现的各种后果。 忘记现今人工智能领域的缓慢进步,例如:汽车驾驶能力的提高。未来不久人工智能或将迎来突破性发展:机器人具有
作者 | George Dvorsky 编译 | KK4SBB 去年,两位来自信息安全公司ZeroFOX的数据科学家做了一组实验,他们想测试人工智能算法是否比人类更容易欺骗Twitter用户点击恶意链接。科学家们从社交网站收集用户行为数据来训练模型,然后以此设计并生成恶意链接诱饵。在测试中,人工智能的表现显著超越了人类对手,它们撰写和发布假消息的能力远胜人类,而且转化率还更好。 这个AI名叫SNAP_R,它以每分钟6.75条消息的速率向800名用户发送钓鱼消息,其中有275名用户成功上钩。相比之下,来自福布
前几日肆虐全球的“wannacry”勒索病毒着实让我们惊出一身冷汗。如果这都惊到你了,那你是不知道人工智能系统中木马病毒的厉害,因为它所带来的损失可能不止是金钱,更可能是生命! 但是你了解人工智能系统中的木马病毒吗?你知道黑客可以通过哪些手段对人工智能系统进行攻击呢? 在本文中,我们就来聊聊人工智能的安全问题。 作者 | 张重阳 近期wannacry敲诈勒索病毒全球大规模爆发,在全国大范围蔓延,感染用户主要集中在企业、高校等内网环境。中招系统文档、图片资料等常见文件都会被病毒加密,然后向用户勒索高额
AI不是万灵药,但越来越多的人把它说成是万灵药,在这些人的鼓吹下,更多的人可能真的会把AI当成万灵药。
深度学习算法是人工智能的前沿,也是自主驾驶的主要组成部分之一。但尽管深度学习近年来推动了人工智能领域的发展,但它本身及其基础技术,如深神经网络,仍面临着一些根本性的问题,使它们无法复制人脑的一些最基本的功能。这些挑战是众所周知的,越来越多的科学家承认,这些问题可能会对人工智能的未来造成严重障碍。
导读:在美国科罗拉多州的一所监狱里,关着一名看似十分普通的犯人,罪名是杀人,刑期是终身监禁,不得保释。然而,真实的他过往并不简单,他从小就有数学天分,16岁就被哈佛大学录取,20岁就拿到了数学博士,25岁成为美国顶尖大学加州大学伯克利分校史上最年轻的教授。如果按照这样的人生轨迹走下去,他一定早已成为了美国上流社会中重要的一员。
本次报道的论文来自DECIDE- AI指南制定指导小组发表在nature medicine上的文章“DECIDE-AI: new reporting guidelines to bridge the development-to-implementation gap in clinical artificial intelligence”。这篇研究主要叙述了随着越来越多由人工智能驱动的临床决策支持系统从开发进展到实施,需要制定相关指南以提供更好的指导。
光明的另一面,是黑暗。 就在人工智能为人们打开一扇无比美好的天窗时,阳光的照射,让屋子的背光面,蒙上一层阴影。 而这层阴影的始作俑者,可能并非名目张胆恐怖分子、孤注一掷的邪恶国家、老谋深算的恶毒黑客……而是,普通人。 是你,也是我。 因为人工智能足够神秘,即使我们已经使用着它,却摸不着这个黑匣子里到底藏着什么奥秘。 而正是因为不懂,解释不了,才为普通人打开了一条滥用和曲解的邪路。 其实,每每有新科技新事物的诞生,背后都有着普通人滥用科学导致的灾难性后果。纵观人类历史,比比皆是。 而如今,这条滥用之船,开到人
本文介绍一篇来自于加拿大多伦多大学人工智能Vector研究所的Mario Krenn等人发表在Nature Reviews Physics上的综述——《On Scientific Understanding with Artificial Intelligence》。
人工智能机器可以从他们行动的结果中进行学习来提高自己的能力,但专家说这种特性可能会导致 AI “不能被阻止”。 现在, 一组人工智能研究人员已经开发出了一个系统,他们将这个系统比作《黑衣人》(Men in Black)电影中的“记忆消除器”(neuralyzer),通过删除部分记忆来阻断人工智能,同时又不影响它的学习方式。 具有人工智能的机器可以从自己的行为结果中学习,以提高自己的能力。但专家表示,这个特点可能会导致人工智能“无法被终止”。现在,一组人工智能研究人员已经开发了一个系统,他们把这个系统比作电影
每当别人跟我提起“无人驾驶”汽车技术如何强大,又被大众赋予了怎样的期待,我都会想起HBO电视剧Silicon Valley《硅谷》中的一个情节:
随着机器学习和人工智能的发展,似乎每个人都想进入这一领域,人工智能承诺提高准确性、速度、可伸缩性、个性化、一致性和业务各个领域的清晰度。有了这些优势,为什么有些企业在前进的道路上犹豫不决呢?
本文系黑龙江省哲学社会科学学科体系创新计划专项“智能生活的社会人类学研究”、国家社会科学基金一般项目“质量视野下的网络美好生活指标体系的建构”的阶段性成果,项目编号分别为:19HSH012、18BSH032
原文标题:Artificial Intelligence: A Child's Play
军方需求催生了人工智能。 为了解读军用人工智能的现状,我们精心制作了一期《机器人战争》的视频,预计周末将在全网首播。 霍金在AI公开信中大力反对的“自主攻击武器”,美国海军正在加紧研发。这一无人监控和
对人工智能模型进行训练的同时,还需要进行多阶段任务,以充分利用训练数据,获得满意的结果。为了保证人工智能模型的性能,本文列出了六个需要避免的常见错误。
当今世界上最著名的物理学家史蒂芬·霍金近日撰文警告人工智能(AI),其表示人工智能将是“人类历史上最重要的事件”,同时也将是“最后的事件”。 在英国《独立报》发表的专栏文章中,霍金和其他科学家们认为,忽视人工智能的危险可能是“人类历史上最严重的错误”,而且没有对可能包含的风险进行充分的研究。 文章列举了几种人工智能领域的成就,包括无人驾驶汽车,Siri和赢得“Jeopardy”的计算机。然而,“类似的成就在未来几十年其将带来的后果面前可能会显得很苍白。” 科学家们继续表示,“潜在益处是巨大的,文明提供的一切
未来,人工智能将大展身手,为使美国做好准备,白宫发布了一份关于人工智能未来发展方向及思考的报告,名为《为人工智能的未来做好准备》(Preparing for the Future of Artificial Intelligence)。该报告分析了人工智能的现状、现有应用和潜在应用、以及人工智能发展对社会和公共政策提出的问题,主要内容包括: (1)人工智能在公共事业中的应用 人工智能和机器学习最有前景的应用之一是其有助于应对世界上某些最严峻的挑战和改变最低效的工作方式,从而改善人们的生活。公共部门和私营部门
快思考是一种应激性、无意识且快速的的行为,它不怎么费脑力,没有感觉,完全处于自主控制状态。
不管什么,谷歌助理都能做到。从打开电灯、设置提醒、令人信服地模仿人类说话等,在日常工作中人工智能助手的能力是如此强大,令人恐惧。不过,它最新的(非官方的)能力有点险恶。艺术家亚历山大·雷本(Alexander Reben)最近教数字助理开枪。幸运的是,受害者是一个苹果,而不是一个活着的生物。这段时长30秒的视频名为“谷歌shoot”,显示Reben说“OK谷歌,激活枪”。仅仅过了一秒钟,一个蜂鸣器响起,枪声响起,助手回答说:“当然,打开枪。”从表面上看,这段视频并没有给人留下深刻的印象——没有什么视觉上引人
2016年3月, Alpha Go与李世石的一盘棋将人工智能带入了普通人的眼前,一时间人工智能大热,各个领域都在大谈人工智能。人工智能已经着实走进了我们的工作与生活中。2017年10月,机器人索菲亚(Sophia)成为沙特阿拉伯的公民,在很长一段时间里,索菲亚这样的人工智能机器人都停留在科幻作品里。 “大脑”中的计算机算法能够帮助它快速识别面部,并和人进行眼神交流。不止如此,索菲亚还能理解语言和记住与人类的互动,包括面部。换句话说,她会变得越来越聪明……它的创造者大卫•汉森说:“她的目标就是像任何人类那样,
导读:人工智能已经正式走入主流。美国市场研究公司Gartner已经连续第二年将人工智能列为第一大战略性技术。 谷歌 ( 微博 ) 、 IBM 、Salesforce和苹果等公司对私有人工智能公司的收购也在不断升温——2016年就有40笔与人工智能相关的收购交易。我们的研究也发现,62%的大企业将在2018年前使用人工智能技术。本文将带来5个对于2017年人工智能的预测。 1、加速向对话界面转型 许多具有创新精神的科技巨头最近采取的措施表明,今后一年,通过语音与科技展开互动将成为常态。但对话界面真的那么重要
Identity Digital域名 注册专场部分域名直降120元 点击直达 人工智能(AI)聊天机器人在全球范围内风靡,2023年将成为越来越多人关注的技术。OpenAI于2022年的最后一个季度发布了ChatGPT,这促使许多公司、组织和个人进入这一领域。甚至科技大亨埃隆•马斯克(Elon Musk)也加入了关于人工智能聊天机器人的讨论,并强调了这项技术的潜在好处和风险。谷歌也宣布了自己的人工智能聊天机器人Bard。 人工智能(AI)聊天机器人在全球范围内风靡,2023年将成为越来越多人关注的技术
2018年,Yann LeCun:人工智能缺乏对世界的基本认识,甚至还不如家猫认知水平。
美国时间2017年12月12日上午9点,电气电子工程师协会(IEEE)于全球发布了第2版的“人工智能设计的伦理准则”白皮书("Ethically Aligned Design" V2)。北京时间12月12日晚上10点,IEEE官方概要译文也同步在中国发布。IEEE白皮书概要的官方译文如下: 📷 《人工智能设计的伦理准则》(第2版) 概要 简介 随着自主和智能系统的应用和影响无处不在,我们需要建立社会与政策方面的指南,从而确保这些系统以人为本,并服务于人类价值和伦理准则。为了能够以积极的、非教条的方式推动自主
3月10-11日,我国首个AI安全高端闭门论坛——“北京AI安全国际对话”在北京颐和园成功举办。本次对话由智源研究院发起,智源学术顾问委员会主任张宏江与图灵奖得主Yoshua Bengio担任共同主席。Geoffrey Hinton、姚期智、Stuart Russell、傅莹、张亚勤、薛澜等30余位专家参会。
扎克伯格希望于一个 AI 系统来对抗虚假账户、假新闻以及用户隐私滥用问题。他可能忽略了,剑桥分析投放的内容,正是通过 Facebook 的算法分发给用户的。
本文介绍了俄罗斯推进“杀人机器人”计划,引发广泛关注和争议。文章指出,自主武器系统在战争中的使用将导致混乱和破坏,同时也会带来道德和伦理问题。俄罗斯方面表示,全面禁止使用自主武器系统是不合理的,因为这将阻碍科技公司开发有益于人类的民用AI系统。因此,禁止使用自主武器系统在战争中使用是不现实的。
作者:全月 【新智元导读】11月,在日内瓦举办的联合国特定常规武器公约会议上,一段骇人听闻的视频发布,视频中类似杀人蜂的小型人工智能机器人通过面部识别系统辨别射杀对象,迅敏将其击毙。尽管只是一个演示,但这款“杀人机器人”迅速引发广泛关注。同时,为了督促各国政府制定监管而展示的这段视频,似乎并没有在俄罗斯那里取得成效,俄罗斯对联合国提议的禁止致命自主武器系统(LAWS)采取强硬态度,表示无论如何都会造成杀人的僵尸。 上个月,联合国在特定常规武器公约会议上发布了一段“杀人机器人”视频,强烈呼吁AI技术巨大的危害
领取专属 10元无门槛券
手把手带您无忧上云