欧盟在4月8日发布了一系列关于如何发展AI道德的指导意见。不同于阿西莫夫的“机器人学三定律”,它们的目的并不在于提出一个大的框架来阻止AI变身杀人机器,相反的,它们旨在解决当AI融入了医疗、教育、消费等领域,真正成为人类生活的一部分后,会给社会带来的一些模糊、分散的细节问题。
2023年8月26日,集智俱乐部与腾讯研究院共同举办“AIS²系列学术报告和研讨活动”沙龙,共同提出AIS²倡议,意指AI+Society与AI+Science这两大如火如荼的前沿领域,并预言人工智能即将在跨学科研究中形成的集体涌现。
8月26日,集智俱乐部与腾讯研究院共同举办“AIS²系列学术报告和研讨活动”沙龙,共同提出AIS²倡议,意指AI+Society与AI+Science这两大如火如荼的前沿领域,并预言人工智能即将在跨学科研究中形成的集体涌现。
从《2001:太空漫游》到《黑客帝国》,电影和科幻作家一直都在提醒我们要警惕人工智能,因为它们随时都有可能背叛人类甚至毁灭人类。随着人类在人工智能领域不断取得突破,这种担忧正在越来越多地被人们提及。
日前,欧盟委员会(EC)任命的人工智能高级专家小组(AI HLEG)发布了一份内容长达37页的AI开发和使用道德草案——可信赖AI的道德准则草案(Draft Ethics Guidelines for Trustworthy AI)。其中提出,可信赖AI应该具备两大要素,以及AI不可为的基本原则。
《人工智能伦理建议书》明确了规范人工智能技术的10大原则和11个行动领域,是迄今为止全世界在政府层面达成的最广泛的共识,是全球人工智能发展的共同纲领,并将为进一步形成人工智能有关的国际标准、国际法等提供强有力的参考。
作者 | 量子位 李林 今天AI领域都在谈论一件事。DeepMind表示,很自豪成为Asilomar人工智能原则的签署者,这是一个AI和伦理方面的重大进步。而硅谷钢铁侠伊隆-马斯克指出,顶级的AI研究人员在人工智能发展方面达成一致:开发对人类有益的人工智能。 这个原则在今年的Asilomar大会上达成。细节如下: 研究问题 1)研究目标 AI研究的目标,不是创造不受指导的智能,而是创造有益人类的智能。 2)研究资助 对人工智能的投资,应确保相关研发是有益人类的,包括计算机科学,经济学,法律,伦理和社会研
【新智元导读】周三,2000多名AI学者在斯德哥尔摩IJCAI上,马斯克、哈萨比斯等2000多人签署宣言:决不允许杀人机器人出现!誓言绝不将他们的技能用于开发自主杀人机器。这场宣誓行动由泰格马克创办的未来生命研究所发起。泰格马克将亲临北京参加9月20日新智元AI WORLD 2018 大会,与周志华、陶大程、陈怡然等AI领袖一起关注机器智能与人类命运。大会官网:
BAT大佬首度合影 导语: 4月2日,2017中国(深圳)IT领袖峰会正式开幕,在高端对话环节,腾讯董事会主席兼首席执行官马化腾、百度创始人、董事长兼首席执行官李彦宏、微软全球执行副总裁沈向阳与神州数码控股有限公司董事局主席郭为围绕“人工智能:中国机遇与挑战”为主题,进行了对话。 马化腾 发展AI,四大要素缺一不可 马化腾介绍,腾讯在业务层面,比如社交网络业务、后台数据分析等都已经用上人工智能,只是大家感受不到,这是在后端,现在腾讯想在前端做出一些产品。对于腾讯是否有可能将业务数据开放出来给创业公司使用
编者按:本文编译自eetimes,作者Semir Haddad是MicroEJ的首席产品官。
在未来,人工智能可以超越人类、甚至奴役人类,但如果我们不在人工智能领域取得进步,我们的未来可能会变得更糟。
7 月 2 日上午,TechCrunch 国际创新峰会杭州站今日于云栖小镇国际会展中心举行,会议主题为“不仅仅是独角兽(BEYOND UNICORN)”。阿里巴巴集团技术委员会主席、阿里云创始人王坚出席了会议,并参加了主题为“对话:城市大脑”对话环节。
中国信息通信研究院与腾讯研究院AI联合课题组 作 者:Danit Gal 腾讯研究院科技政策分析师 译 者:孙 那 腾讯研究院研究员、博士后 李金磊 腾讯研究院助理研究员 人工智能是人类进入信息产业革命时代,达到的认识和改造客观世界能力的高峰。人工智能的大规模应用与机器人技术发展的日新月异,将在未来带给人类社会前所未有的巨大冲击。联合国作为全球最重要的国际组织,在2016年最新发布的人工智能报告中,表达了其对于人工智能的关注;同时为应对人工智能
机器之心报道 编辑:泽南、小舟 通用人工智能的出现可能只是技术发展历程中的一个小节点,因为 AGI 或许可以加速自身的进步,从而以指数方式扩展能力。 在 ChatGPT 引爆科技圈之后,人们对于先进技术产生了更多期待,但一直有专家警告 AI 可能造成的危害。我们知道,OpenAI 的使命是确保通用人工智能 —— 比人类更聪明的 AI 系统,能够造福全人类。本周五,这家公司发布了「AGI 路线图」,详细解释了这家前沿研究机构对通用人工智能研究的态度。 在路线图中,OpenAI 对新技术的发展有了更加谨慎的态度
在汽车制造领域,特斯拉一直被视为行驶安全和尖端技术的领导者。近年来,随着AI技术的不断进步,哪怕是坚持“AI威胁论”的特斯拉CEO马斯克,也还是加入了这场AI大部队,搞起了自动驾驶技术。但俗话说得好,
在这之中,有很多人其实对人工智能是持有怀疑态度的,或是无神论者或是有神论者,持有这种观点的人都是大有人在。
8月23日上午9时,首届中国国际智能产业博览会(简称“智博会”)将在重庆悦来国际会议中心开幕。智博会从2018年起,每年在重庆市举办一届,主办单位为科技部、工业和信息化部、中国科学院、中国工程院、中国科协和重庆市人民政府。
而普通的打工人在AI巨浪扑来之时,如何能保住自己的饭碗,或者至少在心态上保持放松,从而能找到属于自己的出路。
传说地球上本没有火种,那时人类的生活非常困苦,没有火烧烤食物,也没有火来照明。普罗米修斯造福给人类,冒着生命危险,从太阳神阿波罗那里偷走了一个火种,给人类带来了光明。但他殊不知,火种带给人类的不只是光明,还有更多的麻烦。
现阶段,人工智能的发展速度已经超出了人们最初的预想,用 AI 工具写文章、编代码、生成图片、甚至是生成一段电影级别的视频…… 这些在以前看似非常艰难的任务,现在只需用户输入一句提示就可以了。
【腾讯科技编者按】亚隆·兰尼尔(Jaron Lanier)被公认为虚拟现实的奠基者,对当代科技行业的发展有着巨大的影响力。兰尼尔的成果被认为是虚拟现实技术的基础,他推动了沉浸式虚拟人物、虚拟现实头显和配件的发展,并且参与了医疗影像和手术模拟技术的早期探索。他还推广了“虚拟现实”这个大的概念。 📷 亚隆·兰尼尔 兰尼尔不仅是程序员和发明家,也是多产的作家和技术评论家。他近期出版的新书《新事物的黎明》回顾了他在新墨西哥州的成长经历,20世纪80年代在硅谷开创虚拟现实,以及与杰出学者、评论家、科学家和开发者的合作
【新智元导读】本文探讨了智能演化以及未来超级智能及其认知、形态的可能,以及超级智能 AI 与人类的关系。作者认为,从生物智能到“后生物”智能可能是宇宙中的一种基本过程。没有意识也能发展出超级智能,认为非要拥有“意识”才产生智能,自然就会用消极的观点看待智能的发展。超级智能可能由生物材料构成,但不一定拥有意识,因此也就可能用完全不同的方式判断人类的价值,所以不能排除超级智能 AI 威胁人类的可能。而对于人类来说,研发不具有意识的 AI 才是合理的选择——有意识的机器在人类通过意识去判断的标准下,会带来一系列问
---- 新智元报道 来源:Fortune、Wired 作者:张乾、肖琴 【新智元导读】最近,哈佛大学教授Steven Pinker指责马斯克一边高喊人工智能会威胁人类,一边又做自动驾驶,是自相矛盾。马斯克在推特上隔空回应:Pinker并不懂通用人工智能和狭义人工智能的威胁。很多人也存在“非黑即白”的偏见。此外,前谷歌CEO施密特也认为,至少在下一个十年,机器还不可能奴役或消灭人类。 世上并没有那么多非黑即白的事情。 马斯克一边高喊人工智能是人类威胁,一边又在做L5自动驾驶,很多人认为他这
最近火热的央视节目《朗读者》可谓电视节目中的一股清流,汇聚了今年很多“催泪大戏”,麦家、徐静蕾、倪萍等人纷纷登台朗读……舒缓的背景音乐,深情地朗读、动人的故事,节目似乎总有一种力量,让人泪流满面。 名家名篇、文化故事、人生感悟从来都是《朗读者》的标配,而这位少年一上台,却让《朗读者》画风突变,他为我们深情诵读了一段《哈利·波特与死亡圣器》。 视频来源:央视《朗读者》 喜欢柯洁的朗读,文化的温度与科技的质感,伴随他温润的朗读声流淌心间,节目中,最可爱的一点是,当他朗读完毕时,董卿调侃说:我觉得最后“伏地魔
随着科学技术和互联网的发展,地球已经变成了一个小小的地球村,人工智能领域也迅速发展,特别是在中国“2025智造”提出后,国内的人工智能领域也掀起一段热潮。面对发展如此迅速的人工智能,既有利,也有弊。随着科技的发展,我们的生活变得越来越方便。然而任何事物都有它的两面性。当然人工智能也不例外。
这只武装机器狗名叫SPUR(特殊用途无人步枪系统,Special Purpose Unmaned Rifle),它是第一只搭载了杀伤性武器的机器狗,刚一面世就立刻引起了巨大争议。
中国国家新一代人工智能治理专业委员会17日在北京发布《新一代人工智能治理原则——发展负责任的人工智能》,明确提出和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八项原则。
AI 科技评论按:由清华大学 AI 研究院张钹院士和清华大学唐杰教授联合发起的「AI Time」science debate 第一期,于 5 月 31 日圆满落幕。出席嘉宾还包括中国人民大学高瓴人工智能学院院长文继荣和搜狐网产品技术总监杨田等人,就主题「AI 安全与伦理」展开了激烈的辩论。近来,由 AI 人脸合成技术带来的一系列问题已引起了社会的广泛关注,而 AI 究竟应该如何发展?AI 革命应做出怎样的贡献?对于这些问题进行深入探讨,刻不容缓。
今天在人工智能联合会议期间,生命未来研究所宣布已有超过2400名个人和160家公司和组织签署了承诺,宣布他们“既不参与也不支持开发,制造,贸易或使用致命的自主武器”。代表90个国家的签署国也呼吁各国政府通过法律来反对这类武器。谷歌DeepMind和Xprize基金会是签约的团体之一,而马斯克和DeepMind联合创始人Demis Hassabis,Shane Legg和Mustafa Suleyman也做出了承诺。
作者|任杰,邱猛,Aileen “一个好的未来是什么样子?” 特斯拉首席执行官伊隆·马斯克(Elon Musk)在加利福尼亚州阿西洛马的Beneficial AI会议上发言。 “我们正走向超级智能,亦或是人类文明的结束。” 全球2000多人,包括844名人工智能和机器人领域的专家联合签署了23条AI发展原则,呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。 宇宙学家斯蒂芬·霍金和特斯拉首席执行官埃伦·马斯克本周公开大力支持了一系列原则,用以确保拥有自主思考能力的机器保
来源:Futurism 作者:张乾 【新智元导读】这个周末,来自IBM、Facebook、亚马逊以及联合国等全球50多位顶尖思想家、各级政府官员和AI参与者悄悄开了一场闭门会议,讨论了AI给人类社会带来的挑战,并试图寻找解决方案。会议并没有达成有成效的结果,但这有可能是全球共同治理人工智能的开端。 当人类不再是地球上最智慧的生物的时候,人们的担忧就开始了。 这个周末,一个人关于工智能全球治理的闭门会议悄悄召开,会上聚集了包括IBM、Facebook、亚马逊以及联合国等全球50多位顶尖思想家、各级政府官员和A
Q1:您认为人工智能是否具有向人文领域进军发展的必要?如果文学情感表演已经被取代,这是否意味着人类文明的颠覆?以及如果人工智能已经达到认知智能的阶段,使它能够思考并构建出更加科学的哲学基础体系会发生什么?会导致什么样的结果?—— T2 邓煜舒
韩国著名大学——韩国科学技术院(Korea Advanced Institute of Science andTechnology,KAIST)于2018年2月设立了一个从事人工智能武器研制的实验室。2018年4月,全球50名顶尖学者联合宣布将采取多种行动以抵制KAIST这一行为。
一直以来,关于AI技术和AI伦理的争辩从未停止,这也是不断有“技术向善”诉求表达出来的社会现实背景。
【新智元导读】2016全球青年大会(GYL)“人工智能的未来”平行论坛7月31日在北京空管科技交流中心举行。本次论坛由新智元创始人杨静主持,出门问问CEO李志飞、碳云智能科技创始人王俊、驭势科技创始人兼CEO、前英特尔中国研究院院长吴甘沙、搜狗公司CTO杨洪涛担任对话嘉宾。杨洪涛表达了对人工智能的未来开源趋势的肯定,他坚信智能医疗等应用将成为产业刚需和创业热点。李志飞认为,随着深度学习平台的开源,创业者也可以很方便地运用到最先进的算法和大数据,这对各领域人工智能应用的垂直拓展提供了更多机会。吴甘沙也表达了类
数据猿导读 蓝驰创投合伙人朱天宇称,不论是医疗、金融、工业还是服务业,未来都需要与大数据、云计算和人工智能协同并进,它们是开启未来的钥匙。而对于大数据公司来说,蓝驰更加看重拥有实际应用场景,并且可以一
比如,打个响指就把房间变成撩妹粉的神器,又比如,用计算机视觉识别老板出现的boss探测器。
我们可以很容易的想到很多的场景,其中人工智能给人类带来了灾难。让我们回到最本真的思考,回到当初人类为什么要创造出人工智能(in the first place)。
作者:吴怀宇 2023年6月14日,欧洲议会全体会议表决通过了《人工智能法案》授权草案,标志着该法案将进入欧盟立法严格监管人工智能技术应用的最终谈判阶段。欧洲议会此前曾发出声明,这部提案如正式获得批准,将成为全世界首部有关人工智能的法规。欧洲议会于当天还投票决定了禁止实时远程生物识别技术,例如不能在公共场合进行实时人脸识别,并对ChatGPT等生成式人工智能工具增加更多安全控制措施,提出新的透明度要求,以确保人工智能的研发和应用符合欧盟权利和价值观。 该法案的一个突出特点是注重基于风险来制定监管制度,以平衡人工智能的创新发展与安全规范。法案将人工智能风险分为四级,“部署潜意识或有目的操纵技术、利用人们弱点或用于社会评分的人工智能系统”因其会对人类安全造成不可接受的风险而被划入严格禁止之列。对于违规操作者,法案设定了最高3000万欧元或全球年营业额6%的罚款。 如何既“管控风险”又“促进创新”?该法案的建议是通过引进监管沙盒机制来实现,即:在人工智能系统入市或投入使用前,对人工智能系统进行开发、测试和验证以降低风险。法案还要求人工智能应用必须遵循透明与可追溯性原则,即能够解释清楚其决策的原因和依据,同时也要记录所有的交互数据和结果,通过对运行过程的透明度和完整性的监管,来保障人工智能应用的可靠性和安全性。 欧盟试图通过建立一个统一的人工智能法律监管框架,来维护其在数字主权和科技领域的领导地位,并通过这样一部综合性立法抢占全球人工智能监管先机。但统一的法律框架的局限性在于:它采用的是横向立法(试图把所有人工智能都纳入监管范围),如果不能针对特定人工智能应用领域(制定具体的法律规范),在执行层面将会面临大量的解释问题(实际的执行效果可能也会“大打折扣”)。此外,“管控风险”和“促进创新”实际上是一个动态平衡问题。 为了给人工智能立法,国外学术界先后出现了蒙特利尔宣言、多伦多宣言等多个人工智能宣言,欧盟《人工智能法案》正是在这些宣言的基础上发展而来。而因为国情的差异,中国当然不可能“在别家的地基上盖自家的房子”。令人欣慰的是,中国学者在这方面的研究成果并不落后,例如,中国科学院吴怀宇博士在北京发起了人类历史上第一个开放协议“人工智能宣言”--OpenDAI(Open Declaration of AI,官方网站http://OpenDAI.org),至今已不断迭代更新了6个版本。 吴怀宇博士认为,“风险”和“创新”之间的界限从来就不是“泾渭分明”的,东西方两大文明体的普世价值观也是“和而不同”,因此对于伦理的标准、隐私的边界等具象问题必须“求同存异”, 以保护绝大多数人类命运共同体的权利和幸福。例如,以伦理标准为例,同样将人类视为AI之父,西方是“弑父情结”(源于古希腊神话,如俄狄浦斯,有些学者认为这种反叛基因是颠覆性创新的根源),所以认为AI最终会弑人,由此产生的担忧导致了欧盟严苛的《人工智能法案》出台(同时,也不难理解特斯拉首席执行官马斯克、苹果公司联合创始人史蒂夫·沃兹尼亚克等数千名西方科技界人士联署签名,要求现在立即停止训练比GPT-4还要强大的AI系统至少六个月);而东方是“事父情结”,所以AI必须为人类服务,人为AI纲,且人与AI须和谐相处。
1 新智元原创 从10月20日起,新智元将在微信公众号(AI_era)上陆续发布2016世界人工智能大会经讲者确认后的演讲稿和PPT,敬请关注。另外,点击文末“阅读原文”,可在爱奇艺上观看大会精彩回顾。 【新智元导读】2016世界人工智能大会上,中国自动化学会理事长、中国工程院院士郑南宁院士致辞,他高屋建瓴地指出,人工智能是人类最伟大的事业,也是最伟大的梦想之一,将是未来30年对人类发展影响最大的技术革命。当下,人工智能已经成为全球先进国家的共识与行动。但是,我们不应该忘记历史的教训,保持清醒的认识,
这是一个可以预见的未来——人类被其创造的事物所奴役:就如同人们酿造好酒,酒精奴役人类的精神;人类创造计算机,而网络奴役人类的时间一样。可这又是时间万物的基本法则,在无尽的循环里中,世界维持着危险的平衡
读MBA时候的授业导师是周教授,周教授有一门颇受学生们欢迎的课程是“企业伦理学”。时隔多年,课本的内容已经还给了学校,但周老师课上的一些话还隐约记得。
---- 新智元报道 来源:网络 编辑:David、小咸鱼 【新智元导读】在上周的美国陆军协会(AUSA)年会上,Ghost Robotics 展出了灵活而动态的四足机器人 Vision 60,并配备名为「SPUR」的专用枪械,30倍变焦,射程高达1200米。这些配置及上述系统都是一家名为 SWORD International 的公司定制的。 AI机器人,终究难逃被武器化的命运。 上周,美国陆军协会2021年年会召开。会上,一款机器人武器正式亮相。这款机器人名为「Vision 60」,由Ghos
【新智元导读】世界上最有影响力的国际时事刊物之一《外交政策》(Foreign Policy)撰文称,美国若再不采取行动,将输掉人工智能竞赛,丧失全球霸主的地位。文章分析了相较于俄中两国,美国在人工智能领域的劣势和应采取何种应对措施。 大约60年前,当时的参议院多数党领袖Lyndon B. Johnson曾警告,谁赢得太空竞赛,谁就会获得对世界的绝对控制。 无独有偶,最近俄罗斯总统普京表示,“谁成为人工智能领域的领导者,谁就将成为世界的统治者。” Johnson和普京或许会被指责为过于夸张。 但是他们对技术力
欢迎转载,须署名并注明来自“刘鹏看未来”公众号,并保留本句。 某天,无人车在高速行驶过程中忽遇突发状况,不得不急转弯,左转弯大概率撞死一个违反交规的摩托车骑手,右转弯大概率会撞坏一辆兰博基尼,它该如何抉择? 📷 左转是一条人命和有限的赔偿,右转则是天价的赔偿款。 📷 相比于人类司机,自动驾驶系统的一大优势在于它没有情感,只有冰冷的预设逻辑。面对即将到来的事故,无人车不会产生恐惧,只会忠实地运行程序。这意味着类似这种极端情况下如何抉择,应当是开发者预先写好的。 📷 那么开发者应当遵从怎样的准则来编写程序,是以
在之前关于人工智能伦理主题的前一篇博客文章中,我们介绍了人工智能(AI)在提高各行业企业的速度,准确性和运营方面所做的承诺。
下面这些问题,可能在我们不久的将来(一年或者两年?)就会出现在我们身边: 1.目前人工智能正逐渐大规模地应用于医疗行业,许多疾病的诊断已经可以通过机器学习的方法来完成。但是我们设想,如果人工智能诊断出现医疗误判,最终导致医疗事故,那么谁将来承担事故责任呢?是提供技术的公司,还是医院,或者医生个人? 2.自动驾驶正逐渐上路,据各方估计在2020年之前自动驾驶汽车将进入消费市场。不可避免的,自动驾驶汽车在不熟悉的环境中可能会导致交通事故(例如2016年的特斯拉自动驾驶汽车事故),那么在这种情况下谁将承担法律
李杉 编译自 PwC 人工智能(AI)非常复杂,而且发展迅速。任何人都不可能对未来几年的发展做出准确的预测。 然而,我们却有可能对今年的人工智能趋势做出具体的预测,然后分享它对商业、政府和社会产生的
轰轰烈烈的双十一购物狂欢终于过去了,你的荷包是不是轻了好几吨?不知道你有没有被各种优惠、满减整的头晕脑胀,反正我是晕了。想想现在都已经是人工智能时代了,一二十年前商场玩的老把戏,还是有市场,真不知道应不应该为精明的商人点赞。有人说人工智能太虚,没什么落地的项目,我倒觉得购物是一个不错的切入点啊。比如人工智能预测我未来一年的购物需求,然后理解各个平台的优惠策略,然后选择最优方案,省得我们在那拿着计算器、开着比价器在那忙活半天,结果买回一堆用不上的东西。
近日,DeepMind AI 博客发表了一篇讲述他们对人工智能研究和神经科学研究协作的看法的文章,文章中表明,他们认为这两个领域的合作不仅有好处,而且同样是迫在眉睫。 在学会玩Atari 游戏、下围棋等游戏之后,人工智能也取得了不错的成绩,它们生成的对话和手写文本几乎是和人类一样,这些进步要归功于新的统计方法和计算机计算能力的不断增加等一些原因。不过,在近期发表过的一篇文章中有这样一个观点:来自实验和理论神经科学的想法对人工智能的研究也有很大的帮助,却都被忽略了。 心理学和神经学科在AI的研究历程中也有
领取专属 10元无门槛券
手把手带您无忧上云