11月26日,由英国国家网络安全中心(NCSC)、美国网络安全与基础设施安全局(CISA)联合美国国家安全局、美国联邦调查局以及澳大利亚、加拿大、新西兰、德国、法国、日本等10余个国家的网络和/或信息安全部门发布了“安全的人工智能系统开发指南”(Guidelines for secure AI system development [1])。亚马逊、微软、IBM、google等10余家机构参与了指南的制定。该指南旨在为使用人工智能(AI)的任何系统的提供商提供指导原则,帮助提供商构建能够按预期工作、在需要时可用、在不泄露敏感数据的前提下工作的人工智能系统。本文对其主要内容进行解读,以供普通读者阅读了解。人工智能专家或人工智能系统开发人员可根据需要,参阅原文[1]以获取更详细、全面的信息。此外,指南的末尾注记中列出的资料可作为延伸阅读材料,感兴趣的读者可以自行参阅。
美国国家标准与技术研究院 (NIST) 近日发布了有关对抗性机器学习 (AML) 攻击和缓解措施指南, 呼吁人们再度关注近年来人工智能 (AI) 系统部署增加所带来的隐私和安全挑战,并表示这类系统目前没有万无一失的方法进行保护。
Designing explainable artificial intelligence with active inference: A framework for transparent introspection and decision-making https://arxiv.org/abs/2306.04025
李杉 编译自 Google Blog 量子位 出品 | 公众号 QbitAI 机器学习技术在过去几年取得了快速发展,技术能力大幅提升——语音识别更精准,图片搜索更迅速,翻译效果也更好。但我们相信,人工智能的潜力不止于此。如果我们从一开始就把人的因素融入系统,它的实用性将会更强。 我们今天宣布People+AI Research Initiative(PAIR)项目。 该项目会将谷歌内部的研究人员集合起来,研究并重新设计人与人工智能系统的互动方式,PAIR的目标是关注人工智能中的“人类端”:用户与技术的关系,
🙋♂️声明:本人目前大学就读于大二,研究兴趣方向人工智能&硬件(虽然硬件还没开始玩,但一直很感兴趣!希望大佬带带)
在2021年世界人工智能大会的可信AI论坛上,陶大程进行了主题为《可信人工智能的前世今生》的报告。他在报告中表示,在人工智能的技术落地浪潮中,AI的可信度将成为一大关键难点,他还基于国内实践提出了人工智能是否可信的四个度量标准,并指出在可信AI的框架探索方面,我们还有很长的路要走。
作者|任杰,邱猛,Aileen “一个好的未来是什么样子?” 特斯拉首席执行官伊隆·马斯克(Elon Musk)在加利福尼亚州阿西洛马的Beneficial AI会议上发言。 “我们正走向超级智能,亦或是人类文明的结束。” 全球2000多人,包括844名人工智能和机器人领域的专家联合签署了23条AI发展原则,呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。 宇宙学家斯蒂芬·霍金和特斯拉首席执行官埃伦·马斯克本周公开大力支持了一系列原则,用以确保拥有自主思考能力的机器保
随着科技的快速发展,技术伦理问题日益受到关注。人们开始意识到,技术的发展不仅带来了巨大的好处,也伴随着一系列的责任和风险。本文将探讨当前的技术伦理问题,以及技术所面临的责任和风险。
人工智能(AI)和物联网(IoT)的加速融合引发了人们对物联网人工智能(AIoT)的兴趣。
政府咨询公司Booz Allen Hamilton的高级副总裁Josh Sullivan表示,美国国防部通过一份8.85亿美元的五年合同,将首次使用大规模的AI系统,该系统可以将普通任务自动化,并促进军人的工作。
Facebook人工智能研究人员创建了一对人工智能系统,能够使用360度图像,自然语言以及包含银行和餐馆等当地标志的地图在纽约市的街道上进行导航。名为Talk the Walk的研究任务和数据集是开源的,同时也开放了在Arxiv上发布的现实世界训练的初步结果。这项研究包括人工智能系统如何定位自己并比人类更好地传达观测数据。
---- 新智元报道 编辑:桃子 Aeneas 【新智元导读】眼看AI的进化速度越来越快,白宫终于出手了。拜登会见了Sam Altman、劈柴、纳德拉这些顶级科技公司的CEO,紧急应对AI引发的巨大担忧。 美国终于出手了! 当地时间周四,拜登会见了顶级AI公司的CEO们,告诉他们:你们有道德义务,保证AI产品的安全。 Sam Altman、谷歌劈柴、微软纳德拉、Anthropic的Dario Amodei参加了这场不同寻常的会议。 拜登开场非常直白,「你们正在做的事不仅有巨大的影响力,还将带来巨
随着人工智能应用的持续深入和普及,我们有必要考虑它对各种团队的影响,包括那些专注于安全、信任和合规性的团队。这些团队会遇到哪些挑战和风险,人工智能如何帮助解决这些领域的问题?本指南旨在根据HackerOne公司在不断发展的人工智能领域的经验和见解来解决这些关键问题。
《人工智能伦理建议书》明确了规范人工智能技术的10大原则和11个行动领域,是迄今为止全世界在政府层面达成的最广泛的共识,是全球人工智能发展的共同纲领,并将为进一步形成人工智能有关的国际标准、国际法等提供强有力的参考。
欢迎来到《ChatGPT:好的、坏的和丑陋的》。在本书中,我们踏上了探索 ChatGPT 多面世界的旅程,这是由 OpenAI 开发的先进自然语言处理模型。随着 ChatGPT 和类似的人工智能技术不断发展并影响我们生活的各个方面,了解它们的潜力、局限性和道德影响至关重要。本书旨在全面探讨 ChatGPT 的好的、坏的和丑陋的方面,揭示其革命性进展、潜在陷阱以及它所带来的复杂挑战。
Grok Grok 是一款仿照《银河系漫游指南》(Hitchhiker's Guide to the Galaxy)设计的人工智能。它可以回答几乎任何问题,更难的是,它甚至可以建议你问什么问题!
大数据文摘作品 转载具体要求见文末 作者 | Kate Crawford& Ryan Calo 选文|Aileen 翻译 | 陈思瑞 王婷 校对 | 周冲 Kate Crawford 和Ryan Calo认为:研究员担忧人工智能未来所带来的影响,会使得他们部署系统时分心。 芝加哥警察使用算法系统预测可能卷入射击案的人,但这些试验被证明很大程度上是无效的 上周,白宫发表了一份关于人工智能未来的报告- 是2016年5月至7月在西雅图,匹兹堡,华盛顿和纽约召开的四个研讨会的讨论结果。(点击查看) 在这些活动中
随着企业继续投资利用人工智能软件和平台功能的项目,预计全球在人工智能(AI)系统上的支出将保持强劲的增长轨迹。根据最近更新的国际数据公司(IDC)发布的《全球人工智能系统支出指南》里指出,到2023年,人工智能系统的支出将达到979亿美元,是2019年375亿美元支出的两倍半。同时IDC的专家表示:“人工智能(AI)已经远远超越了原型设计,进入了执行和实施阶段。“各行各业的战略决策者现在都在努力解决如何有效地进行AI规划的问题。
机器之心专栏 机器之心编辑部 2023 年 2 月 13 日 AAAI SafeAI 研讨会上,加州大学伯克利分校教授 Stuart Russell 和北京通用人工智能研究院(BIGAI)朱松纯教授针对 “通用人工智能、人工智能安全” 等问题进行了一场精彩对话,本场对话由加州大学伯克利分校人类兼容人工智能中心(CHAI)执行主任 Mark Nitzberg 博士主持。 Mark Nitzberg:今天我们很荣幸邀请到两位人工智能的顶级专家来参与本次 SafeAI 研讨会。 他们分别是:Stuart Rus
10月31日消息,据美国商务部官网信息,美国总体拜登于当地时间10月30日签署了一项行政命令 (EO),以建设美国评估和减轻人工智能 (AI) 系统风险的能力,以确保安全、保障和信任,同时促进创新、有竞争力的人工智能生态系统,支持工人并保护消费者。美国商务部将在实施行政命令方面发挥关键作用,将复杂的标准和评估能力与报告要求和自愿措施的强有力结合结合起来。
今天要介绍的是一筐黄瓜。 这可不是一筐普通的黄瓜。它们是由腾讯人工智能实验室AI Lab团队的成员协同国内外农业专家和学生,使用人工智能AI在荷兰一间温室里种植出来的黄瓜。 它们和我们平常在菜市场买的黄瓜有什么区别呢? 放大了图片看看... ... 其实也没啥区别。依然是大家熟悉的黄瓜,可蒸煮,可煎炒。 这筐黄瓜的诞生,要从一个国际挑战赛说起。 今年3月,荷兰著名的高等学府瓦赫宁根大学面向全球人工智能团队,发起了一场线下真人实景大型农作物养成与模拟经营类挑战赛——种黄瓜。 它设定的挑战目标是:在限定
---- 新智元报道 编辑:编辑部 【新智元导读】自监督学习入门指南,LeCun 70页论文都讲透了。 一本自监督学习全套攻略来了! 今天,Yann LeCun、田渊栋等机构的研究者共同发表了一篇70页论文「自监督学习的食谱」。 LeCun称,你曾经想知道,却又不敢问的自监督学习内容全在这儿了。 先来看看这篇论文阵容有多强大,除了Meta AI的研究员,还汇集了纽约大学、马里兰大学、加利福尼亚大学戴维斯分校、蒙特利尔大学等6所大学研究人员的智慧。 可想而知,这篇论文含金量有多足了。 论文地址:
作者|Cynthia Harvey 选文|Aileen 翻译|蒋晔 校对|汤人懿 ◆ ◆ ◆ 简介 2016年马上要迎来它的最后一个月了,这一年人工智能(AI)的热度急剧增加,并且这种趋势似乎要持续到2017年。 IDC在其《全球半年度认知/人工智能系统支出指南》(Worldwide Semiannual Cognitive/Artificial Intelligence Systems Spending Guide)中预测,人工智能的收入将从今年的80亿美元增长到2020年的470亿美元,复合年增长
---- 新智元报道 编辑:David Joey 【新智元导读】2800亿美元的「芯片与科学法案」,其实芯片只分走540亿,大头是「科学」。李飞飞任院长的斯坦福HAI分析了一波,看哪些条款与AI有关,AI行业能分多少蛋糕。 昨天,美国2800亿美元「芯片法案」正式签署,立即引发热烈讨论。资本市场给出强烈负面回应,主要芯片大厂股票纷纷大跌。 不过,无论是媒体还是市场,关注焦点全在「芯片」上,大概都忽略了这个法案的全名叫做「芯片和科学法案」。 实际上,2800亿美元中,给「芯片」的补贴加一起540多
本次报道的论文来自于Pranav Rajpurkar,Eric J. Topol等人发表在nature medicine在上的AI in health and medicine。
“ 人工智能的发展给人类带来福祉的同时,也存在巨大的风险。为了防止人工智能走向不受控制的方向,对齐技术应运而生。通过人工智能安全技术的研究与探索,我们期望在人工智能能力成熟前建立起有效的对齐机制,让人工智能能够真正为人类谋利益。本文将从人工智能对齐的困难与可能的解决方案两个方面进行介绍,以及OpenAI在这个领域的实践
据国家市场监督管理总局消息,8月5日,国家标准化管理委员、中央网信办、国家发展改革委、科技部、工业和信息化部等五个国家部门联合印发了《国家新一代人工智能标准体系建设指南》(以下简称《标准指南》)。旨在加强人工智能领域标准化顶层设计,推动人工智能产业技术研发和标准制定。
美国时间2017年12月12日上午9点,电气电子工程师协会(IEEE)于全球发布了第2版的“人工智能设计的伦理准则”白皮书("Ethically Aligned Design" V2)。北京时间12月12日晚上10点,IEEE官方概要译文也同步在中国发布。IEEE白皮书概要的官方译文如下: 📷 《人工智能设计的伦理准则》(第2版) 概要 简介 随着自主和智能系统的应用和影响无处不在,我们需要建立社会与政策方面的指南,从而确保这些系统以人为本,并服务于人类价值和伦理准则。为了能够以积极的、非教条的方式推动自主
“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注!
人工智能逐渐开始消失于无形中,可以是由外到内,反过来由内到外也正经历这一过程。人工智能技术的影响和作用对于人类来说越来越难以理解,难以感知。即便是专家们也不能完全理解一套人工智能系统是如何运作的。 实
https://www.manning.com/books/interpretable-ai
【新智元导读】不远的未来,人工智能将无处不在,即使是人类专家也无法分辨,不能理解。这对人意味着什么,对人工智能又意味着什么呢? (文/Jarno M. Koponen)人工智能正在开始变得从外面看不见里面,从里面也看不见外面。对人类在来说,对人工智能技术的运作和后果的感知和理解正在变得更加困难。即便专家也并不总是能完全理解一个人工智能系统是如何运转的。 实际上,随着人工智能技术的影响日益增加,我们对这些影响的理解能力正在变得越来越有限。这对人类的能动性意味着什么,对人工智能的未来意味着什么呢? 人工智能正
人工智能(AI)的发展带来了巨大的变革,但也引发了一系列的伦理和社会问题。在人工智能应用的过程中,我们需要思考如何确保其责任、公平性和可解释性,以保障社会的发展和稳定。本文将深入探讨这些问题,并提出解决方案。
TLDR:最后一英里的问题是实现人工智能承诺价值的最后障碍。要获得人工智能系统的好处,需要的不仅仅是可靠的商业案例、执行良好的人工智能实现和强大的技术堆栈。它通常需要人工智能和人们的合作,以提供正确的体验给客户。但是,企业通常很难做好这一点。
作者: Matthew U. Scherer 译者: 曹建峰 腾讯研究院法律研究中心研究员 李金磊 腾讯研究院法律研究中心助理研究员 来源: Harvard journal of law and technology 引言 智能机器时代,人工智能正在全方位侵入我们的生活。人工智能(artificial intelligence,简称AI)正在替代那些以前只能由具有专业知识或者获得政府颁发的许可证的人员才能完成的任务。美国一些州以
导读:人工智能已经正式走入主流。美国市场研究公司Gartner已经连续第二年将人工智能列为第一大战略性技术。 谷歌 ( 微博 ) 、 IBM 、Salesforce和苹果等公司对私有人工智能公司的收购也在不断升温——2016年就有40笔与人工智能相关的收购交易。我们的研究也发现,62%的大企业将在2018年前使用人工智能技术。本文将带来5个对于2017年人工智能的预测。 1、加速向对话界面转型 许多具有创新精神的科技巨头最近采取的措施表明,今后一年,通过语音与科技展开互动将成为常态。但对话界面真的那么重要
陈桦 编译自 DeepMind Blog 量子位 报道 | 公众号 QbitAI 人类,可以在行动之前预想到后果,这是我们认知能力中一种强大的工具。 举例来说,当我们将玻璃杯放在桌子边缘时,我们很可能
2021年8月25日,Nature Methods发表了德国慕尼黑大学David B. Blumenthal等人的一篇文章,该文章讨论了生物医学研究中AI模型的报告格式。
当代人工智能技术在给人类带来多方面福利的同时,面临黑箱、鲁棒性和可解释性等问题,发展值得信赖的可解释人工智能已成为人工智能领域的核心关切。论文在论证可解释人工智能为什么重要的基础上,对可解释人工智能的内涵进行界定,进而提出发展可解释人工智能需遵循的一些原则,它们也可看作可解释人工智能需达致的目标和要求。论文最后提出了两点关于实现可解释人工智能途径的构想。
---- 新智元报道 编辑:Britta 【新智元导读】Anthropic对于人工智能发展的安全性研究以及推论表明,人工智能系统的计算量将呈指数型增长,预计未来5年训练AI模型的计算量将增加1000倍。 自从发现缩放定律以来,人们认为人工智能的发展会像坐火箭一样迅速。 2019年的时候,多模态、逻辑推理、学习速度、跨任务转移学习和长期记忆还是会有减缓或停止人工智能进展的 「墙」。在此后的几年里,多模态和逻辑推理的「墙」都已经倒下了。 鉴于此,大多数人已经越来越相信,人工智能的快速进展将继续下去,而
2015年10月,美国人工智能发展联盟(Association for theAdvancement of Artificial Intelligence,AAAI)主席Tom Dietterich和副主席Eric Horvitz在美国计算机学会通讯(CACM)刊发联合文章,对人工智能的崛起阐述了自己的观点。 他们讨论了近年来公众和媒体对人工智能日益增加的焦虑,分析了人工智能的进展并慎重地阐述了各种风险,强调了与人工智能和其他计算机科学相关的研究,包括人机交互、验证和安全性,并呼吁更多的投资,以更好地了解和
美国计算机社区联盟(CCC)发布《人工智能的进步需要所有计算机科学的共同进步》白皮书,指出人工智能与更广泛的计算机科学之间相互影响的六大潜力领域的研发机遇,以支持人工智能的进一步发展。 1 计算机系统和硬件 开发人工智能系统中采用的核心计算程序的加速方法,例如用于训练和使用卷积神经网络执行感知任务分类的方法;开发并行性、智能缓存、使用FPGA等专用硬件等新方法,降低人工智能应用的计算成本,满足其需求和鲁棒性。 2 理论计算机科学 开发算法分析领域中的工具和技术,包括组合学、计算复杂性理论、可计算性研究。 3
美国白宫发布了《国家人工智能研究与发展战略计划》。该计划为联邦政府资助的人工智能研究确立了一系列目标。这些研究不仅包括政府进行的研究,还包括由联邦政府资助的、在政府之外进行的研究,例如学术研究。研究的最终目标是创造人工智能的新知识和新技术,为社会带来多种好处,并降低负面影响。要实现这一目标,该计划为联邦政府资助的人工智能研究确定了如下重点任务: 战略1:对人工智能研究进行长期投入 优先资助那些能推动发现和了解、保持美国在人工智能领域世界领先地位的下一代人工智能,包括:改进关于知识发现的数据方法;提高人工智能
本文探讨了人工智能在商业和日常生活中的影响,以及人们对其产生的误解。文章指出,人工智能并非如人们所想的那样强大和无处不在,事实上,它仍然依赖于人类的指导和监督。虽然基于人工智能的系统可以处理大量数据并快速学习,但它们仍然受到设计它们的价值观和假设的限制。因此,人们需要对人工智能技术有一个现实的认识,并探索其在商业和日常生活中的应用,而不是被流行文化中的错误预测所误导。
机器之心报道 编辑:张倩 汽车是 19 世纪末被发明出来的,但直到 20 世纪下半叶,不同的国家才出台了强制要求开车系安全带的法规。今天人工智能的发展,显然不能走汽车的这条路。 自去年 11 月 30 日发布以来,OpenAI 的 ChatGPT 已经在短短的三个月内席卷了各个社会领域:普通人用它当搜索引擎;办公室文员用它来写文案、做会议纪要,程序员用它来写代码。 但是,令人担忧的是,学生们也会用它来写作业。前段时间的一项调查表明,美国近 9 成的学生已经在用 ChatGPT 写作业了,有篇 ChatGPT
机器之心原创 作者:Joni 编译参与:马亚雄、黄小天 2 月 16 日,星期四,我参加了在东京举办的第五届意识俱乐部 (consciousness club)。这是一个由 Araya 脑成像公司 (Araya Brain Imaging) 的 CEO Ryota Kanai 博士组织的每周活动,这次的演讲嘉宾是 Youichiro Miyake。他是一个因为在游戏人工智能(Game AI)方面的工作而闻名的设计师,曾提出在游戏人工智能和其他先进系统中创造人工意识的初始概念。 以下是 Youichiro
最近,OpenAI刚刚放出了「模型规范」,展示了团队如何给LLM列出「条条框框」,为其提供行为指南。
当我们在谈论人工智能的时候,我们究竟在谈论什么?是“机器人超越人类阅读水平,令数百万人面临失业风向“还是“计算机的阅读能力正在赶超人类?”
如果说今天的人工智能是互联网,乃至整个信息技术领域的皇冠,那么安全无疑是皇冠的基座。就像任何新技术一样,人工智能的安全与否很大程度上影响着其未来的发展和应用。符合什么标准的人工智能才算是安全的?或者人工智能的安全主要包括哪些方面?本文拟通过对美国和英国人工智能发展战略的简要分析,介绍当下人工智能安全问题的几个主要维度。 美、英两国人工智能发展战略简介 美 国 2016年10月,美国相继发布了两份与人工智能发展相关的战略文件,《美国国家人工智能研究和发展战略计划》(The National Artifi
领取专属 10元无门槛券
手把手带您无忧上云