学习
实践
活动
专区
工具
TVP
写文章

观点人工智能发展关键在“人”

值得注意是,其文中强调要“完善人工智能领域人才培养体系”目标。 ? 人工智能兼具技术属性和社会属性高度融合特点,是新时代经济发展新引擎、社会发展加速器。 人工智能领域从初始具有“智能”机器代替人力类人化发展,到对人类意识和思维过程模拟成熟人工智能,始终没有离开“人”这个最大关键。 新工业革命发展速度之快、范围之广、程度之深,势必需要以新理念、新要求、新途径推进人工智能领域人才培养体系改革。 首先,人工智能与计算机科学与技术、控制科学与工程、量子学、神经和认知科学以及人文社会学等相关学科有着不同程度交叉融合,而培养人工智能领域复合型人才势必要求打破目前专业过于细分化现状,形成有利于“人工智能 人工智能愈发彰显出其蓬勃发展动力,但掌控其发展主角始终是人,受益其发展对象也始终是人,这委实才是对人工智能发展正确姿态和开放立场。

31730
  • 广告
    关闭

    上云精选

    2核2G云服务器 每月9.33元起,个人开发者专属3年机 低至2.3折

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    观点 | 扎克伯克驳斥人工智能威胁论:马斯克观点极不负责

    但有利必有弊,特斯拉CEO马斯克就提出了人工智能威胁论,他表示在30年之内AI就会超越人类智慧,后果让人担忧。近日,FacebookCEO扎克伯格在直播时驳斥了马斯克观点。 Inc.上一篇发文详述了事情前因后果。 在看文章之前,先思考一个问题,你赞同人工智能威胁论吗? AI科技评论编译如下: 伊隆·马斯克和马克·扎克伯格有些主要共同点:他们都是硅谷知名公司CEO,并且他们公司都严重依赖AI技术。 ? 周日Facebook直播中,一位观众问扎克伯格怎么看待AI未来,并引用了马斯克评论。扎克伯格回答中虽然没有直接提到马斯克,但也表示了对马斯克观点不满。 ? 对于那些赞成将AI技术进展放慢的人,我觉得他们想法很有问题。我很难理解他们是怎么想。” 在为AI辩护过程中,他特别提到了自动驾驶汽车。“车祸仍然是导致人类死亡一个主要原因。”

    65680

    达沃斯群英纵论人工智能,核心观点汇总

    其中,“人工智能”依旧是本届年会上热点话题,几天以来,来自不同领域精英纷纷发表了自己对于人工智能看法。 ▌马云:人工智能应该支持人类,技术应该做一些让“人不会伤害人”东西 “面对人工智能、大数据,目前不少人将其发展看作是对人类一种威胁”,针对这种看待技术发展与人类发展矛盾观点,马云指出,人工智能应该支持人类 ▌另附李飞飞关于达沃斯论坛上人工智能话题讨论总结全文: 这是我从达沃斯2018世界经济论坛回来后关于人工智能讨论一些总结。 在一场晚宴上,我还和可能是全球第一位“人工智能部长”畅谈了很久(他来自阿联酋国)。 人工智能对工业转型重要角色以不容置疑。 希望高高身在达沃斯世界领袖们能记得,无论他们在达沃斯做了什么样决定和协议,都将对地球上千千万万个像海蒂孩子们未来有着深远影响。 注:以上观点均摘自公开媒体报道。

    43780

    观点人工智能黄金时代即将到来吗?

    当然,如果没有它们,我们也很难达到生产自动化。 在此之前人工智能经历了一段漫长改革复兴时代。 就在今年Telsa推出了一款适用于任何车型自动行驶仪,这让谷歌和Facebook看到了人工智能(以下简称为“AI”)巨大发展前景。 因此他们在对这一块做了很多调查讨论后宣称要在人工智能这一块继续寻求更大发展可能。 最近机器人取代了两项人类工作,包括电子游戏机和股票交易。 通过对18名在计算机及机器人领域专家学者以及相关调查人员报道中我们可以感受到人工智能带给人们生活上广阔便利。相信在不远未来我们都可以感受到机器人带给我们无穷魅力。 Michael Littman 曾说道:“人工智能技术已经成熟到可以像成年孩子那样玩电子游戏了。” 相关工作人员利用电脑系统将人工智能应用到游戏当中。我认为这是一件很酷事情。

    35230

    中学生观点——如何对待人工智能

    文章逻辑清晰,观点明确且颇为可取,远较大量不知所云人工智能威胁人类“网文更有阅读价值。故此推荐给大家。 人工智能来袭 ? 故此,与其现在担心人工智能所造成威胁,不如先仔细思考一下,人工智能现在可否有一点点造成威胁可能性。 对于人工智能威胁,或是有以下几个观点: 首先,便是人工智能可能会威胁到人类生存。 并且,在Jerry Kaplan人工智能时代》中,他指出,真正草成人类事业,不是人工智能出现,而是市场所需求技术人才和现有人才技能之间不对等。 他认为,可以采用特定技能人才培训方式,市场需要什么样的人才,就培养什么样的人才。因此,就算人工智能具有威胁,其所带来威胁,也是有解决办法。 综上所述,人工智能是不会威胁到人类生存。 作为一种工具,人工智能无好坏之分,仅在于使用方式,何来威胁之说;作为一项刚刚起步,面临着无数困难技术,在能否研究成功都是未知情况下,何谈威胁;对于所提出几点所谓的人工智能威胁,都有着相应解决方法

    39920

    观点丨为什么人工智能是中间阶层噩梦?

    但现在问题是,面对人工智能突飞猛进,从经济到产业,从政策到法律,从社会到伦理,我们真的已经做好准备了吗? 1   人工智能发展,与人类社会对它预期,其实已经偏离。   到底什么是人工智能? 但在普通人眼中,或许"终结者"那样拥有自己思想甚至情感机器人,才是人工智能典型代表。 而业界更普遍观点,是把人工智能分为三种:弱人工智能、强人工智能,以及超人工智能。 而强人工智能,将具有智能思考能力,在某些领域智能表现,接近甚至达到人类水平;超人工智能则将有可能形成对人类智能碾压。   这两者,也正是人工智能产业努力方向。    但现在,各种黑科技井喷,正在告诉我们,从弱人工智能到强人工智能之间,或许并没有一道森严壁垒。在一些领域,人工智能将达到,甚至已经悄然越过那条看不见分界线。    其中一个观点是,从历史来看,每一次科技进步最终创造就业,都超过所消灭就业,即使我们需要经历短时间内动荡与阵痛,长期创造新就业也将弥补这一且,甚至绰绰有余。   但这个观点或许过于乐观。

    57280

    观点 | Michael Jordan热文:人工智能革命尚未开启

    Jordan(他学生包括邢波、吴恩达等人)一直对于当前人工智能发展持谨慎态度。昨天,他发表前瞻性文章再次引起了人们热议。 在文中,Jordan 指出了 AI 作为一门新兴学科所面临挑战,同时也呼吁人们要以务实态度对待近期技术发展。 ? 人工智能(AI)是这个时代「咒语」。 和很多从技术领域、学界扩散到公众认知词组一样,对「人工智能」这一词组使用也伴随着大量误解。但是这不是大众不理解科学家典型案例,因为科学家也和大众一样糊涂。 尽管很多人认为这项挑战与创造「人工智能」相比不值一提,但是从更平淡角度来看(并不持有过分敬畏),这也是创建工程新分支。 不只是提供最具创新性技术观点,学术界也会把计算与统计学科研究人员与其他学科研究者结合在一起,特别是社会科学、认知科学与人文学科

    49380

    观点 | 人工智能第三定律:计算未来是模拟

    AI 科技评论按:在人工智能研究如火如荼今天,似乎也是时候回过头来思考一下模拟计算在未来所具有的意义。 从那时起,关于机器自动控制风险争论与关于数字化编程机器能力与局限性争论,就一直相伴相随。他们认为,尽管机器拥有惊人能力,但实际上它们几乎没有真正自主权。然而,这个假设是危险人工智能领域有三条定律: 第一定律被称为阿什比定律(Ashby's law),该定律由《大脑设计》(Design for a Brain)一书作者、控制论科学家 W.Ross Ashby 提出,他认为任何有效控制系统都必须和它所控制系统一样复杂 你不需要完全了解大脑是如何工作,就可以创建一个可以使用大脑模型。这确实是一个程序员和他们道德顾问对算法进行再多监管也无法弥补漏洞。能够被证明「好人工智能还是一个神话。 我们与真正的人工智能关系将永远是一个信仰(唯心)问题,而不是证明(唯物)问题。 我们过于关注机器智能,对自我再生、通信和控制等问题却不够重视。

    43940

    观点碰撞

    几周前我写了一篇文章,《对几个软件开发传统观点质疑和反驳》,微博上、独立域名博客上,还有 ITEye 网站上,都有一些评论朋友给了我许多事实和观点。 很不幸是我是后一种观点支持者,尽管这种观点经常被骂成“ 不合逻辑”。 2、你是要做工程商人吗? 你,或者你团队,才是产品上帝。用户只是会抱怨会牢骚会骂死你不负责任凡人而已。 4、工程师文化有多棒?这样公司才能做出伟大软件产品吗? 很简单,团队合作也是需要成本。在产品初创时候,团队的人越多,越做不出伟大产品来。 6、辩证法?可有时候,我们只需要一个观点,一个明确观点而已。 “Java 太垃圾了”、“ 我就是痛恨注解”、“ 微软东西是屎”…… 这些人观点太过鲜明,而且 2B 青年充斥在思考着之中,以至于大多数人都接受不了。

    11610

    观点 | 通用Digital CTO:工业人工智能所面临4点特殊挑战

    Harel Kodesh AI科技评论按:当人们提到人工智能时候,绝大多数人想到是消费级人工智能,但事实上,人工智能在工业和制造业领域也拥有广泛运用。 近日,通用电气数字业务(GE Digital)首席技术官(CTO)Harel Kodesh接受专访时谈到了工业人工智能与消费人工智能四大区别,并且对工业人工智能所遇到困境进行了分析。 在提到工业和制造业人工智能时候,人们第一反应是机器人。 Kodesh强调:“我们可不是从你舒适和安全书房电脑中获取数据。” 2、工业人工智能在终端运行,而不是云端 消费级数据是由看起来拥有无限容量云计算集中处理。 深海石油钻井平台 3、单次预测花费超过1000美元 尽管错误数据量巨大,终端处理能力也有限,但工业人工智能依然需要表现非常准确。

    64270

    观点 | 通往通用人工智能路上,我们少不了无监督学习

    虽然一些科学家认为,拥有足够包容训练体制,如使智能体具备完成各类任务能力,就应该足以达到通用智能水平,但其他人则认为真正智能需要更多独立学习策略。 这与我们大脑处理信息方式非常相似,在初级感官处理区域简单边缘和纹理被聚合成复杂对象,如更高区域中面部。因此,复杂场景表示可以由视觉基元构建,这种方式大致类似于构成句子单个词所带来意义。 理论上,塑造了对于世界正确内部表征的人工智能体,应该能够做类似的事情。 尽管如此,AlexNet 等分类器所学到表示仍具有局限性。 生成式模型目的是建立一个基础类,并能够从中抽取数据模型:不是特定马或彩虹照片,而是马和彩虹所有照片集;不是来自特定发言者特定表达,而是说话表达方式通用性分布。 语言建模最新进展是能够生成看似合理段落,例如下图所示 OpenAI GPT-2 生成段落。 ?

    28220

    观点 | 网络军备竞赛即将开始,如何制定人工智能国际准则

    但是,各个国家在纷纷制定人工智能发展战略同时,却也在忽视「国际法」建立——而网络世界已经和陆海空一样成为了很多组织,甚至国家之间对抗「战场」。 人工智能可能会改变该活动形态。网络攻击和防御正在变得更快、更精准,破坏力也更大。网络威胁可以在数小时内解决,而不再是几天或几周。人工智能已经被用于验证代码、找出 bug 和漏洞。 2016 年,人工智能在网络安全领域中价值是 10 亿美元,预计 2023 年其价值可达到 180 亿美元。 2017 年 7 月,中国国务院印发了《新一代人工智能发展规划》。在战场和网络中应用人工智能技术是该战略重要组成部分。但目前尚不清楚中国会以何种程度将人工智能部署到网络防御中。 俄罗斯尚未发布任何有关其 AI 防御策略公开文件。然而,在 2017 年一次公开视频中,总统普京提到了人工智能,并表示:「在这一领域领先国家将会成为世界领导者。」

    53860

    观点】Facebook人工智能组研究员田渊栋:关于面试

    发大量二流三流会议和Workshop文章只会减分,烂文越多减得更多,到最后没人会花时间去寻找沙砾中珍珠,这时候面试者就算有点长处都会被埋没。 其次是要看成长。 如果一直在低水平徘徊,那是巨大问题。 长期连续工作是很重要。比如在第一篇文章里吹牛吹得很好,但接下来没有后续了,或者改换别的方向了。 每个方向都挖点坑,跟个风发两篇,但总没有原创性工作,没有长期坚持目标,没有能最终解决问题,这些都是会被人诟病。 第二个极其重要部分是演讲。 每个人都有自己方法论和哲学,都有自己想要做成东西,最后能不能成,一个必要条件是看有没有及时自省勇气,和坚持到底决心。 在孤独研究路上,合作者可以有很多,但对于核心价值观追求,没有人可以帮太多,只有靠自己,动力足不足,方向对不对,对自己工作有没有发自内心高标准严要求,对研究机构长远发展而言是非常重要

    47440

    观点 | 人工智能应该如何监管?华盛顿大学教授 Oren Etzioni 给出了他人工智能三定律”

    ,讲述了他对人工智能监管看法。 Oren Etzioni 在文中提出了他心中人工智能三定律”,AI 科技评论将文章编译如下。 马斯克坚持认为,人工智能是对人类生存“潜在威胁”,如同科幻作品中的人工智能,是一个令人担忧观点。不过,即使是像我这样研究人员也认识到,人工智能会对武器设计,工作机会和隐私安全产生极大影响。 人们对于是否应该开发人工智能技术很自然地会产生疑问。 我相信答案是肯定。但是,为了谨慎,难道我们不应该一步一步地至少减缓人工智能A.I.开发进度吗? 这些就是你要确保管控信息。 我相信这些规则听起来还不够完整。我在这里介绍它们,只为抛砖引玉。无论你是否同意Musk先生关于A.I.进步速度及其对人类最终影响观点,很明显一点是A.I.

    50060

    观点 | 可解释的人工智能:让机器解释自己,减少算法产生偏见

    可解释的人工智能以及GDPR是否会使技术更公平?如果不是,随着机器学习使用变得更加普遍,我们还有什么替代方法可以防范偏见? 而这就是可解释的人工智能用武之地。如果操作人员能够检查「推理」算法,就有可能在算法产生严重偏差之前进行纠正。 所以当人们想验证决策正确性时并不会去扫描大脑,而是通过相关数据以及过往经验判断。) 可解释的人工智能要求机器学习算法可以自己证明决策正确性。 更好解释这些算法决策并加以监督,显然将有助于避免此类不良结果。 人们还需要做什么 虽然可解释的人工智能和神经网络特征归因很有发展前景,但消除人工智能偏见最终会归结为一件事:数据。 从某种意义上说,减少机器学习算法中偏见不仅需要人工智能进步,还需要我们对人类多样性理解进步。 ?

    61530

    观点 | 人工智能三个阶段:我们正从统计学习走向语境顺应

    因此,在你改变职业之前,或者决定使用人工智能扩展业务时,让我们首先对人工智能做一个鸟瞰,以帮助理解我们所处位置以及未来走向。 ? 人工智能三个阶段 我们倾向于把人工智能看做新事物,尤其是新技术以及和深度学习相关新技巧。然而,人工智能已经过数十年发展,否认过往成功似乎不合逻辑,因为技术总是不断向前发展。 当我费力向其他人解释人工智能之时,我不断为预测分析寻找一些分界线,这些分析我们已经实践了相当一段时间,也是大众对人工智能持有的观点。 最近我读到了一本名叫《人工智能三次浪潮(Three Waves of AI)》书,作者是 DARPA 信息创新办公室主管 John Launchbury,他从一个更长远和宽广视角,将人工智能历史与未来划分为了三个阶段 语境顺应(Contextual Adaptation)阶段 Launchbury 观点对我帮助极大。尽管阶段(ages)比喻很有用,但是这很容易让人误解为一个阶段结束了下一个阶段作为替代才开始。

    91590

    观点 | Geoffrey Hinton:放弃反向传播,我们的人工智能需要重头再来

    》);三十多年后,这篇论文成为了人工智能爆发中心。 Hinton,这位多伦多大学荣誉退休教授兼谷歌研究员,说道他现在「深度怀疑」反向传播,正是这一笨重方法催生出了当今 AI 领域绝大多数进展,包括图像与语音识别。「我观点是摈弃一切,从头再来。」 axios 文章中 Hinton「摈弃一切,从头再来」观点,在推特上引起了热烈反响,Pedro Domingos、李飞飞等多人转推。 因此,基础研究继续异常重要。」Gary Marcus 也对这一观点做出了回应:「深度学习并不完美,我们需要另起炉灶。Hinton 佐证了我二十年前讲过这句话。」 研究人员提出容器(capsule)概念正是 Hinton 对于未来人工智能形态探索。不可否认是,在无监督学习道路上,我们还有很长一段路要走。

    767100

    扫码关注腾讯云开发者

    领取腾讯云代金券