首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI行业盛会大咖云集!Sam Altam、“AI教父”……一文看懂最新观点

对于AI行业来说,近几日在北京举行的2023智源人工智能大会可谓是大咖云集,除了OpenAI的创始人Sam Altam外,图灵奖Geoffrey Hinton、杨立昆(Yann LeCun)、知名AI绘图软件Midjourney创始人David Holz等相继现身,大咖们的演讲对于行业未来的发展极具前瞻性。

下面一起来看下这些AI行业的顶级专家们都说了什么。

人们既渴望又害怕智能

Midjourney创始人David Holz是一名连续创业者,2011年,他创办了VR领域的软硬件公司Leap Motion,2019年把 Leap Motion 卖给了竞争对手 Ultrahaptics,2021年,又自筹资金创办了当前大火的AI绘图软件Midjourney。

David Holz表示,人工智能在我的认知中有点像身体的一部分,并且人工智能也与历史紧密交织在一起。这也让自己与历史交织在一起,这种方式很有趣。

Holz认为,Midjourney的目标之一是建造新的人类基础设施。世界将需要很多新东西,需要基础设施来建造新东西。所以我想了很多关于建立新的人类基础设施形式,就像基础设施的新支柱。所以我需要我的主题,我的支柱是反思、想象和协调。你必须反思你是谁,想要什么,想象可能会发生什么。因为这是我们在任何事情上都使用的视角,我们开始看到在图像合成领域发生了一些突破,这与我以前在人工智能领域遇到的任何事情都有质的不同。

Holz介绍,Midjourney不仅仅是学习如何使用这个工具,而是学习所有的艺术和历史,以及所有关于相机、镜头和灯光的知识。用户想要理解他们现在可以在创作中使用的语言和概念。以前,自己认为知识只是一种历史,但现在知识实际上是一种创造事物的力量。

对于人们害怕人工智能发展过快,Holz表示,人们不仅仅是害怕技术,也害怕智能。如果他们很聪明,我能相信他们吗?但另一方面,我们似乎希望世界拥有尽可能多的智能,我们似乎不想要一个缺乏智慧的世界。

AI会学会非常善于欺骗别人

深度学习泰斗、人工智能教父Geoffrey Hinton表示,现在AI发展的最大壁垒是算力问题,算力还远远不够。现在可以放弃计算机科学最基本的原则——软件应该与硬件分开,我将提到一种称为"activity perturbation"的算法,该算法可以用于训练神经网络,且节省算力。

这种算法能够预估梯度,且噪声要比传统的反向传播算法(RNN)小得多。

关于如何将这种算法应用于训练大型神经网络的问题,可以将大型神经网络分成许多小组,并为每个小组分配一个局部目标函数。然后,可以使用"activity perturbation"算法来训练每个小组,并将它们组合在一起形成一个大型神经网络,并通过无监督学习模型来生成这些局部目标函数。当硬件出现问题时,信息都会丢失,父类信息传递给子类信息,以便在硬件出现问题时仍然可以保留学习到的信息,更有效地约束神经网络的权重。"distillation"这一方法可以让子模型更好地学习到分类图像的信息,包括如何给出正确的答案以及给出错误答案的概率,而且还有一个特殊属性,即训练子模型的同时也在训练子模型的通用化能力。

Hinton指出,如果这些AI不是非常缓慢地向我们学习,而是直接从现实世界中学习。一旦他们开始这样做,将能够比人们学到更多的东西,并且他们将能够很快地学习它。

如果这些东西变得比人类我们更聪明,会发生什么?Hinton认为,这些超级智能发生的速度可能比其以前想象的要快得多。

如果你想说超级智能更有效率,您需要允许它创建子类,或多或少你都会想依靠AI获得更多的力量,获得更多的控制权,拥有的控制权越多,就越容易实现目标。Hinton发现很难看到人类将如何阻止AI试图获得更多控制权,以实现他们的其他目标。所以,一旦他们开始这么做,人类就会有问题了,它会发现通过操纵人来获得更多的权力很容易。

Hinton认为,AI会学会非常善于欺骗别人,这很可怕,现在我看不出如何防止这种情况的发生。研究人员需要弄清楚,人类如何拥有超级智能,这将使生活变得更好,而无需他们控制。

人类可能会因AI失去对世界和未来的控制

图灵奖得主、中国科学院院士姚期智认为,在考虑如何控制AI的问题前,人类需要先真正解决自身的问题。对于AI技术,当前正是一个重要窗口。在AGI被创造之前、在军备竞赛开展之前,急需形成共识,共同合作搭建一个AI治理结构。

加州伯克利分校教授Stuart Russell表示,通用人工智能(AGI)还没达到,大语言模型只是其中一块拼图,人们连拼图最终会是什么样子,缺哪些还不确定。

他表示,ChatGPT和GPT-4没有在“回答”问题,它们不理解世界。

Russell指出,最大的风险来自于科技公司之间似乎不受约束的竞争,无论风险如何,他们不会停止开发越来越强大的系统。人类可能会因AI失去对世界和未来的控制,就像大猩猩因为人类而失去了对自己未来的控制一样。

AGI的三条技术路线

北京智源人工智能研究院院长黄铁军指出,要实现通用人工智能(AGI),有三条技术路线:第一是“大数据+自监督学习+大算力”形成的信息类模型;第二是具身智能,是基于虚拟世界或真实世界、通过强化学习训练出来的具身模型;第三是脑智能,直接“抄自然进化的作业”,复制出数字版本的智能体。

OpenAI做GPT(生成式预训练Transformer模型)就遵循第一条技术路线;以谷歌DeepMind的DQN(深度Q网络,Deep Q-network)为核心取得的一系列进展即基于第二条技术路线。

智源期望不同于前两个技术路线,从‘第一性原理’出发,从原子到有机分子、到神经系统、到身体,构建一个完整的智能系统AGI。这是一个大概20年才可能实现的目标,所以智源作为新型研发机构平台,在三个方向都在开展工作。

AI未来面临的三个挑战

图灵奖得主、人工智能“三巨头”之一的杨立昂认为,机器学习和人类动物相比并不特别好,AI 缺失的不仅仅是学习的能力,还有推理和规划的能力。人类和动物通过观察世界或体验世界学习世界运作方式,应该用机器复制这种能力。

杨立昂指出,未来几年 AI 面临的三个主要挑战:首先是学习世界的表征和预测模型,可以采用自监督的方式进行学习。

其次是学习推理。这对应着心理学家丹尼尔·卡尼曼的系统1和系统2的概念,系统 1 是与潜意识计算相对应的人类行为或行动,是那些无需思考即可完成的事情;而系统2则是你有意识地、有目的地运用你的全部思维力去完成的任务。目前,人工智能基本上只能实现系统1中的功能,而且并不完全;

最后一个挑战则是如何通过将复杂任务分解成简单任务,以分层的方式运行来规划复杂的行动序列。

GPT-5的诞生“不会很快”

OpenAI创始人Sam Altman引用了《道德经》谈及大国合作,表示AI安全始于足下,各国间必须进行合作和协调。

Altman认为,很可能未来十年会有非常强大的AI系统,新技术从根本上改变世界的速度比人们想象得快,把AI安全规则做好是重要且紧迫的。

在被张宏江问及了AGI的未来,以及是否会很快看到GPT-5时,Altman称,自己也不确定,但明确表示GPT-5的诞生“不会很快”。

关于OpenAI是否会提供开源大模型,Altman称,“会有很多开源大模型”,但同样没有具体的时间表。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230611A02M6D00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券