前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >量子计算与人工智能

量子计算与人工智能

作者头像
量子发烧友
发布2023-02-24 15:41:14
8040
发布2023-02-24 15:41:14
举报
文章被收录于专栏:量子发烧友

人工智能(Artificial Intelligence)英文缩写为AI,是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。从经典计算领域来看,传统摩尔定律已经终结,而随着人工智能大数据对算力要求的提高,业界一直寻找某种新的计算架构,以突破行业瓶颈。

量子计算是一种遵循量子力学规律调控量子信息单元进行计算的新型计算模式,它的处理效率要大大快于传统的通用计算机。那么什么是人工智能,人工智能的发展历程,以及人工智能如何跟量子计算的结合和应用。本篇文章就为大家做个简单分享。

1. 人工智能概念

1.1 人工智能

人工智能中的“智能”一词,指的是人类才具有的一些技能。人在进行各种活动的过程中,从感觉到记忆再到思维产生了智慧,智慧产生了人类本身的行为和语言,行为和语言统称为能力;智慧和能力结合在一起就是人工智能中的智能一词。比如,人类的语言表达能力就是一种智能(语言智能);人类进行复杂数学运算的能力也是一种智能(数字逻辑智能);人类的交往能力也是一种智能(人际智能),人们对音调、旋律、节奏、音色的感知能力,也是一种智能(音乐智能)。他们都属于智能的范畴。

而人工智能,是计算机科学的一个分支,指由人类把智能的概念与人的逻辑理解相结合,并应用到机器中,让机器能够像人一样思考,更好的模拟人的相关职能,其所表现出来的就是人工智能。人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样,来替代人类完成一些行为。例如,在医疗领域,如果一个人经常在实验室进行病毒化验,容易经常会出现一些事故,如果能够用机器替代人来做这些实验,这些事故就可以避免。此时,这台机器就不仅仅是在模拟人,而是在替代人,机器本身就具备了替代人的能力。

1.2人工智能与机器学习、深度学习的关系

提到人工智能,不免联想到机器学习、深度学习。关于三者的关系,机器学习是实现人工智能的一种重要的是实现方法,被大量的应用于解决人工智能的问题,不同的方法解决不同的问题。而深度学习是实现机器学习的一种技术,是机器学习现在比较火的一个方向,其本身是神经网络算法的衍生,在图像、语音等富媒体的分类和识别上取得了非常好的效果。以下是三者的概念描述:

人工智能:研究、开发用于模拟、延伸和扩展人的智能的理论、方法及应用系统的一门新的技术科学。

机器学习:是指用某些算法指导计算机利用已知数据得出适当的模型,并利用此模型对新的情境给出判断的过程。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构,使之不断提高自身的性能。

深度学习:深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。其源于人工神经网络的研究,含多隐层的多层感知器就是一种深度学习结构。

如果把深度学习当成人工智能的一个子学科来看,三者关系如下图所示:

目前,深度学习在图像,语音等富媒体的分类和识别上取得了非常好的效果,各大研究机构和公司都投入了大量的人力做相关的研究和开发。如:指纹出勤打卡、人脸识别、扫描车牌识别牌照号码的计算机视觉技术、搜索引擎中的信息检索功能、自动电子邮件营销与特定目标识别、癌症肿瘤医学诊断或其他慢性疾病异常状态识别、自然语言处理应用程序等。

1.3人工智能的技术应用场景

人工智能技术应用的细分领域:深度学习、计算机视觉、智能机器人、虚拟个人助理、自然语言处理—语音识别、自然语言处理—通用、实时语音翻译、情境感知计算、手势控制、视觉内容自动识别、推荐引擎等。

(1)深度学习

深度学习作为人工智能领域的一个应用分支,不管是从市面上公司的数量还是投资人投资喜好的角度来说,都是一重要应用领域。说到深度学习,大家第一个想到的肯定是AlphaGo,通过一次又一次的学习、更新算法,最终在人机大战中打败围棋大师李世石。百度的机器人“小度”多次参加最强大脑的“人机大战”,并取得胜利,亦是深度学习的结果。

深度学习的技术原理:

1.构建一个网络并且随机初始化所有连接的权重;

2.将大量的数据情况输出到这个网络中;

3.网络处理这些动作并且进行学习;

4.如果这个动作符合指定的动作,将会增强权重,如果不符合,将会降低权重;

5.系统通过如上过程调整权重;

6.在成千上万次的学习之后,超过人类的表现;

(2)计算机视觉

计算机视觉是指计算机从图像中识别出物体、场景和活动的能力,是人工智能应用方面比较成熟的技术。其研究的主题包括:图像分类,目标检测、图像分割、目标跟踪、文字识别和人脸识别等,有着广泛的细分应用。

计算机视觉现今的应用场景一般包括,医疗成像分析被用来提高疾病的预测、诊断和治疗;人脸识别被支付宝或者网上一些自助服务用来自动识别照片里的人物。同时在安防及监控领域,也有很多的应用。未来,计算机视觉也有望进入自主理解、分析决策的高级阶段,赋予机器“看”的能力,在无人机、智能家居等场景发挥更大的价值。

计算机视觉的技术原理:

计算机视觉技术运用由图像处理操作及其他技术所组成的序列来将图像分析任务分解为便于管理的小块任务。比如,一些技术能够从图像中检测到物体的边缘及纹理。分类技术可被用作确定识别到的特征是否能够代表系统已知的一类物体。

(3)语音处理

语音处理研究的主题包括:语音识别、语音合成、语音唤醒、声纹识别、音频事件检测等。其中最成熟的技术是语音识别,在安静的室内,近场识别的前提下能达到96%的识别准确度。语音识别技术最通俗易懂的讲法就是语音转化为文字,并对其进行识别认知和处理。语音识别的主要应用包括医疗听写、语音书写、电脑系统声控、电话客服等。

语音识别技术原理:

1、 对声音进行处理,使用移动窗函数对声音进行分帧;

2、 声音被分帧后,变为很多波形,需要将波形做声学体征提取,变为状态;

3、 特征提起之后,声音就变成了一个N行、N列的矩阵。然后通过音素组合成单词;

(4)虚拟个人助理

说到虚拟个人助理,可能大家脑子里还没有具体的概念。但是说到Siri,你肯定就能立马明白什么是虚拟个人助理。除了Siri之外,Windows 10的Cortana也是典型代表。

虚拟个人助理技术原理:(以Siri为例)

1、用户对着Siri说话后,语音将立即被编码,并转换成一个压缩数字文件,该文件包含了用户语音的相关信息;

2、由于用户手机处于开机状态,语音信号将被转入用户所使用移动运营商的基站当中,然后再通过一系列固定电线发送至用户的互联网服务供应商(ISP),该ISP拥有云计算服务器;

3、该服务器中的内置系列模块,将通过技术手段来识别用户刚才说过的内容。总而言之,Siri等虚拟助理软件的工作原理就是“本地语音识别+云计算服务”。

(5)自然语言处理

自然语言处理研究的主题主要包括机器翻译、文本挖掘和情感分析等。自然语言处理的技术难度高,技术成熟度较低。因为语义的复杂度高,仅靠目前基于大数据、并行计算的深度学习很难达到人类的理解层次。

自然语言处理(NLP),像计算机视觉技术一样,将各种有助于实现目标的多种技术进行了融合,实现人机间自然语言通信。

未来的发展趋势将从只能理解浅层语义到能够自动提取特征,并理解深层予以;从单一智能(ML)到混合智能(ML、DL、RL)。

(6)智能机器人

智能机器人在生活中随处可见,扫地机器人、陪伴机器人……这些机器人不管是跟人语音聊天,还是自主定位导航行走、安防监控等,都离不开人工智能技术的支持。

智能机器人技术原理:人工智能技术把机器视觉、自动规划等认知技术、各种传感器整合到机器人身上,使得机器人拥有判断、决策的能力,能在各种不同的环境中处理不同的任务。智能穿戴设备、智能家电、智能出行或者无人机设备其实都是类似的原理。

(7)引擎推荐

不知道大家现在上网有没有这样的体验,那就是网站会根据你之前浏览过的页面、搜索过的关键字推送给你一些相关的网站内容。这其实就是引擎推荐技术的一种表现。Google为什么会做免费搜索引擎,目的就是为了搜集大量的自然搜索数据,丰富他的大数据数据库,为后面的人工智能数据库做准备。

引擎推荐技术原理:推荐引擎是基于用户的行为、属性(用户浏览网站产生的数据),通过算法分析和处理,主动发现用户当前或潜在需求,并主动推送信息给用户的信息网络。快速推荐给用户信息,提高浏览效率和转化率。

1.4人工智能发展的影响要素

人工智能有三个要素:数据、算力及算法,数据即是知识原料,算力及算法提供“计算智能”以学习知识并实现特定目标。人工智能60多年的技术发展,也可以归根为算法、算力及数据层面的发展。

算力是AI的关键,自2010年代以来的深度学习浪潮,很大程度上归功于计算能力的进步。算力层面的发展,影响因素包含以下内容:

(1)量子计算发展

在计算芯片按摩尔定律发展越发失效的今天,计算能力进步的放慢会限制未来的AI技,量子计算提供了一条新量级的增强计算能力的思路。随着量子计算机的量子比特数量以指数形式增长,而它的计算能力是量子比特数量的指数级,这个增长速度将远远大于数据量的增长,为数据爆发时代的人工智能带来了强大的硬件基础。

(2)边缘计算发展

边缘计算作为云计算的一种补充和优化,一部分的人工智能正在加快速度从云端走向边缘,进入到越来越小的物联网设备中。而这些物联网设备往往体积很小,为此轻量机器学习(TinyML)受到青睐,以满足功耗、延时以及精度等问题。

(3)类脑计算发展

以类脑计算芯片为核心的各种类脑计算系统,在处理某些智能问题以及低功耗智能计算方面正逐步展露出优势。类脑计算芯片设计将从现有处理器的设计方法论及其发展历史中汲取灵感,在计算完备性理论基础上结合应用需求实现完备的硬件功能。同时类脑计算基础软件将整合已有类脑计算编程语言与框架,实现类脑计算系统从“专用”向“通用”的逐步演进。

(4)人工智能计算中心成为智能化时代的关键基础设施

人工智能计算中心基于最新人工智能理论,采用领先的人工智能计算架构,是融合公共算力服务、数据开放共享、智能生态建设、产业创新聚集的“四位一体”综合平台,可提供算力、数据和算法等人工智能全栈能力,是人工智能快速发展和应用所依托的新型算力基础设施。未来,随着智能化社会的不断发展,人工智能计算中心将成为关键的信息基础设施,推动数字经济与传统产业深度融合,加速产业转型升级,促进经济高质量发展。

本文主要从量子计算与人工智能发展的角度展开进行阐述,量子计算与人工智能的关系,以及量子计算将为人工智能的发展带来怎样的促进作用。

2. 各大厂与人工智能

2.1 量脉(Paddle Quantum)

产品介绍

量子机器学习是当前学术界的热门研究领域之一。近年来,机器学习领域发展迅猛,尤其是基于人工神经网络的深度学习算法,其成果已被应用于各行各业。而量子计算是由量子力学与计算理论交叉而成的全新计算模型,具有强大的信息处理优势和广阔的应用前景,被视作未来计算技术的心脏。作为机器学习与量子计算的交叉领域,量子机器学习一方面利用量子计算的信息处理优势促进人工智能的发展,另一方面也希望利用现有的人工智能的技术突破量子计算的研发瓶颈。

量子机器学习和经典机器学习的流程比较

量桨(Paddle Quantum)是基于百度飞桨(PaddlePaddle)开发的量子机器学习工具集,支持量子神经网络的搭建与训练,提供易用的量子机器学习开发套件与量子优化、量子化学等前沿量子应用工具集,使得百度飞桨也因此成为国内首个支持量子机器学习的深度学习框架。量桨服务于百度量子平台的基础建设,建立起了人工智能与量子计算的桥梁。通过百度飞桨深度学习平台赋能量子计算,量桨为领域内的科研人员以及开发者提供了便捷开发量子人工智能应用强有力的支撑,同时也为广大量子计算爱好者提供了一条可行的学习途径。

量桨架构图

产品功能

量桨的应用范围非常广泛,从量子化学模拟中的变分量子特征求解器(VQE)算法到量子分类器(Quantum Classifier)等等都可以通过量桨实现。量桨的量子机器学习开发套件包括量子开发工具集、量子化学库以及系列优化工具。借助量桨所提供的各种量子机器学习案例,开发者可以高效进行有关量子机器学习的算法开发。学生、爱好者们可以对量子计算入门并并编写程序进行学习和测试。量桨的开发目的就是简化量子神经网络的搭建和训练过程,提供平台让所有人都有机会接触到量子机器学习。

量桨可以高效地搭建量子神经网络。工具集内部提供了多种内置的量子神经网络模板,方便用户在各种应用场景中进行部署。同时,量桨项目提供了丰富的在线学习资源(23个教程案例),可以降低开发者、爱好者们的入门门槛。

量桨底层基于张量运算。其高性能模拟器可以在个人电脑上支持25+个量子比特的模拟。此外,依托于飞桨所提供的自动微分框架,量桨可以支持多种优化工具和GPU模式。

量桨提供了组合优化和量子化学等前沿领域的计算工具箱,方便算法的开发过程。特别地,量桨可以支持分布式量子信息处理任务的高效模拟和开发 (LOCCNet)。此外,工具集中也涵盖了部分自主研发的量子机器学习算法。

Paddle Quantum(量桨)建立起了人工智能与量子计算的桥梁,为量子机器学习领域的研发提供强有力的支撑,也提供了丰富的案例供开发者学习。内容涵盖量子模拟、机器学习、组合优化、本地操作与经典通讯、量子神经网络等多个领域的教程。此外,量桨还支持基于测量的量子计算(MBQC),下图为MBQC跟量子电路模型的优势和限制比较。

应用领域

以下是现阶段量桨项在量子模拟、机器学习、优化组合、LOCCNet、量子神经网络研究等5个方面的应用案例

使用示例

环境准备

过搜索 Anaconda Prompt 进入进入命令行 (Terminal) 界面

进入 Terminal 后输入

代码语言:javascript
复制
conda create --name paddle_quantum_env python=3.8

以创建名为 paddle_quantum_env 的 Python 3.8 环境。然后在 Terminal 内可以通过以下命令进入我们新建立的环境。

代码语言:javascript
复制
conda activate paddle_quantum_env

为了能正确运行 Jupyter Notebook 我们还需要用以下命令安装。

代码语言:javascript
复制
conda install jupyter notebook

安装完成之后,如果你想开启 Jupyter Notebook 只需要在 Terminal 内进入正确的环境后输入

代码语言:javascript
复制
jupyter notebook

安装 Paddle Quantum

代码语言:javascript
复制
pip install paddle-quantum

完成安装步骤,即可运行程序

2.2 MindSpore Quantum

产品介绍

MindSpore Quantum是基于昇思MindSpore开源深度学习框架和HiQ量子计算云平台开发的通用量子计算框架,支持多种量子神经网络的训练和推理。依托强大的态矢量和变分量子算法,结合MindSpore的自动微分能力,MindSpore Quantumm能够高效地支撑主流的量子算法和经典量子混合算法,为量子计算的研究和发展提供了一个高效的开发框架。

MindSpore Quantum的量子计算的关健字有很多,其中最重要的关键字是变分量子算法(variational quantum algorithm, VQA)。变分量子算法就是用一个经典优化器(classical optimizer)来训练一个含参量子线路(quantum circuit)。它有些像是机器学习在量子计算中的自然类比。

下图是MindQuantum的架构图,通过量子模拟器算子来对量子体系进行模拟,可以完成前向传播和梯度计算的功能。在此基础之上,还有量子算法库,如量子神经网络、量子化学模拟的VQE和量子优化算法QAOA等,再往上是量子应用,通过MindQuantum的量子算法进行机器学习、化学模拟和运筹优化等任务。

应用场景

使用示例

下面通过一个简单的例子来体验一下如何使用MindQuantum。

对于如上的量子线路,encoder线路表征系统对初始量子态的误差影响,α 和 β 为某个固定值,我们需要训练一个ansatz线路来抵消掉这个误差,使得最后的量子态还是处于|0>态。这时我们只需要对量子末态进行泡利 Z算符测量,由于 |0> 态是 Z 算符的本征态,且本征值为1,因此我们只需让测量值最大即可。

量子线路的搭建

代码语言:javascript
复制
import numpy as np
from mindquantum.ops import QubitOperator
from mindquantum import Circuit, Hamiltonian

encoder = Circuit().rx('alpha', 0).ry('beta', 0).no_grad()
ansatz = Circuit().rx('a', 0).ry('b', 0)
circ = encoder + ansatz
ham =  Hamiltonian(QubitOperator('Z0'))
alpha, beta = 0.5, 1.2
encoder_data = np.array([[alpha, beta]]).astype(np.float32)

搭建训练网络

代码语言:javascript
复制
from mindquantum.nn import MindQuantumLayer
import mindspore as ms

class Net(ms.nn.Cell):
    def __init__(self, pqc):
        super(Net, self).__init__()
        self.pqc = pqc
    
    def construct(self, x):
        return -self.pqc(x)

pqc = MindQuantumLayer(['alpha', 'beta'], ['a', 'b'], circ, ham)
train_net = Net(pqc)

训练

代码语言:javascript
复制
opti = ms.nn.Adam(train_net.trainable_params(), 0.2)
net = ms.nn.TrainOneStepCell(train_net, opti)
for i in range(100):
print(net(ms.Tensor(encoder_data)))

求得最后量子态与目标态的保真度。

代码语言:javascript
复制
from mindquantum.highlevel import StateEvolution
a, b = pqc.weight.asnumpy()
pr = {'alpha': alpha, 'beta': beta, 'a': a, 'b': b}
state = StateEvolution(circ).final_state(pr)
fid = np.abs(np.vdot(state, [1, 0]))**2

2.3 TensorFlow Quantum

产品介绍

TensorFlow Quantum(TFQ)是谷歌推出的用于快速建立量子机器学习模型原型的开源库,是一个用于混合量子经典机器学习的 Python 框架。该框架允许量子算法研究人员和机器学习研究人员探索将量子计算与机器学习结合在一起,用于构建量子机器学习模型。其核心思想是将量子算法和机器学习程序都交织在TensorFlow编程模型中。谷歌将这种方法称为量子机器学习,并能够通过利用一些最新的量子计算框架(如谷歌Cirq)来实现它。

TFQ 提供了结合量子计算和机器学习研究领域的必要工具,以控制和建模自然或人工量子力学系统。底层是 TFQ 将 Cirq与 TensorFlow 集成,并提供兼容现有 TensorFlow API 的量子计算基元和高性能量子电路模拟器,并为判别式和生成式量子经典模型的设计和实现提供高级抽象。

目前,TFQ 主要面向在经典量子电路模拟器上执行量子电路,未来 TFQ 将能够在 Cirq 支持的实际量子处理器(包括谷歌自己的 Sycamore 量子芯片)上执行量子电路。熟悉人工智能的人对 TensorFlow 不会陌生,作为全球最流行的机器学习开源框架,简化了深度神经网络,提供可重复代码,使得训练复杂模型变得更简单和方便。

TQF如何运作

制备量子数据集:量子数据作为张量加载,指定为在Cirq中编写的量子电路。张量由TensorFlow在量子计算机上执行,生成量子数据集。

量子模型估计:在这一步中,研究人员可以使用Cirq创建一个量子神经网络的原型,他们稍后将该模型嵌入到TensorFlow计算图中。

采样或求平均值:此步骤利用方法计算涉及步骤(1)和(2)的多个运行的平均值。

经典模型估计:经典信息被提取出来后,可以进一步做经典后处理,以提取测量期望值之间的关联信息。这一过程可以通过经典深度神经网络实现。

代价函数 (cost function) 估计:在得到经典后处理结果之后,研究人员对代价函数进行评估。需要注意的是,如果量子数据被标记,则评估过程基于模型执行分类任务的准确度;如果任务是无监督式的,则基于其他标准。

梯度估计和参数更新:完成代价函数的估计之后,整个模型中的自由参数应当向代价降低的方向更新。

应用领域

量子计算依靠量子力学的属性来计算传统计算机无法解决的问题。量子计算机使用量子位,量子位就像计算机中的常规位,只不过它有两种附加能力,即被置于叠加态和相互纠缠。量子机器学习主要基于两个概念构建:量子数据和混合量子经典模型。

量子数据是在自然或人工量子系统中出现的任何数据源。量子数据表现出叠加态和纠缠态,最终产生可能需要数量以指数级增长的经典计算资源来表示或存储的联合概率分布;量子模型可以表示和归纳包含量子力学起源的数据。由于近期的量子处理器仍然很小且嘈杂,因此量子模型无法仅使用量子处理器来归纳量子数据。NISQ 处理器必须与传统的协处理器协同工作才能生效。

使用示例

(1) 在anaconda中创建新的环境

代码语言:javascript
复制
1. conda create --name tensorflowq python=3.7

(2) 安装tensorflow和tensorflow-quantum包

代码语言:javascript
复制
1. conda activate tensorflowq   
2. pip install tensorflow==2.2.0   
3. pip install tensorflow-quantum

(3) 将环境配置到jupyter notebook

代码语言:javascript
复制
1. pip install ipykernel   
2. python -m ipykernel install --user --name tensorflowq

(4) 在 jupyter notebook 中测试环境

代码语言:javascript
复制
1. import cirq   
2. import tensorflow_quantum as tfq

(5) 编译通过即配置成功

总结

摩尔定律正在失效,经典计算机的性能也日益捉襟见肘。单靠堆积硬件的方式,已经无法满足当下骤增的算力需求了。当量子计算和人工智能结合在一起,为人工智能发展提供革命性的工具,能够指数加速学习能力和速度,促进AI应用发展。

参考链接:

【1】https://developer.baidu.com/article/detail.html?id=290569

【2】https://www.elecfans.com/d/1181525.html

【3】https://zhuanlan.zhihu.com/p/375549477

【4】https://www.mindspore.cn/mindquantum

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-10-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子发烧友 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 人工智能(Artificial Intelligence),英文缩写为AI,是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。从经典计算领域来看,传统摩尔定律已经终结,而随着人工智能大数据对算力要求的提高,业界一直寻找某种新的计算架构,以突破行业瓶颈。
相关产品与服务
语音识别
腾讯云语音识别(Automatic Speech Recognition,ASR)是将语音转化成文字的PaaS产品,为企业提供精准而极具性价比的识别服务。被微信、王者荣耀、腾讯视频等大量业务使用,适用于录音质检、会议实时转写、语音输入法等多个场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档