专栏首页云加头条AI 与 5G 在无线通信的应用

AI 与 5G 在无线通信的应用

聊起 AI,画面都充斥着机械语言:精密高级的芯片,光怪陆离的智能产业……你眼中的 AI 有什么样的能力?能给传统行业带来哪些变革与发展?基于此,云加社区联手知乎科技,从知乎AI 与传统行业相关话题中精选内容落地社区专题「 AI 与传统行业的融合 」

本文为“AI 将如何影响电子信息产业”的精华内容分享。

人工智能和5G这两个概念很大了,如果专注于这两个词很容易形而上学。我们缩小范围到机器学习和移动通信还是有很多很多结合点可以聊聊。随便写到哪里算哪里了。。。

抛开各种画饼的应用不谈,我把涉及技术的潜在影响划分为两类,技术本身的相互促进大量商用之后的互相影响。

技术本身的相互促进

  1. 无线通信的技术发展现状是什么?

不同于机器学习,在那里学术界发布的一个好算法可能养活多家企业。通信领域科研和工业其实相当割裂,产业链过长细分领域过多直接导致大多科研团队大都不会去实现一整套通信系统。新算法、新结构的价值评估一直都非常依赖数学,依赖各种bound是否achieveable,依赖算法是否optimal,科研的新算法难以在实际场景下验证。

可以这么说,现代移动通信和信号处理是在精密数学上构建起来的,但如果过度依靠数学的精巧和易碎的假设,系统和结论就比较容易脱离实际。当学术界沉迷于「找」新的数学结构,而不是从实际场景「总结」新的数学结构,而且结论评价准则五花八门时,这对应用来说其实不能说是一件好事。

很明显的一个现象,学术中一些非常「优雅」的算法经常会因为假设过强,而在实际应用中毫无增益。当所有人都声称自己的算法是sub-optimal,或者在特定场景下是optimal时,应该怎么样衡量贡献?

可以是真实数据。

2. (Model Practicality)通信里,数学模型和真实场景的不匹配可能由机器学习填补

学术界并没有这么一个公开可信的、类似MNIST的通信数据库来实测算法性能。大量外场和商用场景的数据掌握在华为、爱立信、高通这些大公司手里,看起来近期也不会有公开的可能。

从另一方面,如果各位有注意新闻的话,从华为的近期动向也能看出机器学习在华为的产品线里出现的越来越多,比如在基站massive MIMO中采用随机森林来做beampattern调优[1],在电梯场景里利用机器学习快速搜索信号等等。

基站这种2B产品显然不可能只是为了机器学习这个名头追个时髦,做毫无增益的事,但是有苦于没有数据库,学术界真的不知道合适机器学习算法的增益到底有多大。

如果我们认为基于统计、矩阵论、凸优化、概率的信号处理是model-driven的,那么机器学习就是data-driven的。也正是因为这个原因,所以机器学习在各种自然信号(natual signal,e.g. 图片、声音、视频等)的处理中都表现很优秀。

可惜通信信号并不完全natural,它需要经过傅里叶变换和人工设定的调制/编码规则。通信信号其实应该被认为是半人工半自然的信号,man-made + natual signal。因为它有部分数学结构是可以确定的,所以对通信来说,概率是比机器学习更加适合。

那么机器学习不能在移动通信中使用吗?

并不是这样的。我们从确定信号分析来思考这个问题:

凸优化其实已经在无线通信中有了广泛应用,但是如果我们深入对比机器学习(或者精确点,深度学习)和无线通信的算法结构,就会发现大致这样:

请仔细对比此图的两部分,分别是深度神经网络和基于凸优化的信号处理算法

机器学习相关的各种应用通过对各种CNN/SVM等结构调整实现算法性能提升,这可以被当做把场景信息编码进神经网络。如上图所示,通信通过精准建模完成类似效果。

正如之前所说,这种基于已知信号结构的场景建模确实可以给我们带来最优解的求解思路,但是实际场景里,上述模型A,B,C,D总会和真实数据有误差。这部分误差,或者说非高斯 or 非线性噪声/失真 所带来的理论和现实差距有机会通过机器学习填补。

不过,在大家公认可信的数据库出现之前,学术界对这种方案带来的提升会始终抱有戒心;通信企业对此倒是很欢迎

3. (Computation Efficency)通信里,计算复杂的算法通过可以神经网络对目标数据分布的逼近效应来训练权重,在特定场景直接载入这些权重/网络结构可以降低计算时间

这种想法也是目前学术界的主流思路:机器学习是和凸优化一样的黑盒,只不过这些黑盒适合解决的难题不同。

Prof. E. Björnson今年的论文[2]里有这么个实验,

AWGN信道下QPSK信号的最优检测方法是显而易见的(右下角图),简单说通过输入信号与四个参考信号的最小欧氏距离来完成对01, 11, 00, 10四个符号的分类。与此同时,他训练了一个相应的神经网络来实现类似功能,结果就是左侧图。

很明显能看到神经网络训练出的模型并不是optimal的,它只是一个近似逼近。这个实验非常简单,不过用AWGN信道数据训练的神经网络也基本验证了我上文提到的,在数学模型符合实际的情况下,机器学习算法性能不可能超过传统数学得到的最优解

回到子标题,我之所以说机器学习有可能降低计算时间,是因为大多非凸问题求解都不一定on-the-shelf,e.g. 直接在cvx那样的凸优化工具盒里可以直接调用。在实际场景里,模型的轻微变化可能导致重新训练/建模,而人类不能完成所有场景的准确建模。

这时候神经网络可以先进行数据集上的预训练,在实际部署中直接载入一些训练权重/载入特定结构,这样就跳过了「训练」阶段,降低了部分计算时间

另一方面,通信算法对机器学习的实际影响暂时只局限在数学和传统信号处理部分,把传统图像信号处理的知识「编码」进神经网络,一直都是一个很直接但难实现的性能提升道路。

前几天有个新闻:

一个模型击溃12种AI造假,各种GAN与Deepfake都阵亡_详细解读_最新资讯_热点事件_36氪​36kr.com

新闻里,通过考虑频域知识,新模型识别出了各种GAN制造的假图。信号处理的教授们都开玩笑说「深度学习总算从大一大二的线性代数,进化到大三大四的傅里叶变换和信号处理了」。

4. (Intelligent Network机器学习可以解决一些难以建模但是有大量数据的实际问题

很典型的两个问题是动态频谱接入(物理层)和华为提出的智能网络运维(网络层)

动态频谱接入是个很古老,但是生命力长久的问题,基本思想是如何在共享频段「找」到空白频谱,并随后接入传输数据。

解决这个问题有两种情况都涉及到机器学习:

  • 如果假设环境完全未知,它基本可以理解为一个Multi-armed bandit(多臂老虎机赌博)问题,可以通过reinforcement learning来求解。
  • 在实际应用中,大多国家都会考虑建立频谱数据库,这又变成了一个data-driven的预测问题。

这两种情况都与机器学习算法强相关而且经久不衰。5G Release 16里引入了动态频谱共享标准,在美国也已经确定了几个可以供5G共享的频段,所以目前这个问题又翻新了重新得到重视。

众所周知,大多通信从业者都是运维人员,不过从数据角度部分运维工作是可以替代的,这就是华为最近提出的智能运维

举个简单的例子,5G基站功耗较大,所以有时候需要关闭某些载波,或者在某个时段关闭整个基站来节省能量。如果更复杂一点,在软件定义网络中,整张网络的流量负载也可能呈周期特性,所以通过历史数据学习、决策网络资源分配完全有可能实现。通过日志数据定位网络故障,也是可以实现的。

大量商用之后的互相影响

到这部分,就要脱离具体算法开始画饼了。

正如这题下很多知友所说,通信是信息基础设施,通信网络的架构变动自然而然会影响到上层应用。通信业界普遍认为,目前的网络结构正在从4G时代的「管-端-云」向未来的「管-端-云-边」发展。未来不同业务的数据流很可能会由该业务组建的边缘计算单元处理。

去年华为、阿里、寒武纪都曾发布边缘计算专用的服务器芯片,背后原因也正是因为目前在城市安防等等领域存在大规模的机器学习计算需求,视频数据流需要汇聚到小范围内的边缘单元进行处理,这样可以兼顾延迟和处理资源要求。

更进一步的预测是,随着边缘计算的发展,通信网络很可能不仅仅承担单纯的管道任务,在数据上传到云端的过程中,可能会出现「通信流即计算流」,边传边算,进一步卸载数据中心的计算压力和降低延迟。

更多关于边缘计算的可能和背后逻辑,可以参照这个回答:

在 5G 网络时代,边缘计算会如何进一步发展?​www.zhihu.com

从另一方面来说,随着通信网络可以承担的终端数目不断增多,终端的「感知」能力会不断增强,包括未来可能的,用户本身产生的数据也会随之大规模增加,这显然也有利于未来data-driven的机器学习找到更多场景应用。

大概这样子。

参考

  1. ^https://cloud.tencent.com/developer/news/371175
  2. ^Björnson E, Giselsson P. Two Applications of Deep Learning in the Physical Layer of Communication Systems[J]. arXiv preprint arXiv:2001.03350, 2020.

作者:甜草莓

链接:https://www.zhihu.com/question/378543779/answer/1085779575

来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

原文链接:https://www.zhihu.com/question/378543779/answer/1085779575

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 5G 的网络延迟时间 1 毫秒是怎么做到的?

    近日,腾讯无线网络与物联网技术负责人李秋香与高校科研教授、产业链、运营商等各行业的嘉宾一起参与了知乎「 科技共振之 5G+ 」活动,除了专业的5G探讨,也聊了不...

    云加社区
  • Tutor Master招募计划

    腾讯云学院是腾讯云旗下,面向广大开发者的云技术学习平台;平台联合腾讯云内部与外部资源,为开发者提供云计算、大数据、人工智能三大领域优质课程内容。

    云加社区
  • 百万大奖,聚焦工业、医疗、泛娱乐,首个提供实际场景的创业赛邀你来战!

    大数据人工智能技术正逐渐应用到各领域,然而再牛的技术也需要应用到实际场景中才能真正实现价值。由苏州市人民政府指导,苏州市发改委、苏州相城区人民政府主办的2017...

    云加社区
  • 揭穿机器学习“皇帝的新装”

    我们常把机器学习描述为一种使用数据模式标记事物的神奇技术。听起来艰涩,但事实上,拨开层层概念,机器学习的核心简单到令人尴尬。

    大数据文摘
  • 机器学习资料整理(欢迎补充)

    本博文所整理的机器学习书籍来自于博主平时的积累的一些资料,可能还有一些经典的机器学习书籍为包含其中,欢迎大家留言区补充,分享给大家。(本文所陈列的所有书籍电子...

    昱良
  • Python机器学习:6本机器学习书籍推

    机器学习是实现人工智能的一种途径,它和数据开掘有一定的相似性,也是一门多领域交叉学科,触及概率论、核算学、逼近论、凸剖析、核算复杂性理论等多门学科。对比于数据开...

    py3study
  • 写烦了CRUD的代码,要不要来学点AI放松一下?

    最近黄小斜开始接触了一些算法方面的开工作,于是赶紧找了好些机器学习方面的书籍来看学习,从研发到算法,果然是完全不一样的感觉呀。如果你写代码写腻了,也不妨来学习一...

    程序员书单
  • 【机器学习】读懂机器学习

    在本篇文章中,我将对机器学习做个概要的介绍。本文的目的是能让即便完全不了解机器学习的人也能了解机器学习,并且上手相关的实践。这篇文档也算是EasyPR开发的番外...

    陆勤_数据人网
  • 【机器学习】一文读懂机器学习,大数据/自然语言处理/算法全有了……

    作者:计算机的潜意识 在本篇文章中,我将对机器学习做个概要的介绍。本文的目的是能让即便完全不了解机器学习的人也能了解机器学习,并且上手相关的实践。这篇文档也算是...

    陆勤_数据人网
  • 人工智能和工作的未来

    原文出处: Lukas Biewald 译文出处:腊八粥 技 术淘汰了某些种类的工作,并创造了其它种类的工作——从石器时代就是如此。在过去,机器取代了需要...

    wangxl

扫码关注云+社区

领取腾讯云代金券