首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

识别并计算简单手写数学表达式

丹棱君有话说:理性思考,予力创新——由“微软 AI 实践营”的研究员和工程师精心打造的一系列 AI 应用开发实战教程,结合真实的应用场景与案例,手把手教你将 AI 理论知识运用到 AI 应用开发,真正动手写出属于你的 AI 应用!上一篇

手写识别应用开发初战

介绍了如何构建典型的AI应用,本文将在此基础上,展示基本的数据整理和扩展人工智能模型的过程,介绍如何打造手写数学表达式计算器。

主要知识点

了解 MNIST 数据集

了解如何扩展数据集

实现手写计算器

简介

本文将介绍一例支持识别手写数学表达式并对其进行计算的人工智能应用的开发案例。本文的应用是基于前文手写识别应用开发初战中的基础应用进行扩展实现的。本文将通过这一案例,展示基本的数据整理和扩展人工智能模型的过程,以及介绍如何利用手写输入的特性来简化字符分割的过程。并且本文将演示如何利用 Visual Studio Tools for AI 进行批量推理,以便利用底层人工智能框架的并行计算,实现推理加速。此外,本文还将对该应用的主要代码逻辑进行分析、讲解。

背景

在手写识别应用开发初战中,我们介绍了能识别单个手写字母、基于 MNIST 数据集的人工智能应用,并且在我们的几次试验中,该应用表现良好,能比较准确地将手写的数字图形识别成对应的数字。那么,该应用能不能识别更多种类的手写字符,甚至是同时的出现多个字符呢?这样的情形有很多,比如生活中常见的数学表达式(形如“1+2x3”)。这样的复合情形更为常见,也更具现实意义。相比之下,如果一次识别仅能一个手写数字,应用就会有比较大的局限性。

首先,我们可以尝试一下多个字符同时出现这类情形中最基本的特例,即一次出现两个数字的情况。请启动手写数字识别博客中构建的应用,并在现有的应用里一次写下两个数字,看看识别效果(为了更方便书写及展示效果,我们将前一示例中笔画的宽度由40调整为 20。可以体验出这一改动对单个数字的识别并无大的影响):

识别范围只是单个数字

上图是一次试验的结果。进行多次试验,我们看到现有应用对两个数字的识别效果不尽人意。如上图所示,应用窗口右上角展示的结果准确地反应了模型对我们手写输入的推理结果(即“result.First().First().ToString()”),然而这一结果并不像期望的那样,是我们在左侧绘图区写下的 “42”。

其实对这个现象的解释已经蕴含在我们之前的推送内容中了。在手写识别应用开发初战的模型介绍章节中,我们对用于训练模型的 MNIST 数据集做了大致的介绍。归根结底,上述现象的症结在于:作为我们人工智能应用核心的模型,本身并不具备识别多个数字的能力——作为模型的源头,也即是训练数据的 MNIST 数据集只覆盖了单个的手写数字。并且,在应用的输入处理部分,我们并未对笔迹图形作额外的处理。

这两点的综合结果就是,在写下多个数字的情况下,我们实际上在“强行”让AI模型做超出其适应性范围的推理。这属于AI模型的误用。其结果自然难以令人满意。

那么,为了增强应用的可用性,我们能不能改善这款应用,让其能处理常见的数学表达式呢?这要求我们的应用既能识别数字和符号,又能识别同时出现的多个字符:首先对于多个数字这种情况,我们很自然地想到,既然 MNIST 模型已经能很好地识别单个数字,那我们只需要把多个数字分开,一个一个地让 MNIST 模型进行识别就好了;对于识别其他数学符号,我们可以尝试通过扩展 MNIST 模型的识别范围,也即扩展 MNIST 数据集来实现。两者合二为一,就是一种非常可行的解决方案。这样,我们就引入了两个新的子问题,即“扩充 MNIST 数据集”和“多个手写字符的分割”。

结合上文陈述的问题和潜在的解决方案,本文将以“识别并计算简单的数学表达式”这一问题为导向,对现有的手写数字识别应用进行扩展。

我们的目标是对克服现存的只能对单个数字进行识别这一局限,让新应用可以识别数字、加减乘除和括号这些能构成简单数学表达式的元素,并对识别出的数学表达式进行计算。本文希望通过这些,能最终获得一款更具现实意义的人工智能应用。

最终的应用效果如下图:

应用效果

注意

“识别可能出现的多种字符”和“识别同时出现的多个字符”是完全不同的,请注意区别。

子问题:扩展 MNIST 数据集

准备数据

01

数据格式

为了让我们的新模型能支持除了数字以外的字符,一个简单的做法是扩展 MNIST 数据集并尝试复用已有的模型训练算法(卷积神经网络)。在手写识别应用开发初战的数据预处理章节中,我们部分了解了 MNIST 数据集所采用的数据格式和规范。为了尽可能地复用已有的资源,我们有必要让扩展的那部分数据贴近原始的 MNIST 数据。

Samples-for-ai 样例库中使用的 MNIST 示例:

https://github.com/Microsoft/samples-for-ai/blob/master/examples/tensorflow/MNIST/mnist.py

MNIST Database:

http://yann.lecun.com/exdb/mnist/

Samples-for-ai 样例库中使用的 MNIST 示例在初运行时会从 MNIST Database下载 MNIST 数据集并作为训练数据。当我们顺利运行 mnist.py 脚本并完成训练后,我们可以在“samples-for-ai\examples\tensorflow\MNIST\input”目录中看到四个扩展名为“.gz”的文件,这四个文件就是从网上下载下来的 MNIST 数据集,即手写数字的位图和标记。不过这些文件是经过压缩的数据,我们使用的训练程序在下载完成后还会对这些压缩文件进行解压。训练程序只将解压后的数据储存在内存中,并没有回写到硬盘上,所以我们在 input 目录下找不到储存了原始位图数据的文件。

小提示

我们仍可以使用支持这种压缩格式的工具将其解压。并使用二进制工具查看其内容。

从 MNIST Database 页面上,我们可以了解到 MNIST 数据集的位图文件和标签文件的文件格式。其中最主要的,是用于训练的位图都是“28x28”尺寸的、单通道的灰度图,前景色(笔画)对应值为 255(按颜色表示即是白色),背景色对应值 0(按颜色表示即是黑色)。从之前博客中我们已经了解到,MNIST 数据集是取反保存位图像素的,如果将其直接显示为位图,则和我们在界面上所见的白底黑字相反。

注意

MNIST Database 提到0 means background (white), 255 means foreground (black),其对颜色的解释和一般的色值解释相反。请注意厘清这两种颜色的解释方法。

但是无论视觉上的颜色是什么,我们真正要遵守的规则是将前景的值转换到 255,背景的值转换到 0(在输入模型时,分别表现为 0.5 和 -0.5)。

结合页面上的描述和“mnist.py”中数据预处理部分的相关逻辑,我们了解到目前使用的卷积神经网络要求的最终的输入数据格式如下:

根据上述的输入格式,我们已经可以确定我们扩展训练数据的方向了。这里我们需要注意,这些格式是最终输入到卷积神经网络的数据必须满足的,而非我们即将搜集、准备的新数据。虽然这表明了我们新搜集的数据不一定要精确地满足这些条件,这些输入格式仍然对我们的数据搜集起到重要的指导作用。

下图是按照一般的像素值-视觉颜色对应关系,将 MNIST 中的数据、UI 上绘制的数据、作为模型输入的数据三者可视化之后的示意图。图上还标记了像素值到输入数据格式中32位浮点数的映射方式(上方的橙色箭头),以便形象地展示这一转换过程(F 表示 Foreground 即前景,B 表示 Background 即背景):

前景色和背景色示意图

UI 上绘制的数据的格式,同时也是我们下文中要准备的新数据的格式。之所以使用和 MNIST 内部数据相反的形式,是为了在界面和其他地方进行可视化展示时,更符合一般的书写习惯。之后我们可以在进行训练之前,再进行反色操作,如同我们上一课处理从界面上来的位图数据一样。

02

收集并格式化数据

搜集数据的方式多种多样。就本文的需要来说,我们可以在网络上搜索已有的数据集,可以自行开发小型应用以在触摸屏甚至手机上搜集手写图形,或者扫描手写文档并通过图像分割的方式提取运算符。并且,在搜集完原始数据之后,我们还可以通过缩放、扭曲、添加噪点等方式来扩展、增强我们的数据集,以获得更广泛的适应性。

在我们搜集足够多的新图片后(考虑到原始 MNIST 数据集共 70000 张图片,我们搜集 40000 张左右比较合适,虽然数量不是绝对的),我们还需要对其进行一定的格式化,以方便我们最终将其作为神经网络的输入。

位图部分所需的处理非常直观。我们可以参考前一篇手写数字识别博客中对应用图形界面上捕获的手写图形的处理方式,将搜集的图片(可能具有 RGB 通道)转换成28x28 像素的、单通道的灰度图片,并且前景色(即笔画)色值为 0(黑色),背景色色值为 255(白色)。符合要求的位图样例如下:

合适的位图实例

此处更需要注意的是对图片标记的处理。在原始 MNIST 数据集中我们看到整数 0-9 被用来标记对应的图形,这是非常自然的做法。因为我们此处要解决的是多分类问题,解决这类问题的一个先决条件就是我们必须为每个分类提供一一对应的标记。我们很容易就想到用诸如 10、11、12 来标记加号、减号、乘号等图形类别。这是可行的。

此处我们不由得思考,延续已被占用的自然数取标记新类别,虽然可行,但让对应关系变得混乱了。10 和加号、11 和减号之间,并不像 0-9 的整数和图形之间有那么自然的联系。作为开发者的我们不禁想到,能否用 ASCII 表里加减乘除的字符对应的数值来做标记呢(如加号对应 53,减号对应 55)?这种标记的设定方法实际上是很难使用的,特别是本文中出现的 MNIST 训练程序基于的是 TensorFlow 框架,框架本身要求了标记占用的整数值必须小于类别总数。在保证标记和类别一一对应的前提条件下,我们接着已有 0-9 标记,再为我们新搜集的图形类别增加标记。此时我们需要清楚的定义标记到类别的对应关系,以便我们正确处理模型的输入和输出。

我们用 10-15 分别表示加号、减号、乘号、除号、正括号、反括号。并且,为了便于训练,我们要求这六种数学符号对应的位图,分别放置于“add、minus、mul、div、lp、rp”这六个文件夹中,并且这六个文件夹需要在同一个目录下。如下图所示:

需要的六个文件夹

训练模型

为了支持我们新增的六种数学符号,我们需要修改原始的MNIST模型训练脚本(即之前所用的“mnist.py”)。

我们已将应用的主体代码和训练新模型所需的代码上传到 GitHub,可以通过下面的命令将这些代码克隆到本地:

这一仓库包含两部分内容:

./tensorflow_model/路径下,是支持扩展的 MNIST 数据集的训练脚本mnist_extension.py。这一脚本要求额外的命令行参数“--extension_dir”,用于指定我们扩展的六种数学符号的位图所在;

./extended_mnist_calculator/MNIST.App目录下,是本文这款应用的主体代码。我们会在下文中用到。

mnist_extension.py脚本就是我们这一节需要使用的,新模型的训练脚本。这一脚本要求额外的命令行参数“--extension_dir”,用于指定我们扩展的六种数学符号的位图所在;

上文中,我们要求新搜集的数据最后需要被格式化为以色值 0(黑色)为前景色,以色值 255(白色)为前景色的单通道位图。我们修改后的训练脚本会读取这些位图并其反色,以到达和原始 MNIST 数据同样的效果(也和我们应用中输入处理的部分一致)。

假设我们存放“add、minus”等六个文件夹的目录是“D:\extension_images”,我们就可以在克隆好了的仓库的“/training”目录下,通过命令行执行:

来启动针对包含了六种数学符号的扩展数据集的训练。该训练脚本在导入原始 MNIST 数据之后,还会从“D:extension_images”目录分别读取六种新类别的数据。再混合新旧数据之后进行训练。可能的训练结果如下图:

训练结果

小提示

混合新旧数据在这里非常有用。因为训练过程中,目前的脚本是一次仅将一部分数据用于迭代优化和模型参数更新。如果不进行混合,就会发生新数据迟迟不被利用的情况,影响模型的训练结果。

我们对 MNIST 模型的训练是基于卷积神经网络的。并且上本中的脚本在处理扩展的符号位图之外,并没有对用于训练原始 MNIST 模型的卷积神经网络的结构进行修改。我们知道系统的结构决定其功能,那么我们针对原始 MNIST 数据设计的网络结构能否支撑扩展后的数据集呢?对这一问题最简单的回答就是进行一次训练并观察模型性能。

用这种方法进行试验后,我们通过错误率(主要是 Validation error,在此例中反映了每 100 次小批量训练之后,模型当前在整个验证集上的错误率;和 Test error,在此例中反映了训练结束后模型在整个测试集上的错误率)发现新模型的性能还是不错的。足以支持我们接下来的应用。

子问题:分割多个手写字符

如上文所述,我们为了对多个同时出现的字符进行识别,还必须解决一个子问题,那就是要对这些同时出现的字符进行分割。

我们注意到本文介绍的应用有一个特点,那就是最终用作输入的图形,是用户当场写下的,而非通过图片文件导入的静态图片。也就是说,我们拥有笔画产生过程中的全部动态信息,比如笔画的先后顺序,笔画的重叠关系等等。而且我们期望这些笔画基本都是横向书写的。考虑到这些信息,我们可以设计一种基本的分割规则:在水平面上的投影相重叠的笔画,我们就认为它们同属于一个数字。

笔画和水平方向上投影的关系示意如下图:

投影示意图

因此书写时,就要求不同的数字之间尽量隔开。当然为了尽可能处理不经意的重叠,我们还可以为重叠部分相对每一笔画的位置设定一个阈值,如至少进入笔画一端的 10% 以内。

加入对重叠的容忍阈值后,对笔画的分割的结果可以参看下图。在分割后被认为是属于同一字符的笔画我们使用了相同的颜色绘制,并且用不同的颜色区分了不属于同一字符的笔画。在字符的上方,我们用一系列水平方向的半透明色块表现了每一笔画在水平方向上的的有效重叠区域和字符之间的重叠关系。

分组示意图

应用这样的规则后,我们就能简便而又有效地对多个笔画进行分割,并能利用 Visual Studio Tools for AI 提供的批量推理功能,一次性对所有分割出的图形做推理。

应用的构建和理解

完成应用

在上文中克隆的 mnist_extenstion 仓库中已经存在该应用的主体应用代码了。本文将只通过引用模型来完成本文中这款应用。之后会对主要的代码进行分析。

按照训练模型一节中所述,获取上面提到的 Git 仓库后,我们可以通过 Visual Studio 打开“./extended_mnist_calculator”目录下的 MnistDemo.sln 解决方案,并和之前一样,在解决方案里添加 AI Tools – Inference 模型项目。不过与上一篇稍有不同的是,为了对我们扩展的新模型加以区分,我们需要将新模型项目命名为ExtendedModel(同时也是默认的命名空间名字),并将新的模型包装类命名为“MnistExtension”。并且这一次,在模型项目创建向导中,我们需要选择上文中训练出的新模型。

新的 Inference 模型项目和模型包装类配置如下图:

理解代码

01

输入处理

在新应用的代码部分,和我们在手写数字识别博客中介绍的代码比起来,差别最大的地方就在于如何处理输入。在上个案例中,我们只需要简单地将正方形区域中的图像格式调整一下,即可用作 MNIST 模型的输入。而在本文的案例中,我们必须先对笔画进行分割处理。分割笔画之后我们再将每一个笔画组合转换成 MNIST 模型所需的单个输入。

新应用需要响应的界面事件,还是和之前一致:需要响应鼠标的按下、移动和抬起三类事件。我们对其中按下和移动的响应事件的修改比较简单,我们只需要在这些响应时间里对新写下的笔画做记录就好了。这些代码都位于 MNIST.App 目录下的 MainWindow.cs 文件中。

02

记录笔画的产生过程

首先我们为窗体类新增一个“List

类型的字段,用于记录每次鼠标按下、抬起之间鼠标移动过的点,将这些点按顺序连接起来就形成了一道笔画。我们在鼠标按下事件里清空以前记录的所有鼠标移动点,以便记录这次书写产生的新一动点;并在鼠标抬起事件里将这些点转换成笔画对应的数据结构“StrokeRecord”(定义见后文)。同样的,我们也为窗体类新增一个“List”类型的字段,用于记录已经写下的所有笔画。

“writeArea_MouseDown”方法中新增以下语句用于清空以前记录的鼠标移动点:

并在“writeArea_MouseMove”方法中记录鼠标这次移动所到达的点:

“writeArea_MouseUp”方法里将这次鼠标按下、抬起之间产生的所有点转换成笔画对应的数据结构。并且因为如果鼠标在抬起之前并没有移动,就不会有点被记录,在这之前我们还通过“strokePoints.Any()”先判断一下是否有点被记录。下面是转化移动点的代码:

包括构造函数在内的StrokeRecord结构定义如下:

03

分割笔画

在将新产生的笔画添加到所有笔画的列表中之后,我们就有了当前用户写下的所有笔画了,接下来我们要对这些笔画进行分组。

本文在这里对上文所述的“快速”分割的实现非常简单。在按笔画在水平方向上最左端的坐标,将笔画有小到大排序后,我们从最左边开始扫描所有笔画。如果一个笔画还没有分组,我们就为它指定唯一分组编号,然后再看其右侧有哪些笔画和当前笔画在水平方向上的投影是有效重合的(如上文所述,此处有阈值 10%),并将这些重合的笔画定为属于同一组。直到所有笔画都被扫描

之后即可按对应的分组编号将笔画归组:

小提示

为了方便理解笔画的分割效果,应用界面上预留了“显示笔画分组”的开关。勾选之后写下的笔画会像上文那样被不同的颜色标记出其所在的分组。

04

为每个分组生成单一位图

分割完成后,我们得到了一个数组“groups”,它的每个元素都是一个分组,包括了分组编号和组内的所有笔画。这里我们得到的每一个分组都对应着一个字符。如果分组里有多个笔画,那么这些笔画就是这个字符的组成部分(想象加号和乘号,它们都需要两笔才能写成)。我们可以想到,这个数组“groups”里的元素的顺序是很重要的,因为我们要保证最终识别出的表达式里的字符的顺序,才能正确地计算表达式。

我们在循环中顺序访问“groups”的每个元素。命名循环变量为“group”

循环变量“group”的类型是“IGrouping”,它代表着一个分组,包括分组的编号(一个整数)和其中的元素(元素都是“StrokeRecord”)。“IGrouping”泛型接口同时也是一个可迭代的“IEnumerable”泛型接口,所以我们可以把“group”变量直接当做“IEnumerable”类型的对象来使用。

然后我们需要确定这个分组(即其中所有笔画组合成的图形)的位置区域,其中我们最关心水平方向上最左端、最右端的坐标(水平方向的坐标轴是从左向右的)。

通过这两个坐标我们就能确定该分组在水平方向上的投影的长度。我们计算这个长度的目的,是为了在我们为每个分组生成单一位图时,尽量将这个分组的图形放置在单一位图的中间位置。虽然我们还是先创建一个大尺寸的正方形位图(边长为绘图区高度),但是分割后的图形在这个正方形区域上不再具有天然的位置。下面的代码进行了这些位置的计算,和居中该分组所需的水平方向的偏移量的计算

之后我们就在新创建出的位图上绘制当前分组内的笔画了(通过canvasGraphics对象进行绘制

05

批量处理

在新应用中,我们一次需要识别多个字符。而以前我们一次只需要识别一个字符,哪怕我们每次都为了识别一个字符调用了一次模型的推理方法(model.Infer(...))。

不过我们现在已经准备好了多组数据,这使得我们有机会利用底层AI框架的并行处理能力,来加速我们的推理过程,还省去了手动处理多线程的麻烦。在这里我们采用 Visual Studio Tools for AI 提供的批量推理功能,一次对所有数据进行推理并得到全部结果。

首先我们在为所得分组创建位图之前,需要先创建一个用于储存所有数据的动态数组:

在处理所有分组的循环内部,处理完每个分组后,我们需要将该分组对应的像素数据暂时存放在动态数组“batchInferInput”

可以看到我们对每个分组的处理,都和以前对整个正方形绘图区的像素的处理,是完全一致的。唯一的不同是在以前的应用代码中,“List>”类型的数组(在上文中为“batchInferInput”变量)仅有一个元素,就是唯一一张位图的像素数据。而在本文中这个数组可能有很多元素,每个元素都是一组位图数据。对这样的位图数据集合进行批量推理后,得到的结果(即“inferResult”变量)是一个可枚举的类型,我们叫它“第一层枚举”。第一层枚举得到的每个元素也是一个可枚举类型,我们叫它“第二层枚举”。

第一层枚举中的每个元素都对应着一组位图数据的推理结果。同时第一层枚举也是对应着批量推理的输入数组,枚举的结果总数和输入数组的长度相同。对于第二层枚举,由于我们的推理结果只是一个整数,所以第二层枚举总是只有一个元素。我们可以通过“.First()”将其取出。这里我们可以看到,在以前的应用代码里,我们通过“inferResult.First().First()”取出了唯一的结果,而在这里我们则需要考虑批量推理结果的二维结构。

进行推理的代码如下:

06

计算表达式

至此,我们对于多个手写字符的识别就完成了。我们已经得到了可以表示用户手写图形的、易于计算机程序处理的字符串。接下来我们开始对字符串记载的数学表达式进行计算。

本文需要计算的数学表达式的格式,由上文的数据准备和模型训练部分可知,是相对简单的。其中只涉及数字 0-9、加减乘除和小括号。对这样的表达式进行求值,是一种非常典型的问题。因为这样的数学表达式有非常清晰、确定的语法规则,对其最直观的处理方法,就是先根据其语法进行解析,构造语法树后进行求值即可。或者,因为这种问题非常经典,我们也可以寻找已有的组件来解决这个问题。

本文直接复用“System.Data.DataTable”类提供的“Compute”方法来进行表达式的计算。这个方法完全支持本文案例中出现的表达式语法。

因为表达式的计算这部分逻辑边界非常清晰,我们引入一个独立的方法来获取最后的结果:

EvaluateAndFormatExpression方法接受一个标签序列,其中我们仍在用整数10-15来表示各种数学符号。在这个方法内我们对字符标签做两种映射,分别将标签序列转换成用于输入到计算器进行求值的,和用于在用户界面上展示的。EvaluateAndFormatExpression方法的返回结果形如“(3+2)÷2=2.5”。其中各种符号皆采用传统的数学写法。该方法的实现如下:

同时需要注意的是,根据表达式求值方案的不同,我们可能需要对表达式中的字符进行对应的调整。比如当我们希望在用户界面上将除号显示为更可读的“÷”时,我们采用的求值方案可能并不支持这种除号,而只支持 C# 语言中的除号"/"。那么我们在将识别出的结果输入到表达式计算器中之前,还需要对识别的结果进行合适的映射。

常见问题

新模型对括号和数字1的识别很差

这是一种非常容易出现的情况。因为在手写时,正反小括号和数字1极易混淆。这一问题有时会在扩展数据中体现。我们观察到原始 MNIST 数据集中(参见上文的数据可视化),很多数字1的形状和弯曲程度已经和括号相近。如果我们在扩展数据部分不做明显的区分,并且我们采用的卷积神经网络对这样微小的数据差别不敏感的话,就会导致造型相近的字符被错误识别的情况。

同理,这样的问题还可能发生在加号和乘号之间。因为加号和乘号的形状基本完全一样,只是靠角度得以区分。如果我们搜集的扩展数据里,这两种符号各自都具有一定的旋转角度,以致角度区分不够明显,这也会导致模型对其识别能力不强的情况出现。

扩展问题

经过一番扩展,我们的新应用已经具备一些不错的功能,初步满足了现实规格的应用需求。从本文的案例中,我们也能得到关于如何将人工智能和传统的技术手段融合起来,帮助我们更好地解决问题的一些启示。当然,这款新应用仍然不够强大和健壮。对此,我们注意到有这样一些问题仍待解决:

笔画分割的算法相对比较简单、粗糙,如何提升整体的分割效果,以顺利处理重叠、连笔、噪点等可能情况?

作为一款计算器应用,本文介绍的新应用具备的特性还是很少。如何增加新的数学计算特性,比如开根号、分数或者更多的数学符号?

作者简介

曹旭

微软亚洲研究院研发工程师

参与微软新一代人工智能教育科研平台的研发工作。先后参与过 Windows、Cortana、移动版 Edge 浏览器、智能云服务等的开发工作。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181031A0DZ5900?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券