展开

关键词

AIDog改造手记:使用TensorFlow 2.0

TensorFlow:Server端实现补充 当微信小程序遇上TensorFlow:小程序实现 当微信小程序遇上TensorFlow:接收base64编码图像数据 当微信小程序遇上TensorFlow:终章 狗君微信小程序的部署 这次使用TensorFlow 2.0进行改写,当然采用推荐的keras接口进行实现。 ([ base_model, keras.layers.GlobalAveragePooling2D(), keras.layers.Dense(num_classes layers we want to fine-tune for layer in base_model.layers[:100]: layer.trainable = False 可以自行决定多少不参与参数更新 接下来一行代码,在基础模型Inception V3的基础上加入一个平均池化和全连接,为什么这样定义?是参考网上的资料,最简单的方法可以仅仅加入一个使用softmax激活函数的全连接

37620

深度学习在情感分析中的应用

情感分析的本质就是根据已知的文字和情感符号,推测文字是正面的还是负面的。 原来,Keras 自带的load_data 函数帮我们从亚马逊S3 中下载了数据,并且给每个词标注了一个索引(index),创建了字典。每段文字的每个词对应了一个数字。 接下来可以看一看平均每个评论有多少个字: avg_len = list(map(len, X_train))print(np.mean(avg_len)) 可以看到平均字长为238.714。 图7.2 词向量示意图(图片来源:https://deeplearning4j.org/word2vec) 多层全连接神经网络训练情感分析 不同于已经训练好的词向量,Keras 提供了设计嵌入(Embedding Embedding 函数定义了嵌入的框架,其一般有3 个变量:字典的长度(即文本中有多少词向量)、词向量的维度和每个文本输入的长度。

88130
  • 广告
    关闭

    文字识别特惠,1000次资源包低至1元!!

    基于行业前沿的深度学习技术,将图片上的文字内容智能识别成为可编辑的文本。有效地代替人工录入信息。

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    基于 Tensorflow eager 的文本生成,注意力,图像注释的完整代码

    (分类) 明天会下雨的几率是多少? (回归) 掌握分类和回归是非常有用的技能,并且这些领域的应用对现实问题几乎没有限制。但是,我们可能会问其他不同类型的问题。 我们能生成一首诗吗? (文字生成) 我们可以生成一张猫的照片吗? (GANs) 我们可以将句子从一种语言翻译成另一种语言吗? (NMT) 我们可以描述图像内容吗? 当启用eager function时,模型子类化特别有用,因为可以强制写入前向传递。 基于莎士比亚的大量作品,这个例子学会了生成听起来和风格相似的文字: ? 在训练莎士比亚写作集合的30个时期的后,笔记本生成了示例文本。 如果您想了解更多关于使用Keras或tf.keras实现RNN的信息,我们推荐由Francois Chollet提供的笔记。

    38220

    如何基于微信的场景差异化,做出有腾讯特色的扫一扫

    微信扫一扫物为直达微信内部生态的新窗口,提供电商、百科、资讯等信息。目前微信扫一扫物提供的服务有:图像识别、图像搜索、二维码识别、文字提取。 下表列出了各大平台之图像搜索的功能细项。 当然,在这样的场景下,图像识别有着很大的实现难度。但是,如果今天搭配了手机位置信息,其实我已经知道你在哪一家店了。将范围缩小,这样做起图像搜索是不是就简单了许多。 让原本要打开大众点评App的用户,转而从微信扫一扫物,进入大众点评小程序,抢占入口流量。养成用户使用微信扫景点、扫餐厅、扫美食的习惯。 三、用户想要的是精准吗? 扫人脸:测肤质、测颜值、测五官、明星、虚拟试妆 扫码 万物 题目:初中、高中、大学、专科、研究生、在职考试;语文填空、拍照搜题、口算批改 翻译:拍照、取词 文字:提取文字、识别生字 识货 AR: 在这样的教程下,不仅可以让用户了解扫一扫物中,功能与场景的更新,并且帮助用户快速上手体验了扫一扫物与图片搜一搜。

    53650

    keras知识点

    keras 中数据预处理 所有的函数都在keras.preprocessing 分别有text ,sequence, image # 文字预处理 txt = "My name is maoli.maoli 文字预处理 文字拆分 建立索引 padding(序列补齐) 标注 from keras.preprocessing.text import text_to_word_sequence # 文本转化序列 ', 'd', "n't", 'ke', 'c', 'd', 'ng.'] ---- # 文字拆分 chn = '我的名字叫毛利。 模型 在 Keras 中有两类主要的模型:Sequential 顺序模型 和 使用函数式 API 的 Model 类模型。 # 这里主要讲下使用函数式 API from keras.models import Model from keras.layers import Input, Dense a = Input(shape

    26620

    CV进阶—实战 | 手把手教你简单的人脸识别

    本次学习后,你会对识别有一个深入了解,也会对该领域有浓厚的兴趣! 今天我们主要以实践为主!!! 导入相关库 from keras.models import Sequential from keras.layers import Conv2D,MaxPool2D,Activation,Dropout ,Flatten,Dense from keras.optimizers import Adam from keras.preprocessing.image import ImageDataGenerator 输入则为设置的宽高大小的图片: IMG_W = 224 IMG_H = 224 该处主要定义类别数(本次我用了两类,所以CLASS = 2)、EPOCH是迭代周期、BATCH_SIZE是批次大小(也就是一次输入多少图像 接下来是创建另一个卷积及池化,具体如下: model.add(Conv2D(filters=32,kernel_size=3,padding='same',activation='relu')) model.add

    39420

    Keras作者:TF 2.0+Keras深度学习研究你需要了解的12件事

    TensorFlow 2.0 + Keras 做深度学习研究,这里有你需要知道的一切。 Keras 作者 François Chollet 今天发表了一系列推文,用12个示例解释了使用TensorFlow 2.0 + Keras 的一些重要技巧。 如果你使用 TF 2.0 + Keras 做深度学习研究,这里有你需要知道的一切。 ? Keras 作者 François Chollet 1)你需要知道的第一个类是 “Layer”。 这对于正则化损失特别有用。子创建的损失由父递归跟踪。 ? 8)这些损失在每次向前传递开始时由顶层清除 —— 它们不会累积。 了解关于 Functional API 的更多信息: https://www.tensorflow.org/alpha/guide/keras/functional 但是,请注意,函数式 API 只能用于定义

    23220

    Keras之父发声:TF 2.0 + Keras 深度学习必知的12件事”

    Keras 作者 François Chollet 近日发表了一系列推文,如果你使用 TensorFlow 2.0 + Keras 做深度学习研究,这里有你需要知道的一切。 Keras 作者 François Chollet 今天发表了一系列推文,用12个示例解释了使用TensorFlow 2.0 + Keras 的一些重要技巧。 如果你使用 TF 2.0 + Keras 做深度学习研究,这里有你需要知道的一切。 ? Keras 作者 François Chollet 1)你需要知道的第一个类是 “Layer”。 这对于正则化损失特别有用。子创建的损失由父递归跟踪。 ? 8)这些损失在每次向前传递开始时由顶层清除 —— 它们不会累积。 了解关于 Functional API 的更多信息: https://www.tensorflow.org/alpha/guide/keras/functional 但是,请注意,函数式 API 只能用于定义

    54210

    MLK | Keras 入门深度学习逢看必会

    Index Keras的简易安装——Window版 Keras 的“Hello World” 01 Keras的简易安装——Window版 Keras作为深度学习工具,对于 初学者还是蛮友好的 Step2:定义模型 这里的意思就是需要我们去定义神经网络模型的样子,据我们了解,神经网络有比较经典的几个结构:分别是输入、隐含、输出,以及中间的节点个数、激活函数等等,具体可以参考先前的文章(MLK 从图上,我们可以大致看出这个神经网络有两个隐含,分别有500个节点,输出有10个节点,激活函数是Softmax函数,因此可以大致写出下面代码: # 初始化network的模样 model = Sequential activation = 'sigmoid')) # 定义网络第 2 个隐含的节点个数 model.add(Dense(output_dim = 500, activation 然后我们的损失函数可以采用 cateqorical crossentropy ,这个loss function的中文名叫做分类交叉熵,适用于多分类问题,并且使用softmax作为输出激活函数的神经网络

    27320

    基于深度学习的自然场景文字检测及端到端的OCR中文文字识别

    实现功能 文字方向检测 0、90、180、270度检测 文字检测 后期将切换到keras版本文本检测 实现keras端到端的文本检测及识别 不定长OCR识别 本文完整项目代码,模型预训练权重,和数据集获取方式 /eragonruan/text-detection-ctpn OCR 端到端识别:CRNN ocr识别采用GRU+CTC端到到识别技术,实现不分隔识别不定长文字 提供keras 与pytorch版本的训练代码 /train/keras_train/train_batch.py model_path--指向预训练权重位置 MODEL_PATH---指向模型训练保存的位置keras模型预训练权重 pythorch 可以看到,对于纯文字的识别结果还是阔以的呢,感觉可以在crnn网络在加以改进,现在的crnn中的cnn有点浅,并且rnn为单层双向+attention,目前正在针对这个地方进行改动,使用迁移学习,以restnet 为特征提取,使用多层双向动态rnn+attention+ctc的机制,将模型加深,目前正在进行模型搭建,结果好的话就发上来。

    1.3K40

    使用Tensorflow 2.0 Reimagine Plutarch

    在这里将主要关注利用TensorFlow 2.0平台的嵌入一词; 目的是更好地了解该如何工作以及它如何为更大的NLP模型的成功做出贡献。 在导入相关库之后,继续构建新的,非常基本的模型架构: from tensorflow.keras import layers from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, Embedding embedding_dim=100 model = tf.keras.Sequential Mask_zero通知模型输入值0是否是应该被屏蔽掉的特殊填充值,这在模型可以处理变量输入长度的循环中特别有用。 在训练之后,具有相似含义的足够有意义的数据词可能具有相似的向量。 /TextExplore/blob/master/RePlutarch_TFembPub.ipynb 可视化 对于嵌入的可视化,很难击败TensorFlow投影仪,所以创建矢量和元(即对应于这些矢量的文字

    29330

    keras中文doc之三

    前面介绍了keras文档一二 keras中文文档, keras中文-快速开始Sequential模型 keras文档内容丰富(视觉、语言、cnn、lstm、常用模型等),代码思路清晰,非常方便入门了解。 我们希望预测Twitter上一条新闻会被转发和点赞多少次。模型的主要输入是新闻本身,也就是一个词语的序列。但我们还可以拥有额外的输入,如新闻发布的日期等。 如果考虑中文字符,那一个单词的词向量就不止256了。【@Bigmoyan】 ? 在上一版本的Keras中,你可以通过layer.get_ouput()方法来获得的输出张量,或者通过layer.output_shape获得其输出张量的shape。 这个版本的Keras你仍然可以这么做(除了layer.get_ouput()被ouput()替换)。但如果一个与多个输入相连,会出现什么情况呢? 如果只与一个输入相连,那没有任何困惑的地方。.

    21520

    我理解的循环神经网络RNN

    本来今天在写毕业论文,就不打算更新了,但是写毕业论文挺痛苦的,因为我发现毕业论文的文字不能像公众号这样比较随意,随意的文字不是说不严谨,而是为了便于大家理解,这里就是想吐槽一下,国内写论文的“八股文”现状 份Keras做验证码识别的代码,稍微懂一点Keras,(PS:当初搭Keras的这个环境,把我坑惨了,身边也没人懂,也不知道问谁,虽然现在看起来是那么简单,当时也没人给我讲,第一次听说Keras,Theano 神经网络大家应该都比较清楚了,一般有输入,隐藏,输出。也就是有一个输入,会给出一个输出,由于中间隐藏加入了一些非线性的函数,所以神经网络是一个非线性模型。 从左到右看一下这个,首先一个输入x,经过U,U应该是weights,到达隐藏,隐藏的输出分为2部分,一部分经过V到输出,另一部分经过W重新输入到隐藏的神经元当中。 这个是深度双向RNN,这里的隐藏是三,其实我想这个应该就和深度卷积神经网络一样了吧,你想加多少都可以。在Keras里面,这个都有实现。

    56190

    手机人工智能时代,华为Mate 10这些功能一定要知道

    智慧物识别天气和美食   AI相机功能可以实现AI物,根据不同的场景自动识别人像、夜景等13种拍照环境,在拍摄类似食物、人、狗、文字等内容时,ISP+NPU的组合可以实现本地智慧物的功能,并且自动调节拍照参数 随行翻译:出门在外的私人助理   估计不少小伙伴,不管是看书还是出国旅游,都会遇到语言障碍,有了华为Mate10在手,你只要拿出手机,对着文字部分就可以实时的进行翻译了,华为Mate10 支持AI加速的翻译技术 提一个最常用的场景,在国外看不懂菜单、路标,手机输入法可能都无法输入相应的文字,用在线的图片翻译可能会因为信号不好而速度缓慢,更别提国外高昂的流量费用。 语音助手:真正实现正常对话   EMUI8.0也引入了麒麟970的智慧引擎,在人工智能方面除了上文提到的物、屏、在线翻译 ,这次语音助手也进行了全面升级,能更懂我们说的话了。 ?    Mate 10语音助手可以对手机进行智能检测,并给我们提供了一键优化的功能,同时,语音助手也在不断的学习,人工智能强大之处并不在于能立即实现多少功能,而是通过手机端AI的不断学习来更加适合用户的使用。

    2K90

    R语言深度学习卷积神经网络 (CNN)对 CIFAR 图像进行分类:训练与结果评估可视化

    由于本教程使用 Keras Sequential API,因此创建和训练我们的模型只需几行代码。 设置 library(keras) 下载并准备 CIFAR10 数据集 CIFAR10 数据集包含 10 个类别的 60,000 张彩色图像,每个类别有 6,000 张图像。 每个Conv2D的输出通道的数量由第一个参数控制(例如32或64)。通常情况下,随着宽度和高度的缩小,你可以承受(计算上)在每个Conv2D中增加更多的输出通道。 在顶部添加密集 为了完成我们的模型,您需要将卷积基(形状为 (3, 3, 64))的最后一个输出张量输入一个或多个 Dense 以执行分类。密集将向量作为输入(1D),而当前输出是 3D 张量。 注意 Keras 模型是可变对象,您不需要在上面的 chubnk 中重新分配模型。

    34720

    我们分析了超过50万首诗歌,教你用代码写诗

    我使用一个很简单的规则,通过判断每个字符\n对应多少个单词判断文本是否是诗歌。如果文本有许多单词但字符\n很少,它可能是一段或多段文字的集合。 我使用Python中的keras(https://github.com/keras-team/keras)工具建立神经网络,keras的GitHub中有许多例子(https://github.com/keras-team /keras/tree/master/examples),可以帮助你学习使用几种不同类型的神经网络,其中有一个例子就是使用LSTM生成文本(https://github.com/keras-team/keras 这里有由训练数据生成的文字云。 ? 诗人喜欢写爱情。 艾米莉狄金森写了关于自然和死亡的诗歌。机器人给个人写有关天体的诗! 添加第二个LSTM图层后,可以开始看到其他诗歌技巧,如头韵和韵律。 来自你内心的阴暗 我待着 灵魂中挣扎 这不是大段文字的摘录。这些单行诗被牢牢地定位在两个++++\n分隔符之间。 ? 哇,人们好有趣啊,我们将创造奇迹!

    51170

    小白学PyTorch | 15 TF2实现一个简单的服装分类任务

    2 数据集构建 # keras是TF的高级API,用起来更加的方便,一般也是用keras。 来看一下这些类别有哪些: 标签 类别 标签 类别 0 T-shirt 5 Sandal 1 Trouser 6 Shirt 2 Pullover 7 Sneaker 3 Dress 8 Bag 4 Coat ,因为这里是直接用全连接而不是卷积进行处理的; 后面跟上两个全连接keras.layers.Dense()就行了。 我们可以发现,这个全连接的参数和PyTorch是有一些区别的: PyTorch的全连接需要一个输入神经元数量和输出数量torch.nn.Linear(5,10),而keras中的Dense是不需要输入参数的 keras.layers.Dense(10); keras中的激活直接封装在了Dense函数里面,所以不需要像PyTorch一样单独写一个nn.ReLU()了。

    28131

    什么是 Dropout

    看一下在 Keras 里面怎么用 dropout 问题:binary 分类,根据数据集,识别 rocks 和 mock-mines 数据集下载:存在 sonar.csv 里面,http://archive.ics.uci.edu 分别有 60 和 30 个神经元,用 SGD 训练,并用 10-fold cross validation 得到 classification accuracy 为: 86.04% ? 在 input 和 第一个隐藏之间,插入一 dropout ,rate=20%,意思是,5个神经元里面有一个被随机去掉后,accuracy 为:82.18%,下降了一点 ? 在两个隐藏之间,第二个隐藏和 output 之间加入 dropout 后,accuracy 为:84.00% ? 可见本例并不适合用 dropout 的。 article/details/49022443 http://machinelearningmastery.com/dropout-regularization-deep-learning-models-keras

    87080

    python实现人工智能识别水果

    2.卷积模型搭建:采用keras搭建模型,卷积、池化、Dropout、全连接、输出 3.模型训练把数据集在建立的模型上进行训练,并把最好的模型保存到h5文件中,便于直接对模型进行测试。 测试前代码: from keras.applications.resnet50 import ResNet50 #//导入AI软件平台keras 里的AI模型 ResNet50 from keras.preprocessing decode_predictions(preds, top=3)[0][0][1]; if __name__ == '__main__': capture_camera_pic() } 3)详细设计 改进为可以把文字由英文转中文的代码 pil_img) # 第一个参数是字体文件的路径,第二个是字体大小 font = ImageFont.truetype('msyh.ttc', 30, encoding='utf-8') # 第一个参数是文字的起始坐标 ,第二个需要输出的文字,第三个是字体颜色,第四个是字体类型 draw.text((30,50), jieguo(), (0, 0, 0), font=font) # PIL图片转cv2 img =

    22050

    Deep learning with Python 学习笔记(7)

    这些性质让卷积神经网络在计算机视觉领域表现优异,同样也让它对序列处理特别有效。 该操作也是用于降低一维输入的长度 Keras中的一维卷积神经网络是 Conv1D ,它接收的输入形状是(samples, time, features)的三维张量,并返回类似形状的三维张量。 ,将三维输出转换为二维输出,让你可以向模型中添加一个或多个 Dense ,用于分类或回归。 from keras.datasets import imdb from keras.preprocessing import sequence from keras.models import Sequential from keras import layers from keras.optimizers import RMSprop import tools max_features = 1000 max_len

    26910

    扫码关注腾讯云开发者

    领取腾讯云代金券