展开

关键词

上篇的内容最后一个案例代码,其实来自官方的手写案例教程,我自己基于里面的内容自己删减了一些。 这里主要讲一下里面的据集,sklearn自带了很多据集,在安装包的data里面,就有手写据集。 虽说是,不过这个据集里面并没有实际图片。 这里的核心的可以分为下面几步: 第一步:创建分类器模型 简单理解,可以看作一个映射函,传入一个据,就可以返回一个结果给你。 =0.5, shuffle=False ) 第三步:训练分类器模型 通过上面的据训练后,分类器就可以用来进行图片了,不过前都会通过测试据测试一下,先看看准确率怎么样,确定效果还不错,就可以用来测试没有见过的图片了 2.从图片文件夹中将所有图片读取出来 这里只是做了图片的读取,所以只能。 3.定义一个单张图片匹配的方法。

19810

opencv +

现在很多场景需要使用的,比如银行卡,以及车牌等,在AI领域有很多图像算法,大多是居于opencv 或者谷歌开源的tesseract . 以上几种ocr 比较,最后选择了opencv 的方式进行ocr ,下面讲解通过ocr的基本流程和算法. opencv 流程及算法解析 要通过opencv 进行离不开训练库的支持 ,需要对目标图片进行大量的训练,才能做到精准的出目标;下面我会分讲解图片训练的过程及的过程. opencv 算法原理 1.比如下面一张图片,需要从中出正确的,需要对图片进行灰度 原图 灰度化图 二值化图 寻找轮廓 后的结果图 以上就是简单的图片进行灰度化、二值化、寻找轮廓得到的结果(==这是基于我之前训练过的模型下得到的结果==) 有些图片比较赋值 “.”的图片,这样就可以出小点的支持. -2 这个分类主要是其他一些无关紧要的图片,也就是不是和点的都归为这一类中.

16620
  • 广告
    关闭

    什么是世界上最好的编程语言?丨云托管征文活动

    代金券、腾讯视频VIP、QQ音乐VIP、QB、公仔等奖励等你来拿!

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    MNIST____SOFTMAX

    本次MNIST的手写未采用input_data.py文件,想尝试一下用原始的据集来运行这个DEMO。 例如:图片上的和标签的值是5,其对应的ONT-HOT编码为[0,0,0,0,0,1,0,0,0,0](分对应值【0,1,2,3,4,5,6,7,8,9】) ,也就是长度为10的一维组的第6个元素为 源码结构: 1.读取MNIST 2.创建占位符(用读取的据填充这些空占位符) 3.选用交叉熵作为损失函 4.使用梯度下降法(步长0.02),来使损失函最小 5.初始化变量 6.开始计算 7.输出率 correct_prediction_1, "float")) # 计算训练精度 print(sess.run(accuracy_1, feed_dict={x: xs_t, y_: ys_t})) #输出的准确率 可又说不上来~ 参考资料: ONE-HOT使用体会 : https://blog.csdn.net/lanhaier0591/article/details/78702558 训练Tensorflow手写

    33910

    tf22: ocr——不定长

    上一篇: 身份证——生成身份证号和汉 代码如下: #! /usr/bin/env python2 # -*- coding: utf-8 -*- """ tf CNN+LSTM+CTC 训练不定长符图片 @author: liupeng """ from num_epochs = 10000 num_hidden = 64 num_layers = 1 obj = gen_id_card() num_classes = obj.len + 1 + 1 # 10位 /usr/bin/env python2 # -*- coding: utf-8 -*- """ tf CNN+LSTM+CTC 训练不定长符图片 @author: pengyuanjie num_epochs = 10000 num_hidden = 64 num_layers = 1 obj = gen_id_card() num_classes = obj.len + 1 + 1 # 10位

    1.4K100

    kaggle-手写

    下载据到本地,加载据 import numpy as np import csv import pandas as pd def load_data(csv): lines = csv.reader l = np.array(l[1:], dtype=float) train = l[1:,1:] label = l[1:,0] a = pd.DataFrame(train) # 二值化,不影响显示 = 1 l = load_data('test.csv') test = np.array(l[1:], dtype=float) a = pd.DataFrame(test) # 二值化,不影响显示 画一个像素图片,第二个图片,上面预测是0 from PIL import Image import numpy as np import matplotlib.pyplot as plt import

    30920

    CNN+MNIST+INPUT_DATA

    用经典卷积神经网络模型LeNet-5实现手写,模型如下图所示: k9q2fpo.png 模型的详细结构: 3hG9eAa.png 流程图: 20171020225530585.png TALK return numpy.frombuffer(bytestream.read(4), dtype=dt)[0] 节顺序是指多节的值在硬件中的存储顺序, 一般分为大端(big-endian) 和小端(little-endian) 大端: 先存储高节(Most significant bit),或者说,高节存储在低地址,,低节存储在高地址 numpy.frombuffer(buffer _labels[start:end] assert:断言函,若图片量不等于标签量,则在错误信息里输出(images.shape和labels.shape) multiply(a,b):两个组a, mnist.test.images[:2000], y_:mnist.test.labels[:2000], keep_prob: 1.0}) print("test accuracy",(test_acc)) 参考资料: 节顺序

    63530

    Softmax 手写

    TensorFlow 入门(二):Softmax 手写 MNIST是一个非常简单的机器视觉据集,如下图所示,它由几万张28像素x28像素的手写组成,这些图片只包含灰度值信息。 我们的任务就是对这些手写的图片进行分类,转成0~9一共十类。 ? 我们可以用一个组来表示这张图片: ? 我们把这个组展开成一个向量,长度是 28x28 = 784。如何展开这个组(间的顺序)不重要,只要保持各个图片采用相同的方式展开。 这里手写为多分类问题,因此我们采用Softmax Regression模型来处理。关于Softmax,可以参看这里。你也可以认为它是二分类问题Sigmoid函的推广。 我们第一层采用Logistic Regression,一张图片总共有(28 x 28)784个特征,每个特征与一个参相乘,代表这个特征在此类上的贡献,可以参看上图。

    86140

    KNN 手写

    (classCount.items(), key=operator.itemgetter(1), reverse=True) return sortedClassCount[0][0] 手写 fileNameStr = trainingFileList[i] # 去掉 .txt fileStr = fileNameStr.split('.')[0] # 第一个为分类 fileNameStr = testFileList[i] # 去掉 .txt fileStr = fileNameStr.split('.')[0] # 第一个是类 Peter Harrington 本文作者: yiyun 本文链接: https://moeci.com/posts/分类-读书笔记/KNN-num-recognititon/ 版权声明: 本博客所有文章除特声明外

    8720

    TensorFlow-1: 如何

    在机器学习任务中的地位和 Hello World 在编程中是一样的。 主要步骤: 获得据:from Yann LeCun's website 建立模型:softmax 定义 tensor,variable:X,W,b 定义损失函,优化器:cross-entropy,gradient 是它的 label 其中图片由 28*28 像素组成,转化成 array 的形式,变成 1*784 维 y 变为 one-hot 的形式,即属于哪个,就在哪个位置上为 1, 其余为 0 ? 归一的作用:好理解,就是转化成概率的性质 为什么要取指:在 《常用激活函比较》写过 http://www.jianshu.com/p/22d9720dbf1a 第一个原因是要模拟 max 的行为 再测试一下 test 据集上的准确率,结果可以达到 92%。

    55670

    TensorFlow-2: 用 CNN

    ---- 本文结构: CNN 建立模型 code ---- 昨天只是用了简单的 softmax 做,准确率为 92%,这个太低了,今天用 CNN 来提高一下准确率。 所以接着是 Fully Connected 层,它可以对据进行分类。 ? ? 在 CNN 中有几个重要的概念: stride padding pooling stride,就是每跨多少步抽取信息。 convolution-pooling 层,全连接层,加 dropout 减小过拟合,得到预测值 y_conv: 每一层建立 weight 和 bias, 和上一层的输出值经过 conv2d 作用后,应用 ReLu 激活函, keep_prob = tf.placeholder(tf.float32) x_image = tf.reshape(xs, [-1, 28, 28, 1]) # 最后一个1表示据是黑白的

    48050

    PaddlePaddle之手写

    作者:Charlotte77学系的据挖掘民工 博客专栏:http://www.cnblogs.com/charlotte77/ 个人公众号:Charlotte据挖掘(ID:CharlotteDataMining ~ PaddlePaddle的安装 不得不吐槽一下PaddlePaddle的安装,官网上说“PaddlePaddle目前唯一官方支持的运行的方式是Docker容器”,而docker其实在国内还并不是特的流行 ,最简单的安装方式就是: CPU版本安装 pip install paddlepaddle GPU版本安装 pip install paddlepaddle-gpu 用PaddlePaddle实现手写在第一层卷积层和第二层卷积层后加了dropout,阈值设为0.5。 这次训练的手写据量比较小,但是如果想要添加据,也非常方便,直接添加到相应目录下。 2.event_handler机制,可以自定义训练结果输出内容。

    40080

    TensorFlow-1: 如何

    在机器学习任务中的地位和 Hello World 在编程中是一样的。 主要步骤: 获得据:from Yann LeCun's website 建立模型:softmax 定义 tensor,variable:X,W,b 定义损失函,优化器:cross-entropy,gradient label 其中图片由 28*28 像素组成,转化成 array 的形式,变成 1*784 维 y 变为 one-hot 的形式,即属于哪个,就在哪个位置上为 1, 其余为 0 目标:给了 X 把 evidence 转化为 probabilities 简单看,softmax 就是把 input 先做指,再做一下归一: 归一的作用:好理解,就是转化成概率的性质 为什么要取指:在 《常用激活函比较 再测试一下 test 据集上的准确率,结果可以达到 92%。

    1.2K00

    TensorFlow -2: 用 CNN

    本文结构: CNN 建立模型 code 昨天只是用了简单的 softmax 做,准确率为 92%,这个太低了,今天用 CNN 来提高一下准确率。 所以接着是 Fully Connected 层,它可以对据进行分类。 convolution-pooling 层,全连接层,加 dropout 减小过拟合,得到预测值 y_conv: 每一层建立 weight 和 bias, 和上一层的输出值经过 conv2d 作用后,应用 ReLu 激活函, keep_prob = tf.placeholder(tf.float32) x_image = tf.reshape(xs, [-1, 28, 28, 1]) # 最后一个1表示据是黑白的

    2.2K01

    TensorFlow-手写(三)

    本篇文章在上篇TensorFlow-手写(二)的基础上,将全连接网络改为LeNet-5卷积神经网络,实现手写。 参:Σ(前层x后层+后层) 如之前用于手写的3层全连接网络,输入层784个节点,隐藏层500个节点,输出层10个节点。 padding:是否使用padding,默认用的是VALID,注意这里是以符串的形式给出VALID。 LeNet-5是最早出现的卷积神经网络,它有效解决了手写问题。 prediction number is: [9] TRUE m = 10,n = 10 test accuracy = 100% 该测试结果用的是下面教程链接中的图片(下图第一排),换成自己手写的

    27720

    TensorFlow-手写(二)

    本篇文章在上篇TensorFlow-手写(一)的基础上进行改进,主要实现以下3点: 断点续训 测试真实图片 制作TFRecords格式据集 断点续训 上次的代码每次进行模型训练时,都会重新开始进行训练 application()函:输入要的几张图片(注意要给出待图片的路径和名称)。 tf.train.Example:用来存储训练据,训练据的特征用键值对的形式表示 SerializeToString( ):把据序列化成符串存储 生成tfrecords文件 读取原始图片和标签文件 min_after_dequeue: 出队后队列中的最小量元素,用于确保元素的混合级 num_threads: 排列 tensors 的线程 seed:用于队列内的随机洗牌 enqueue_many 注:以上测试图片用的是下面教程中自带的图片,测试结果100%准确,我自己用Windows画图板手写了0~9的,准确度只有50%左右,可能是我手写体和MNIST库中的风格差异较大,或是目前的网络还不够好

    22910

    TensorFlow-手写(一)

    该图片对应的标签为[0.0.0.0.0.0.1.0.0.0],标签中索引号为 6 的元素为 1,表示是 6 出现的概率为 100%,则该图片对应的结果是 6。 TensorFlow模型搭建基础 实现“MNIST据集手写 ”的常用函 ① tf.get_collection("") 函表示从collection集合中取出全部变量生成一个列表 。 (即batch_size个据)上神经网络模型的预测结果,y的形状为[batch_size,10],每一行表示一张图片的结果。 网络模型搭建与测试 实现手写体MNIST据集的任务,共分为三个模块文件,分是: 描述网络结构的前向传播过程文件(mnist_forward.py) 描述网络参优化方法的反向传播过程文件(mnist_backward.py 实现手写体MNIST据集的任务前向传播过程如下: import tensorflow as tf INPUT_NODE = 784 OUTPUT_NODE = 10 LAYER1_NODE =

    45410

    Digit Recognizer 手写

    Baseline 读取据 import pandas as pd train = pd.read_csv('train.csv') X_test = pd.read_csv('test.csv') 特征 网格搜索 KNN 模型最佳参 from sklearn.neighbors import KNeighborsClassifier from sklearn.model_selection import 'weights': ['uniform', 'distance']}], scoring='accuracy') 最佳参

    26730

    keras的图像

    aistudio地址: https://aistudio.baidu.com/aistudio/projectdetail/1484526 keras的图像 一、加载据 MNIST据集预加载到 Keras库中,包括4个Numpy组。 一个二维组,5转成0. 0. 0. 0. 0. 1. 0. 0. 0. 0. : 0.97 test_loss 0.07070968300104141 test_acc 0.9790999889373779 六、预测模型 使用predict()方法进行预测,返回样本属于每一个类的概率 使用numpy.argmax()方法找到样本以最大概率所属的类作为样本的预测标签。

    26800

    【场景文】场景文

    场景文是在图像背景复杂、分辨率低下、体多样、分布随意等情况下,将图像信息转化为文序列的过程,可认为是一种特的翻译过程:将图像输入翻译为自然语言输出。 场景图像文技术的发展也促进了一些新型应用的产生,如通过自动路牌中的文帮助街景应用获取更加准确的地址信息等。 在场景文任务中,我们介绍如何将基于CNN的图像特征提取和基于RNN的序列翻译技术结合,免除人工定义特征,避免符分割,使用自动学习到的图像特征,完成端到端地无约束符定位和。 本例将演示如何用 PaddlePaddle 完成 场景文 (STR, Scene Text Recognition) 。 任务如下图所示,给定一张场景图片,STR 需要从中出对应的文"keep"。 ? 图 1. 输入据示例 "keep" |2.

    1.8K70

    iOS学习】——手势

    iOS 手势 1.如果一个控件继承于 UIControl,那么它将不需要手势 2.所有控件都可以添加手势 [控件 addGestureRecognizer: ] 3.iOS UIRotationGestureRecognizer 旋转 UIPinchGestureRecognizer 捏合 UILongPressGestureRecognizer 长按 4.iOS 手势.gif /** 图片 */ @property (nonatomic,strong) UIImageView *imageView; /** 组 */ @property (nonatomic, strong) NSArray *images; /** 图片张 */ @property int count; _count = 0; _images = @[[UIImage [[UITapGestureRecognizer alloc] initWithTarget:self action:@selector(doubleTapAction:)]; //判断点击次

    32710

    相关产品

    • 数字文博采集与建模

      数字文博采集与建模

      数字文博采集与建模(DMAM ),基于人工智能视觉识别技术,能快速准确采集实景,自动生成数字3D场景,以微米级精度实现文物三维互动。通过三维数字化技术,能实现720°VR实景漫游、虚拟漫游,为您提供如临现场的空间漫游体验。

    相关资讯

    热门标签

    扫码关注云+社区

    领取腾讯云代金券