首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

『 论文阅读』Understanding deep learning requires rethinking generalization

虽然其规模巨大,但成功的深层人工神经网络可以获得训练和测试集非常小的性能差异。 传统知识认为这种小的泛化误差归功于模型的性能,或者是由于在训练的时候加入了正则化技术。 通过广泛的系统实验,我们展示了这些传统方法如何不能解释,而为什么大型神经网络能在实践中推广。具体来说,实验建立了用随机梯度方法训练的图像分类的最先进的卷积网络,能容易地拟合训练数据的随机标记。这种现象在质量上不受显式正则化的影响,即使我们用完全非结构化的随机噪声替换真实图像,也会发生这种现象。 我们用理论结构证实了这些实验结果,表明简单的深度两个神经网络一旦参数数量超过了实际数据点的数量,就已经具有完美的有限样本表达能力。 论文通过与传统模型的比较来解释我们的实验结果。

03

cifar10数据集的读取Python/Tensorflow

以github上yscbm的代码为例进行讲解,代码链接:https://github.com/yscbm/tensorflow/blob/master/common/extract_cifar10.py 首先导入必要的模块



 import gzip

 import numpy as np

 import os

 import tensorflow as tf

 
我们定义一些变量,因为针对的是cifar10数据集,所以变量的值都是固定的,为什么定义这些变量呢,因为变量的名字可以很直观的告诉我们这个数字的代表什么,试想如果代码里面全是些数字,我们会不会看糊涂了呢,我们知道cifar10数据集下载下来你会发现有data_batch_1.bin,data_batch_2.bin….data_batch_5.bin五个作为训练,test_batch.bin作为测试,每一个文件都是10000张图片,因此50000张用于训练,10000张用于测试


 LABEL_SIZE = 1

 IMAGE_SIZE = 32

 NUM_CHANNELS = 3

 PIXEL_DEPTH = 255

 NUM_CLASSES = 10

03
领券