我已经在kaggle.I的MNIST数据集上训练了一个神经网络,我在让神经网络预测它正在接收的数字时遇到了麻烦。 我不知道如何尝试解决此问题。 ‘python import pandas as pd
from tensorflow import keras
import matplotlib.pyplot as plt
import numpy as np
mnist=pd.read_csv(r"C:\Users\Chandrasang\python projects\digit-recognizer\train.csv").val
我使用tensorflow.examples.tutorials.mnist训练有5个隐藏层的nn。
这就是我训练神经网络的方法:
with tf.Session() as sess:
init.run()
for epoch in range(n_epochs):
for iteration in range(len(mnist.test.labels)//batch_size):
X_batch, y_batch = mnist.train.next_batch(batch_size)
sess.run(training_op, feed_dict=
我在ResNets上看了安德鲁·吴( Andrew )的视频,他提到“理论上,随着神经网络的深入,它只能在训练集上做得越来越好。”这是我对神经网络的理解,随着模型的发展,它将学习的参数会变得越来越复杂,对吗?直观地说,它应该能够识别/发现关于训练集的更详细的模式信息。我的理解正确吗?
那么,在实践中,为什么在神经网络中添加过多的层实际上会损害模型的性能?提前谢谢。
我正在使用带有mnist数据的TF.LEARN。我以0.96的精度训练了我的神经网络,但现在我不确定如何预测一个值。
这是我的代码..
#getting mnist data to a zip in the computer.
mnist.SOURCE_URL = 'https://web.archive.org/web/20160117040036/http://yann.lecun.com/exdb/mnist/'
trainX, trainY, testX, testY = mnist.load_data(one_hot=True)
# Define the neur
我是 tensorflow的新手,我寻找了使用tensorflow实现多层感知器的例子,但我只在MNIST图像数据集上获得了示例,除了MNIST之外,还可以使用相同的优化和成本函数来建立神经网络模型,并对数字格式的数据( Means )进行训练,我可以使用tensorflow来训练自己的数据集。
有训练新数据集的例子吗?。
在第50页的“”一书中,作者正在对数据集执行线性回归,并得到:
training set score: 0.67
test set score: 0.66
然后他们说,他们“很可能不适应,而不是过度适应”。
但是,当使用TensorFlow的时,它们使用的是带有神经网络的MNIST时尚数据集,并得到:
training set score: 0.892
test set score: 0.876
然后,他们声明如下
“事实证明,测试数据集的准确性略低于训练数据集的准确性。训练精度和测试精度之间的差距是过度拟合的一个例子。过度拟合是指机器学习模型在新数据上的表现比他们的训练数据更糟糕。“
我相信
我已经用Kaggle笔记本训练了一个快速的模型,它保存了模型,但是如何加载模型是问题,我尝试了不同的方法,比如下面给出的方法。即使它加载了模型,它也没有任何预测函数,我唯一能看到的就是model.eval()。第二个问题是,当模型在google collab上训练时,它甚至没有得到单一的图像,我确实尝试过将图像转换为NumPy和另一种方式,但这两种方法都不起作用。 我附加了模型训练的kaggle链接,保存的模型和测试图像在此代码后的最后 #Code for Loading model
from fastai import *
from fastai.vision import *
impo