导入库和模型,
from __future__ import print_function
import keras
from keras.datasets import mnist
from keras.models import Sequential
from keras.layers import Dense, Dropout, Flatten
from keras.layers import Conv2D, MaxPooling2D
import keras.backend as k
batch_size = 128
num_classes = 10
epochs = 12
下面的编
我正在尝试在一些模拟数据上训练自动编码器,其中输入基本上是一个应用了高斯噪声的向量。代码与本例中的代码几乎完全相同:
唯一的区别是我更改了网络参数和成本函数:
n_hidden_1 = 32 # 1st layer num features
n_hidden_2 = 16 # 2nd layer num features
n_input = 149 # LunaH-Map data input (number of counts per orbit)
cost = tf.reduce_mean(-tf.reduce_sum(y_true * tf.log(y_p
我正在尝试编写一个神经网络,从零开始识别xor函数。完整的代码是 (在python 3中)。
我目前正在收到错误:
ValueError: No gradients provided for any variable, check your graph for ops that do not support gradients
我对tensorflow并不熟悉,我不明白这是为什么。有人能帮我纠正我的代码吗?提前谢谢。
如果问题中需要更多的细节,请在投票前通知我。再次感谢!
编辑:代码的相关部分:
def initialize_parameters():
# Create Weights
我是新来西亚诺的。我已经学习了基础知识并尝试实现简单的模型(Logistic回归等)。该模型非常简单,具有784 (28*28)个输入单元和10个单元的softmax非线性(在MNIST数据集上进行训练)。我使用作为损失函数,并使用L2调节器来防止过度拟合。但模型似乎仍然过拟合(通过查看模型的权重;如下所示)。我尝试更改正则化参数(lambda),但什么都不起作用。我哪里错了?提前谢谢。
# theano stuff
from theano import shared, function, pp
import theano.tensor as T
import numpy as np
impo