Epoch 1/20
1213/1213 [==============================] - 0s - loss: 0.1760
Epoch 2/20
1213/1213 [==============================] - 0s - loss: 0.1840
Epoch 3/20
1213/1213 [==============================] - 0s - loss: 0.1816
Epoch 4/20
1213/1213 [==============================] - 0s - loss: 0.1915
Epoch 5/20
1213/1213 [==============================] - 0s - loss: 0.1928
Epoch 6/20
1213/1213 [==============================] - 0s - loss: 0.1964
Epoch 7/20
1213/1213 [==============================] - 0s - loss: 0.1948
Epoch 8/20
1213/1213 [==============================] - 0s - loss: 0.1971
Epoch 9/20
1213/1213 [==============================] - 0s - loss: 0.1899
Epoch 10/20
1213/1213 [==============================] - 0s - loss: 0.1957
Epoch 11/20
1213/1213 [==============================] - 0s - loss: 0.1923
Epoch 12/20
1213/1213 [==============================] - 0s - loss: 0.1910
Epoch 13/20
1213/1213 [==============================] - 0s - loss: 0.2104
Epoch 14/20
1213/1213 [==============================] - 0s - loss: 0.1976
Epoch 15/20
1213/1213 [==============================] - 0s - loss: 0.1979
Epoch 16/20
1213/1213 [==============================] - 0s - loss: 0.2036
Epoch 17/20
1213/1213 [==============================] - 0s - loss: 0.2019
Epoch 18/20
1213/1213 [==============================] - 0s - loss: 0.1978
Epoch 19/20
1213/1213 [==============================] - 0s - loss: 0.1954
Epoch 20/20
1213/1213 [==============================] - 0s - loss: 0.1949
发布于 2018-05-24 10:43:28
通过在Keras模型上运行FIT,可以看到的是,在n个历元的情况下,损失会减少。你的训练跑得很不正常,因为你的损失实际上在增加。这能这是由于学习速度太大,这是导致你超调的最佳。
正如jaycode所提到的,将希望查看模型在不可见数据上的性能,因为这是机器学习的一般用例。
因此,应该在编译方法中包含一个度量列表,它可能如下所示:
model.compile(optimizer='rmsprop', loss='categorical_crossentropy', metrics=['accuracy'])
以及在FIT方法期间运行验证模型,例如:
model.fit(data, labels, validation_split=0.2)
发布于 2018-05-24 12:01:35
当模型通过网络中的所有节点运行数据并准备更新权重以达到最佳损失值时,就会有一个时代结束。也就是说,越小越好。在你的例子中,由于在较高的时期有较高的损失分数,“似乎”模型在第一阶段更好。
我说“似乎”,因为我们还不能确定,因为模型还没有用正确的交叉验证方法进行测试,也就是说,它只是根据其训练数据进行评估。
改进模型的方法:
将skLearning的GridSearchCV与Keras相结合,可以实现这一过程的自动化。
https://stackoverflow.com/questions/-100001359
复制相似问题