吴恩达所说的讲座
log -1/m * J= (y*log(h(X))+(1-y)log(1-h(X)
但在https://www.tensorflow.org/get_started/mnist/beginners中,他们说:

他们为什么要用这个公式?
发布于 2017-02-24 21:54:04
这就是二元vs分类方法。Andrew Ng成本函数是二进制交叉点(或称对数损失),而tensorflow教程中使用的是分类交叉点。他们使用one-hot向量编码来跨多个类别使用此功能。因此,即使对于两个类别,你也会有一个类似这样的标签: 0,1。
在二进制情况下,0是假情况的标签。这在只有1重要的分类情况下是不存在的,因为softmax分类器,在这种情况下,您的所有元素都需要求和为1。
https://stackoverflow.com/questions/42439854
复制相似问题