我想在keras中创建自己的损失函数,它包含导数。例如,
def my_loss(x):
def y_loss(y_true,y_pred):
res = K.gradients(y_pred,x)
return res
return y_loss
已定义,并且
model = Sequential()
model.add(Dense(10, input_dim=2, activation='sigmoid'))
model.add(Dense(1, activation='linear'))
model_loss = my_loss(x=model.input)
model.compile(loss=model_loss, optimizer='adam')
现在因为输入是二维的,
K.gradients(y_pred,x)
必须是二维向量。然而,我不知道如何在梯度中获得每个标量。我最终想要的是y_pred对x的所有二阶导数,有没有方便的方法来得到?
它类似于this post,但这篇文章将二维变量分离为两个一维变量。有没有其他方法可以在不分离输入的情况下获得梯度?
https://stackoverflow.com/questions/55155784
复制相似问题