我正在尝试创建一个自定义损失函数,以供Keras使用,但我遇到了一些麻烦。下面是这篇文章:Custom loss function in Keras我知道创建函数的语法,但我不熟悉如何使用张量。我用标量填充了yTrue,yPred是实际的预测值。我想取预测值的对数的加权和,按yTrue中的标量加权。L += tf.math.scalar_mul(yTrue[i], K.log(yP
我的目标是创建一个自定义损失函数,它基于y_true、y_pred和模型输入层的张量来计算损失:from tensorflow import keras as Knp.ones(input_shape), np.zeros(input_shape))TypeError: Cannot convert a symbolic KerasOr, you may
我正在研究tensorflow.keras中的一个不平衡的分类问题。我决定按照this answer on cross validated的建议计算“几何平均分”。我在一个名为imbalanced-learn的包中发现了一个implementation of it,并意识到它不能用作tensorflow.keras.Model.compile(metrics=[])中的指标之一;而且由于我还希望在每次调用时都向它传递一个参数,所以我决定自己实现一个自定义</em
我正在使用keras构建推荐模型。因为项目集相当大,所以我想计算Hits @ N metric作为精确性的度量。也就是说,如果观察到的项目在预测的前N中,它就算作相关的建议。我能够使用numpy构建命中N函数。但是当我试图将它移植到keras的自定义丢失函数时,我的张量出现了问题。具体来说,对张量的枚举是不同的。当我研究语法以找