腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(6)
视频
沙龙
1
回答
在tensorflow中,什么等同于pytorch的torch.nn.
CosineEmbeddingLoss
?
python
、
tensorflow
、
deep-learning
、
cosine-similarity
、
pytorch
Pytorch中的
CosineEmbeddingLoss
是我在tensorflow中寻找的完美函数,但我只能找到tf.losses.cosine_distance。有没有一种在tensorflow中编写
CosineEmbeddingLoss
的方法或代码?
浏览 0
提问于2017-07-04
得票数 2
1
回答
使用torch.nn.
CosineEmbeddingLoss
()的问题
pytorch
我试图使用torch.nn.
CosineEmbeddingLoss
来计算两个张量之间的余弦距离,就像在这个博客文章中解释的那样。提交人声称,它可以以下列方式使用:# . . .loss = loss_function(reconstructed, input_data).sum()但当我试图在我的案例中评估这一点时, nn.
CosineEmbeddingLoss
浏览 33
提问于2022-02-28
得票数 0
1
回答
在两个nn.Modules函数或丢失函数之间动态地应用数学运算
python
、
neural-network
、
pytorch
、
automl
nn.L1Loss() + nn.
CosineEmbeddingLoss
()----> 1 nn.L1Loss() + nn.
CosineEmbeddingLoss
()我也尝试过创建一个包装器,它有如下所示的前向函数和火炬操作subtract': return to
浏览 11
提问于2022-09-04
得票数 5
2
回答
关于余弦相似性,如何选择损失函数和网络(我有两个方案)
python
、
neural-network
、
pytorch
、
embedding
、
cosine-similarity
nn.CrossEntropyLoss() loss=loss_func(y,target)计划2:将两个嵌入作为输出,然后使用nn.
CosineEmbeddingLoss
output_a=embA(a)loss_function = torch.nn.
CosineEmbeddingLoss
浏览 3
提问于2020-09-05
得票数 3
1
回答
为什么RNN文本生成模型将单词预测作为分类任务处理?
rnn
、
word-embeddings
、
bert
、
text-generation
然后,序列模型可以使用一个损失函数来预测单词,该函数使用MSE或余弦相似度(
CosineEmbeddingLoss
)度量预测与实际嵌入之间的距离。
浏览 0
提问于2022-07-10
得票数 1
回答已采纳
1
回答
目标为同维向量时word2vec矢量训练的损耗函数的选择
pytorch
、
lstm
、
word2vec
我有一个lstm,我用它作为序列发生器,训练word2vec向量.以前的实现为所有不同的标签产生了概率分布。词汇中的每个单词都有一个标签。这个实现使用了Pytorch的CrossEntropyLoss。我现在想改变这一点,以便lstm输出一个向量,其维数与用于训练的向量相同。通过这种方式,我可以使用euclydian距离度量来匹配词汇表中的附近向量。问题是,为了做到这一点,我必须使用不同的损失函数,因为CrossEntropyLoss适合分类器,而不是回归问题。 我试图改变目标向量的格式,但是torch的CrossEntropyLoss函数需要整数输入,而且我有一个单词向量。看了几个选项后,似
浏览 1
提问于2019-09-25
得票数 0
回答已采纳
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
干货 深度学习实验流程及PyTorch提供的解决方案
深度学习实验流程及PyTorch提供的解决方案
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券