腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(1615)
视频
沙龙
2
回答
求
负
对数
似
然
Python
的
导数
python
、
scipy
、
sympy
、
derivative
、
log-likelihood
我正在尝试计算
python
中
负
对数
似
然
函数
的
导数
。我正在使用渐近来计算
导数
,但是,当我试图计算它时,我收到了一个错误。下面的示例代码尝试为lognormal函数计算此值。2/sx**2)/(sx*Dummy_39[i]), (i, 1, n))) NameError: name 'Derivative' is not defined 我意识到表达式"deriv“包含
导数
运算符,但我只
浏览 22
提问于2021-02-05
得票数 1
回答已采纳
1
回答
是使用分析梯度还是自动分化来进行训练?
pytorch
、
gaussian
、
autograd
、
gaussian-process
、
gpytorch
我对gpy手电如何计算与模型参数相关
的
梯度感到困惑。例如,假设我使用具有高斯
似
然
、径向基函数核和常量均值
的
ExactGP,并使用MLE (极大
似
然
估计)来
求
模型
的
参数(均值、核参数和噪声)。计算模型梯度w.r.t参数
的
一种方法是使用解析梯度,即取参数
的
负
对数
似
然
导数
,并求出每一次推导
的
方程。另一种方法是使用py
浏览 14
提问于2022-03-17
得票数 0
1
回答
Spark中AFT生存模型
的
p值计算
apache-spark
、
machine-learning
可用于该模型
的
是系数向量、比例、截距、预测和输入数据(Y和特征)。如何使用这些变量来计算p值?欢迎任何建议。谢谢
浏览 3
提问于2016-05-28
得票数 0
1
回答
何时可以重新排序日志操作?
logistic-regression
、
mathematics
、
softmax
例如,您可以将softmax + nl (
负
似
然
)重新排序到log_softmax + nll (
负
对数
似
然
)。实质上将日志(softmax(X))更改为softmax(log(x)) 然而,重新排序日志
的
规则是什么呢?
浏览 0
提问于2020-03-12
得票数 0
回答已采纳
1
回答
用ContrastiveDivergence计算RBM
导数
的
差异
machine-learning
、
neural-network
、
rbm
有人能解释一下用-h_j * x_k和- h_j(x) * x_k计算RBM
导数
的
区别吗?我找到了两种实现
的
源代码,我不确定哪一种更好(为什么?)
浏览 3
提问于2014-12-01
得票数 0
1
回答
负
对数
似
然
不等于交叉熵?
machine-learning
、
deep-learning
负
对数
似
然
可以乘以\frac{1}{m},现在我
的
问题来了:我正在读
的
这本书(古德费罗等人
的
深度学习)提到了使用
负
日志
似
然
(如一致性)
的
几个吸引人
的
特性。同时,它还直接使用交叉熵作为最大
似
然</em
浏览 0
提问于2021-05-06
得票数 2
回答已采纳
1
回答
对火炬NLLLOSS
的
认识
pytorch
、
classification
、
loss-function
PyTorch
的
负
对数
似
然
损失,被定义为:因此,如果损失是用一批中
的
一个标准权重计算
的
,则损失
的
公式总是: 正确类别=0损失= -1 * 0.5 那么,如果在计算损失时不涉及日志函数,为什么称之为“
负
对数
似
然
损失”呢?
浏览 2
提问于2021-09-25
得票数 3
回答已采纳
2
回答
Logistic回归与最优参数w
machine-learning
、
logistic-regression
当我学习Logistic回归时,我们用
负
对数
似
然
法对参数w进行优化。有一种说法是:,当训练样本线性分离时,最优w
的
大小可以达到无穷大。我很困惑: 1.最优w
的
大小是什么? 2.你能解释为什么w可以无限大吗?
浏览 2
提问于2014-09-20
得票数 1
2
回答
在
python
中实现
负
对数
似
然
函数
python
、
gradient-descent
、
log-likelihood
我在
python
中实现
负
对数
似
然
函数有些困难。我
的
负
对数
似
然
函数如下所示:这是我
的
实现,但我一直收到错误:ValueError: shapes (31,1) and (2458,1) not aligned: 1 (dim 1) !np.sum(-y @ X @ theta) + np.sum(np.exp(X @ theta))+ np.sum(np.log(y)) retur
浏览 2
提问于2019-11-04
得票数 1
3
回答
负
对数
似
然
应该使用什么基?
machine-learning
、
loss-function
在计算
负
对数
似
然
损失时,我们应该使用什么样
的
对数
基础?
浏览 0
提问于2018-11-03
得票数 2
回答已采纳
1
回答
火炬7
的
反向传播是如何工作
的
?
backpropagation
、
torch
我试着通过火炬指导来理解有监督
的
学习。和反向传播: output = model:forward(inputs[i])00000在这个例子中,我知道目标是9,输出是4,所以结果是错误
的
,给出了df_do "-1“
的
第9个元素
浏览 0
提问于2015-09-15
得票数 1
回答已采纳
1
回答
绘制作为theta1和theta2
的
函数
的
对数
似
然
python
、
logistic-regression
、
log-likelihood
我被要求将logistic回归模型
的
对数
似
然
率绘制为theta1和theta2
的
函数,以评估其是否为凸函数(该模型只有两个参数,θ是每个参数
的
权重)。我
的
理解是,我需要一个笛卡尔图,每个轴表示thetas
的
值。
负
对数
似
然
给出为(在代码中): sigma = sigmoid(np.dot(x, weight)) loss = -1/size * np.sum(y * np.
浏览 19
提问于2020-11-29
得票数 1
1
回答
Tensorflow等效PyTorch NLLLoss
python
、
tensorflow
是否有一个等效于PyTorchs
负
对数
似
然
函数
的
tensorflow?
浏览 2
提问于2020-09-14
得票数 0
回答已采纳
3
回答
当MLE不能给出一个确定
的
解时,为什么要考虑它在Logistic回归中
的
作用?
regression
、
logistic-regression
、
parameter-estimation
如果极大
似
然
估计( MLE )不能给出Logistic回归中参数
的
适当闭型解,为什么这种方法会有如此多
的
讨论呢?为什么不坚持梯度下降来估计参数呢?
浏览 0
提问于2022-05-04
得票数 2
回答已采纳
1
回答
tensorflow embedding_lookup可微吗?
tensorflow
、
nlp
、
deep-learning
、
word-embedding
、
sequence-to-sequence
我遇到
的
一些教程,使用一个随机初始化
的
嵌入矩阵来描述,然后使用tf.nn.embedding_lookup函数来获得整数序列
的
嵌入。我
的
印象是,由于embedding_matrix是通过tf.get_variable获得
的
,优化器将添加适当
的
ops来更新它。我不明白
的
是,反向传播是如何通过查找函数发生
的
,它似乎是硬
的
,而不是软
的
。这个操作
的
梯度是多少?其中一个是输入ids?
浏览 1
提问于2018-01-09
得票数 3
回答已采纳
2
回答
Python
中
的
凸优化
python
、
python-3.x
、
optimization
、
scipy
、
convex
现在,我想用
Python
3.5 ()实现著名
的
Dixon-Coles模型。 最基本
的
问题是,从本文所描述
的
模型中得到一个具有众多参数结果
的
似
然
函数,需要最大化。例如:一个德甲赛季
的
似
然
函数将导致37个参数。当然,我做
的
是相应
的
负
对数
似
然
函数
的
最小化。我知道这个log函数是严格凸
的</e
浏览 2
提问于2016-09-13
得票数 0
回答已采纳
1
回答
统计模型OLS回归:
对数
似
然
、使用和解释
python
、
statistics
、
statsmodels
我使用
python
的
statsmodel包来进行线性回归。在R^2、p等
的
输出中也存在“
对数
似
然
”.在文档中,这被描述为“拟合模型
的
似
然
函数
的
值”。我看了一下源代码,并不真正理解它在做什么。阅读更多关于
似
然
函数,我仍然有非常模糊
的
想法,这个‘
对数
-
似
然
’值可能意味着什么,或被用来。所以有几个问题: 在线性回
浏览 1
提问于2014-10-23
得票数 2
回答已采纳
1
回答
在xgboost泊松运行中nloglisilies值背后
的
直觉
python
、
xgboost
、
poisson
、
gbm
当我使用count:poisson而不是rmse时,我看到
的
是nloglikelihood值。现在我不确定如何将这些数字与rmse或mae进行比较。当然值越小越好..但没有得到我们在rmse或Mae中得到
的
实际错误直觉。
浏览 0
提问于2017-03-22
得票数 0
1
回答
nce_loss()
的
Tensorflow num_classes参数
tensorflow
、
nlp
、
word2vec
、
word-embedding
、
language-model
我对噪声对比估计
的
理解是,我们从单词嵌入中采样一些向量(
负
样本),然后计算每个向量
的
对数
似
然
。然后,我们希望最大化目标单词
的
概率和每个
负
样本单词
的
对数
似
然
之间
的
差异(因此,如果我在这方面是正确
的
,我们希望优化损失函数,使其尽可能接近1)。我
的
问题是: nce_loss函数
的
num_classes参数有什么作用?
浏览 1
提问于2017-11-30
得票数 2
2
回答
如何在Matlab中捕捉警告?
matlab
、
probability
、
distribution
我用Matlab
的
函数来拟合我
的
数据
的
概率分布。有时会出现以下警告消息: 目前,我正在研究
负
日志
的
可能性是复杂
的
还是无限
的
,如果是的话,我会抛出一个错误。还有其他
的</em
浏览 1
提问于2016-03-06
得票数 3
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券