腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用innodb_buffer_pool和查询缓存
mysql
、
innodb
、
query-cache
我正在尝试
优化
一个
MYsqlinnodb
数据库,我想知道激活innodb_buffer_pool和查询缓存是否是一个好主意,在
优化
我的数据库时我必须考虑哪些主要因素。 谢谢。
浏览 2
提问于2016-02-17
得票数 0
回答已采纳
2
回答
请问怎么样用ajax实现短信验证码?
ajax
、
短信
目前我的ajax格式如下: type:'POST', data:{ "extend": "", "sig": sig, "mobile"
浏览 499
提问于2018-04-01
1
回答
是否可以修改WordPress的源码路径?
wordpress
、
网站建设
、
玩转wordpress
浏览 130
提问于2021-08-11
1
回答
svm-训练其他
参数
优化
svm
、
libsvm
libsvm的"grid.py“尝试只
优化
svm-train的两个
参数
"c”和"g“。我想通过对不同的
参数
反复运行"grid.py“来扩展"grid.py”以
优化
其他
参数
(例如"r“或"d")。我有几个问题 除了"c“和”g“之外,有没有其他脚本可以
优化
参数
?哪些
参数
更关键,最大/最小范围是什么。有时,更改/
优化
一个
参
浏览 2
提问于2012-04-30
得票数 5
回答已采纳
1
回答
“用粒子群
优化
支持向量机的
参数
”是什么意思?
optimization
、
machine-learning
、
svm
我可以手动更改
参数
C和epsilon以获得
优化
结果,但我发现通过PSO (或任何其他
优化
算法)可以对SVM进行
参数
优化
。没有算法。这意味着: PSO如何自动
优化
SVM
参数
?
浏览 1
提问于2016-06-09
得票数 1
1
回答
可视化n维贝叶斯
优化
结果
visualization
、
optimization
、
bayesian
我正在研究一个6维贝叶斯
优化
问题(skopt的gp_minimize)。在
优化
器运行j次迭代之后,我想以某种方式可视化
优化
的“进度/结果”。由于我是新的贝叶斯
优化
,我想要求输入如何和什么可视化。什么是好的
参数
可视化,以显示改进,甚至
参数
依赖的
优化
参数
?
浏览 0
提问于2021-01-12
得票数 1
1
回答
如何在C/C++中将不同
优化
级别的对象文件链接在一起?
c++
、
optimization
、
linker
使用网站Compiler,我注意到GCC在没有
优化
的情况下使用堆栈将
参数
传递给函数。 在实现
优化
时,如果
参数
较少,GCC使用微存贮器寄存器传递
参数
,因为它更快。如果一些传输单元是在没有
优化
的情况下编译的,而另一些则是这样的,那么链接器如何将它们连接在一起,让一个
优化
的函数调用一个非
优化
的函数(反之亦然)而不破坏所有交换的
参数
?
浏览 3
提问于2022-01-09
得票数 0
1
回答
利用GaussianProcessRegressor中的训练数据
优化
核心
参数
scikit-learn
、
regression
、
supervised-learning
、
hyperparameter
、
hyperparameter-tuning
我想使用我在Scikit- training的GaussianProcessRegressor中的训练数据来
优化
内核
参数
或超
参数
。我想做什么我了解到,在GaussianProcessRegressor类的scikit中,
优化
器是一个
参数
,我可以使用自己的
优化
算法。我可以在GaussianProcessRegressor
浏览 0
提问于2018-05-04
得票数 1
回答已采纳
4
回答
Python:没有机器学习的Gridsearch?
python
、
optimization
、
scikit-learn
、
grid-search
、
hyperparameters
我想
优化
一个有几个可变
参数
作为输入的算法。 在Python中是否有一个标准化的方法/库,允许
优化
不限于机器学习主题的超
参数
?
浏览 0
提问于2018-02-19
得票数 7
1
回答
validation_data如何影响Keras的学习?
validation
、
machine-learning
、
deep-learning
、
keras
validation_data可以传递给model.fit,但是这个
参数
如何影响训练,以及如何确定validation_data的
优化
参数
?我知道validation dataset用于模型
优化
参数
的
优化
。但是我无法想象有和没有validation_data之间的区别。 验证集:用于调整分类器
参数
的一组示例。在MLP情况下,我们将使用验证集来寻找隐藏单元的“最优”数量,或者为反向传播算法确
浏览 4
提问于2017-10-11
得票数 6
回答已采纳
3
回答
函数
参数
的编译器
优化
c++
、
c
、
function
、
optimization
、
cpu-registers
函数
参数
放在堆栈上,但编译器可以通过使用可选寄存器来
优化
此任务。如果只有1-2个
参数
,而不是当有256个
参数
时,这种
优化
就会起作用,这是有意义的(不是说一个人希望拥有最大数量的
参数
)。如何才能找出某个编译器(如gcc)的
参数
限制(
参数
数量),从而确定将使用这种
优化
?
浏览 1
提问于2011-01-21
得票数 3
回答已采纳
1
回答
异步超
参数
优化
-迭代之间的依赖关系
cross-validation
、
model-selection
、
hyperparameter
、
hyperparameter-tuning
当使用异步超
参数
优化
包(如scikit
优化
包或带有交叉验证的hyperopt包(例如cv =2或4)并将迭代次数设置为N(例如N=100)时,如果我期望:或 期望迭代之间的独立性,在所有100次迭代完成之后,我应该选择损失最小的迭代。如果选项a)是正确的答案,那么如果最佳的超
浏览 0
提问于2020-03-11
得票数 1
回答已采纳
1
回答
actor-critic模型中的共享
参数
是如何工作的?
reinforcement-learning
在听Berkeley大学的策略梯度方法类时,在讲座中提到,在使用一些策略
参数
优化
策略和使用一些值函数
参数
优化
值函数的actor-critic算法中,在一些算法(例如A2C/A3C)中,我们在两个
优化
问题中使用相同的
参数
(即策略
参数
=值函数
参数
)。我在想,我们应该分别
优化
它们。这个共享
参数
解决方案对我们有什么帮助? 提前感谢:)
浏览 80
提问于2019-05-26
得票数 1
回答已采纳
1
回答
我应该只对闭包使用Fn、FnMut和FnOnce吗?
rust
、
functional-programming
、
closures
场景:我想编写一个以单变量函数作为
参数
的
优化
算法。我希望它与闭包和结构一起工作,实现某种方法来计算
优化
函数的值。我是否应该声明我的
优化
器采用FnMut
参数
或其他由我想要传递给
优化
器的结构实现的其他特性?
浏览 9
提问于2022-11-21
得票数 0
回答已采纳
1
回答
Keras调谐器传递学习模型的超
参数
优化
hyperparameters
、
transfer-learning
、
keras-tuner
我想用Keras对我的传输学习模型进行超
参数
优化
。我不知道该怎么做,因为我有两个阶段的训练, 任何帮助理解这一概念,或任何其他的想法/经验如何执行
浏览 5
提问于2021-04-30
得票数 0
1
回答
利用内部支持的
优化
器
优化
遗传算法中RBF核的核
参数
python
、
optimization
、
scipy
、
scikit-learn
、
hyperparameters
我想
优化
/训练这些
参数
(l和西格玛)与我的训练数据集。optimizer可以是由字符串指定的用于
优化
内核
参数
的内部支持的
优化
器之一,也可以是作为可调用的外部定义的
优化
器之一。此外,在scikit学习中唯一可用的内部
优化
器是fmin_l_bfgs_b。但是,我知道还有更多的
优化
器。由于我想使用来
优化
超
参数
,所以我尝试实现如下算法: retu
浏览 1
提问于2018-05-10
得票数 2
回答已采纳
1
回答
将两个
参数
传递给fminunc函数
matlab
、
optimization
根据我的目标函数,使用MATLAB
优化
工具箱函数fminunc对两个不同长度的
参数
进行
优化
。我需要
优化
这两个
参数
。该算法需要从这些
参数
的初始点开始:y0 = rand(20,1); [Coeff_min, Error_min] = fminunc(@objectiveFunction, x
浏览 1
提问于2015-11-25
得票数 2
回答已采纳
2
回答
什么是科学学习中最有效的超
参数
优化
方法?
scikit-learn
、
hyperparameter
、
hyperparameter-tuning
、
grid-search
、
randomized-algorithms
这里是关于科学学习中的超
参数
优化
过程的概述。随机搜索比网格搜索速度快,但方差过大。在其他包中也有其他策略,包括scikit
优化
、自动滑雪和scikit超带。理想情况下,我希望使用带有基准的代码示例。
浏览 0
提问于2019-03-13
得票数 11
1
回答
使用optim将条件应用于
优化
参数
r
、
optimization
假设我想使用下面的函数来
优化
参数
x的向量 x1 <- x[1] x3 <- x[2] 100 * (x2 - x1 * x1)^2 + (1 - x1)^2 + x3 + x4被
优化
的x我也想在
优化
之后保留这些。在完成
优化
之后,
优化
的<e
浏览 2
提问于2021-04-22
得票数 0
回答已采纳
1
回答
train_auto()在openCV CVKNearest中不可用
opencv
、
optimization
、
machine-learning
、
knn
我使用train_auto()方法对CVSvm进行了
参数
优化
,当使用支持向量机时。现在我使用的是k-最近邻算法,所以我在CVKNearest中搜索train_auto()方法。在使用KNN
优化
参数
时,是否需要使用其他方法来代替train_auto()方法。?实际上,唯一的
参数
是K,我需要对它进行
优化
。
浏览 0
提问于2014-08-05
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Python 函数参数详解
Sklearn参数详解—Adaboost
详解WebAPI 如何传递参数
HTTP参数污染漏洞详解
http header 所有参数详解
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券