腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(4051)
视频
沙龙
4
回答
在
优化
时保持代码的可读性
、
、
、
、
我正在用Python和C写一个科学程序,里面有一些复杂的物理模拟
算法
。在实现了
算法
之后,我发现有很多可能的
优化
来提高性能。常见的有预计算值、计算周期外的计算、用更复杂的矩阵
算法
替换简单的矩阵
算法
等。未
优化
的
算法
要慢得多,但它的逻辑和
与
理论
的联系看起来清晰得多,可读性好得多。此外,
优化
算法
的扩展和修改也比较困难。 因此,问题是-我应该使用什么技术来保持可读性,同时提高性能?
浏览 3
提问于2011-09-05
得票数 18
回答已采纳
2
回答
Java环境下Holt平滑系数的估计
、
、
正在使用的
算法
是的Java端口(mul-plica son)。我知道我需要某种非线性
优化
,但我根本不是数学家,所以我有点迷失在所有这些
理论
和概念中。编辑 我有很多不同的时间序列要分析,我想知道是否有一个标准的/足够好的技术(库会更好)来计算平滑参数,我应该给Holt-温特斯
算法
。
浏览 2
提问于2012-09-24
得票数 6
回答已采纳
1
回答
Ubuntu16.04上的Julia0.4.5中的PyPlot "plot()“函数失败
、
、
我正在
与
一个程序,这意味着采取一些参数,并使用遗传
算法
优化
五层镜涂层根据上述参数。在终止之前,该程序将显示反射镜在一定波长范围内的
理论
反射率图。也许
最
奇怪的部分是,我复制了整个代码,将其粘贴到终端,并直接从朱莉娅(julia> [ENTIRETY OF .JL FILE])运行,并显示了这个情节。有人知道我错过了什么吗?
浏览 3
提问于2016-09-17
得票数 1
回答已采纳
1
回答
在线机器学习资源
、
、
我想知道是否有关于“在线机器学习”的书籍/文章/教程?或者这本书:我似乎在这方面找不到多少资料。我试着理解基本知识,而不是阅读研究论文。 如果有人能分享资源那就太好了。
浏览 0
提问于2021-11-15
得票数 2
回答已采纳
3
回答
快速傅里叶变换在期权定价中的实现
、
、
、
有很多不同的FFT
算法
,其中最著名的是Cooley
算法
.我的想法是:我更喜欢
最
简单的一个,因为这不是论文或大项目,只是一门关于
算法
的课程。但它必须
与
期权定价兼容(与我们一般文献中最优秀的图像/声音处理应用程序形成对比)。因此,这取决于所提供的输入形式(我需要一些建议)。我熟悉一些改进,比如分数FFT、混合基FFT等等,但是这些看起来相当复杂,而且是由
优化
/性能驱动的,这与我的项目无关。 第二关注:哪种定价模式?因此,
与
上面所述的目标相同,我最初更喜欢
浏览 6
提问于2012-05-05
得票数 1
回答已采纳
1
回答
计算特定值的倍数和的
算法
如果可以获得总和,则优先于具有
与
倍数较少的总和最接近的值。 有没有一个已知的
算法
来实现这个结果?
浏览 0
提问于2017-11-05
得票数 0
1
回答
Python regex将人名
与
文本中的abbr (点)匹配。
、
高维统计中产生的许多
优化
问题自然分解为几个项的总和,其中单个项相对简单,但复合目标函数只能用迭代
算法
进行
优化
。本文研究了F(Kx) + G(x)型的最
优化
问题,其中K是一个固定的线性变换,而F和G是非凸和/或不可微的函数。我们提出了mocca (镜像凸/凹)
算法
,这是一种原始/对偶
优化
方法,在每次迭代时对每个项都采用局部凸逼近。该
算法
受CT成像中出现的
优化
问题的启发,能够处理一系列非凸复合
优化
问题,并为整
浏览 5
提问于2018-01-16
得票数 0
回答已采纳
1
回答
控制
理论
在数据科学中的应用
、
、
在我看来,控制
理论
必须在数据科学中得到应用。我想在这个领域申请我的学位,但我想确定它与数据科学家的角色有关。如果这种角色存在于数据科学/其他领域,你能不能给我更多关于工作角色/行业的信息/想法以供研究。
浏览 0
提问于2015-05-16
得票数 3
3
回答
什么时候使用什么机器学习
、
最近,在来自UPC/巴塞罗那的Oriol Pujol教授的机器学习课程中,他描述了用于广泛的机器学习相关任务的最常见的
算法
、原理和概念。贝叶斯分类器,朴素贝叶斯,生成
与
鉴别;感知器,权重衰减,线性支持向量机;最近邻分类器和
理论
我应该使用哪种型号?协变量移位;类不平衡;缺失数据,不规则采样数据,测量误差;异常检测,鲁棒性 如何<em
浏览 0
提问于2015-01-20
得票数 40
1
回答
二维坐标映射最小化的快速
算法
、
、
、
、
现在,编写简单的
算法
来将顶点排列成一个网格或圆是非常简单的。不过,我想要做的是找到一种通用
算法
,用于获取n实际顶点坐标和n目标顶点坐标,并找到从前者到后者的最优(或接近最优)映射,以使顶点所需移动的距离之和或平均值(以
最
简单的为准)最小化。这样做的想法是,如果顶点
与
预期的排列有点相似,那么这些函数大部分应该只是“清理”现有的安排,而不从根本上改变相对位置。例如,如果我有12个顶点排列在一个粗糙的圆圈中,标记为1-12就像时钟上的小时,我想要我的“排列为圆圈”
算法
将它们分成一个完美的圆圈,其排序
与<
浏览 2
提问于2016-02-16
得票数 2
回答已采纳
1
回答
跨多个多边形搜索点的最佳方法
、
、
我需要将给定的点(lat,lon)
与
几个多边形进行匹配,以确定是否存在匹配。有没有其他可能的
优化
方法?
浏览 3
提问于2012-06-22
得票数 2
回答已采纳
2
回答
基于哈希
算法
的对称加密
、
使用散列
算法
(如SHA-256)加密的文件是否
与
对称
算法
(如AES)一样安全?这是使用密码的方法(这是
最
简单的例子,请不要建议
优化
,这只是一个概念):问题是为什么上面描述的加密作为对称
算法
更容易破解。
浏览 0
提问于2022-11-28
得票数 1
回答已采纳
2
回答
约束n维空间的有效随机抽样
、
、
我要
优化
一个由n (n>=1,通常是n=4)非负变量定义的问题。这不是一个n维问题,因为所有变量的和都需要1。我所说的冗余是什么意思? 以二维情况为例。如果没有约束,这将是一个二维问题,需要
优化
两个变量。但是,由于需要X1 +
浏览 2
提问于2010-10-21
得票数 2
回答已采纳
1
回答
如何在LatLngDistanceFunction中使用ELKI集群
、
、
集群的默认设置似乎工作得很好-特别是EuclideanDistanceFunction。但是,我希望使用lng/lat形式的空间数据运行集群,并且当我更改距离函数时,elki会崩溃: Running: -dbc.in /tmp/test_data_lnglat-test.dat -db.index tree.spatial.rstarvariants.deliclu.DeLiCluTreeFactory -algorithm clustering.DeLiClu -algorithm.distancefunction geo.LngLatDistanceFunction -deliclu.mi
浏览 0
提问于2013-05-21
得票数 0
回答已采纳
1
回答
SHA用盐吗?
、
、
、
、
我正试图决定我的密码加密的最佳哈希
算法
。附注:我使用node.js来处理这些
算法
。
浏览 9
提问于2022-08-05
得票数 0
回答已采纳
1
回答
仅对数据进行策略梯度,不使用仿真器
、
、
、
、
对我的团队来说,模仿代理(执行操作和评估奖励)成本太高了,这意味着我们唯一的选择就是在数据集上学习最优策略。好的是我们有大量的数据,这代表了一系列的状态,行动,奖励。我们可以对我们的特工进行数据培训。 我们还需要持续的行动,因为这套行动是很大的。因此,策略梯度是可行的,但它通常使用需要仿真器的参与者-评论家。我们不能效法,其他的选择是什么?
浏览 0
提问于2018-04-13
得票数 1
2
回答
Prolog中信息检索的性能
优化
、
、
、
、
目前,我有一组(大量)不同的Prolog
理论
来表示句子中的依赖关系(顺便说一句,我将这些Prolog代码存储在一个文本文件中)-我只想找到那些
与
用户定义的目标子句匹配的
理论
。如果我对
理论
进行一次简单的foreach-like循环,随着
理论
数量的增加,搜索时间将变得越来越慢,因此我必须引入一些
优化
。我的想法是创建一个倒排索引,其中我可以保持每个术语的频率,以及它们出现的
理论
ID。然后,当涉及到搜索时,我会首先过滤掉不必要的
理论
,否则这些
理论</e
浏览 3
提问于2013-04-19
得票数 0
回答已采纳
1
回答
std::string运算符+
与
字符串流的性能
、
对于那些想要回应“基准再
优化
”的人来说--我当然同意,这就是我们的计划。我只是想知道这个
理论
。 我搜索了一下这个问题,遇到了一个问题:,它有点过时了。现在我想知道:字符串+=的内存分配
算法
真的
与
字符串流的内存分配
算法
不同吗?那么上述问题中提出的复制问题
浏览 1
提问于2015-06-23
得票数 9
回答已采纳
1
回答
在有序的但非连续的数字序列之后添加一个连续的数字序列会影响交换机语句的
优化
吗?
will使用较小的数字(如1000,
与
32000相比),则会排序并使我的数字连续甚至有助于
优化
??stuff // stuff break;如果你需要硬件细节,想象一下我们谈论的是
最
默认的
理论
场景: gcc,英特尔,没有
优化
。
浏览 3
提问于2022-10-30
得票数 0
回答已采纳
4
回答
最适合计算和内存开销较大的
算法
的语言
、
、
、
假设您必须实现一个工具来有效地解决NP-hard问题,并且不可避免地会出现内存使用量的爆炸式增长(在某些情况下,输出大小
与
输入大小成指数关系),并且您特别关注此工具在运行时的性能。一旦知道了基本
理论
,源代码也必须是可读和可理解的,这一要求
与
工具本身的效率一样重要。 我个人认为有三种语言可以满足这三个需求: c++,scala,java。C++具有静态编译和
优化
的优势,并且使用函数内联(如果仔细设计数据结构和
算法
)和其他
优化
技术,可以实现接近纯C的性能,同时保持相当好的可读性。相反,Jav
浏览 0
提问于2011-04-11
得票数 4
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券