腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
优化
python
中
的
dataframe
代码
、
下面是对两列进行检查
的
代码
。我知道这不是在两列数据帧上做这件事
的
正确方法,但我希望能得到更好
的
方法
的
帮助 for i in range(len(df)): if df['Current_Value'][
浏览 15
提问于2020-07-06
得票数 0
1
回答
spark
dataframe
到rdd
的
转换需要很长时间
、
、
我正在将一个社交网络
的
json文件读入spark。我从这些数据
中
得到一个数据帧,我将其分解以获得对。这个过程运行得很完美。稍后,我想将其转换为RDD (用于GraphX),但RDD
的
创建需要很长时间。"relationship")val E2 = E1.rdd scala&g
浏览 1
提问于2017-03-20
得票数 3
1
回答
如何
优化
df.assign?
、
、
我正在处理一个形状为(55025,12)
的
数据帧(data)上
的
python
,并且我正在尝试分配一个新列,我
的
代码
是: data_cat=data.assign( type1= lambda
dataframe
:
dataframe
['value'
浏览 37
提问于2020-10-19
得票数 0
2
回答
DataSet javaRDD()性能
、
、
、
、
我正在使用Spark SQL从Spark应用程序
的
Cassandra
中
检索数据。数据以DataSet
的
形式检索。但是,我需要使用javaRDD()函数将此dataset转换为JavaRDD。是否有一些参数需要调整以增强这次
的
性能?
浏览 1
提问于2017-08-19
得票数 0
1
回答
火花df、拼花物体和熊猫df之间
的
转换
、
、
在创建火花会话之后,我运行了以下
代码
spark_df.select('*').toPandas(我需要火花df和熊猫df
的
原因是,对于一些较小
的
DataFrame
,我想很容易地使用各种熊猫EDA函数,但对于一些较大
的
,我需要使用火花sql。首先,把地板转向熊猫,然后再点燃df,这似乎有点迂回。
浏览 3
提问于2019-10-20
得票数 0
1
回答
Spark2.0
中
的
全阶段
代码
生成
、
我听说了Whole-Stage Code Generation for sql来
优化
查询。通过和很想知道使用Spark2.0这个特性
的
场景是什么。但在谷歌搜索后并没有得到正确
的
用例。 每当我们使用sql时,我们可以使用这个特性吗?如果是这样的话,是否有适当
的
用例来看到这个工作呢?
浏览 2
提问于2016-11-11
得票数 10
回答已采纳
2
回答
用gekko在
python
中
的
MLE应用
、
、
、
、
我在“继续”
中
解释了更多,请继续读)这样你就能看得很清楚。公式
的
两个主要要素是“Kasi”和“Betaa”。我想为他们找到最好
的
价值,最大
的
总和
的
My_
DataFrame
[‘Target’]。所以你有了这个想法和将要发生
的
事情!现在让我向您展示我是如何为此目的编写
代码
的
。输出: B= 500.0 注意到,
python
中</e
浏览 6
提问于2021-08-06
得票数 2
回答已采纳
7
回答
使用哪种查询来获得更好
的
性能,是在SQL中联接还是使用Dataset API?
、
、
在使用spark、*Spark sql join*和*spark
dataframe
join*从HBASE获取和操作数据时,哪个更快?
浏览 2
提问于2016-06-01
得票数 2
1
回答
用Numba处理熊猫
DataFrame
时序
的
有效方法
、
、
、
我有一个1,500,000行
的
DataFrame
。这是我从QuantQuote.com那里买来
的
一分钟
的
股市数据。(打开,高,低,关闭,音量)。我正试图对股市交易策略进行一些自制
的
回溯测试。直接
的
python
代码
处理事务太慢了,我想尝试使用numba来加快速度。问题是。 谷歌搜索发现,有关熊猫使用numba
的
信息少得令人吃惊。这让我想知道我是不是在考虑这个错误。Windows 7,MS VS2013 with PTVS,
Pyt
浏览 1
提问于2014-05-13
得票数 16
3
回答
python
中
的
代码
优化
、
、
我正在用
python
编写字典。s = {'k1':['aa', 'bb', 'cc', 'dd', 'ee', 'ff', 'gg']}d = {} d[values[1]] = 'True' d[values[1]] =
浏览 4
提问于2012-04-03
得票数 0
回答已采纳
1
回答
如何将非
优化
参数传递给GA包
中
的
适应度函数
我在R中使用GA包(使用遗传算法进行
优化
的
R包),需要
优化
适应度函数F( x1,x2,A_
dataframe
,b_const),其中x1-用于
优化
的
变量,min=0,max=1。x2 -用于
优化
的
变量,min=2,max=3。A_
dataframe
-一个数据帧,它不是
优化
变量,而是适应度函数计算所需
的
已知数据帧。b_const -一个常量变量,它也不是用于
优化
的
浏览 13
提问于2017-08-28
得票数 4
回答已采纳
1
回答
优化
python
代码
以从非常大
的
dataframe
中
删除单词
、
我
的
目标是从300万大小
的
数据
中
删除罕见
的
单词。下面的
代码
花费了很长时间。我有办法
优化
它吗?
浏览 3
提问于2022-06-25
得票数 -1
回答已采纳
4
回答
将
Python
转换为R
、
我知道有一个模块(rpy和rpy2)可以将R
代码
转换成
Python
。 有什么简单
的
方法可以反其道而行之吗?
浏览 2
提问于2011-10-29
得票数 12
回答已采纳
4
回答
在
Python
中
优化
dataframe
子集操作
、
、
、
总结问题我正在寻找一种加速下面描述
的
代码
的
方法。详细说明问题 在这个名为master
的
数据框架
中
,有3,936,192行。位置列表示基因组窗口。在这个数据帧中出现了76次。这样,master[master['Position'] == 300]返回76行
的
浏览 3
提问于2019-12-16
得票数 2
回答已采纳
2
回答
哪一个是最好
的
HBase连接器用于批量加载数据到HBase从火花?
、
正如在
中
也提到
的
,主要有两个选项: 该项目使用Scala2.11、Spark2、HBase 1.2
DataFrame
库是否为大容量加载提供了与RDD库相比
的
性能改进
浏览 2
提问于2017-11-08
得票数 1
1
回答
Azure Databricks
python
命令显示当前集群配置
、
、
、
我目前正在
优化
我们
的
ETL进程,并且希望能够看到处理数据时使用
的
现有集群配置。这样,我可以根据时间跟踪我应该使用
的
工作节点大小。是否有命令返回
python
中
的
集群工作人员#和大小,这样我就可以作为
dataframe
编写?
浏览 5
提问于2021-09-14
得票数 2
回答已采纳
2
回答
Dateutil和Pytz缺少依赖关系-
Python
、
我正在尝试运行投资组合
优化
的
代码
,我得到了以下错误
的
导入熊猫
的
权利。Users/***/Desktop/Markowitz-master/MarkowitzOpt.py", line 2, in <module> from pandas import Series,
DataFrame
File "/Library/Frameworks/
Python
.framew
浏览 0
提问于2017-02-13
得票数 4
2
回答
Python
代码
优化
、
我将预览创建功能封装在一个独立
的
.py文件
中
,并在Django视图中对其进行系统调用,以便在多核CPU系统上并行和最大限度地运行它们。= ttf_file.replace('.ttf', '.png') subprocess.Popen(['
python
', 'preview.py', text, ttf_file, image_file, 30) return
浏览 1
提问于2009-12-29
得票数 0
回答已采纳
4
回答
Python
代码
的
优化
、
、
、
、
我有一个小函数(见下文),它返回一个从整数列表(例如1,2,3,4)映射而来
的
名称列表,该列表
的
长度可以达到1000。 这个函数可能会一次被调用数万次,我想知道我是否可以做些什么来让它运行得更快。graph_hash是一个大散列,它将键映射到长度为1000或更小
的
集合。我正在迭代一个集合,并将值映射到名称并返回一个列表。u.get_name_from_id()查询sqlite数据库。有什么想法来
优化
这个函数
的
任何部分吗?
浏览 0
提问于2016-10-31
得票数 0
2
回答
Python
代码
优化
、
、
最近,我发现了一个难题,要求我列出所有循环素数以下
的
数字。在这个上下文中,循环意味着如果我们旋转数字,它仍然是素数:例如。1193是素数1931是素数9311是素数3119是素数。这是我最初写
的
代码
:upto=1000000 a.append([x,0]) a[(大约12s)我知道,第一代不是十全十美的,但最后一点是最慢
的
。我知道upto=10e6
的
这个过程可以在一秒
浏览 1
提问于2014-01-07
得票数 1
回答已采纳
点击加载更多
相关
资讯
Python的DataFrame切片大全
python关于dataframe的小练习
python中类迭代器的实现,代码优化的好东西
Python 代码优化实践
Python 代码性能优化技巧
热门
标签
更多标签
云服务器
ICP备案
云直播
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券