腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
pandas
将
列
添加到
时间
序
列上
的
数据
帧
聚合
、
我做了一个
数据
帧
聚合
,我想添加一个新
列
,如果行中2020年有一个> 0
的
值,它将放入1,否则为0。这是我
的
代码和dataframe
的
头 df['year'] = pd.DatetimeIndex(df['TxnDate']).year # add column yearprin
浏览 6
提问于2020-06-28
得票数 2
回答已采纳
2
回答
熊猫群句法解释
、
、
、
我不明白为什么
Pandas
函数可以用以下两种方式编写,并产生相同
的
结果。具体
的
代码并不是真正
的
问题,两者都给出了相同
的
结果。我希望有人能分析一下这两种语言
的
语法。df.groupby(['gender'])['age'].mean() 在第一个实例中,它看起来像是在特定地调用age
列上
的
第二个看起来
浏览 4
提问于2022-04-04
得票数 0
回答已采纳
1
回答
如何
将
Sklearn SVM实现应用于使用SPARK ML计算
的
特征( Spark ML中缺少多类SVM )
、
、
、
、
我有220 GB
的
数据
。我已经将其作为两
列
读取到spark dataframe中: JournalID和Text。现在,我
的
数据
帧
中缺少27行。使用NGram类,我在dataframe中添加了另外两个
列
Unigram和Bigram,其中包含文本
列
中
的
单字和双字。然后,我使用一元和二元语法
列上
的
pyspark
的
TF和IDF类计算TFIDF,并将其作为另一
列
添
浏览 1
提问于2018-12-17
得票数 0
1
回答
如何对pyspark dataframe
列
应用函数
、
、
我正在尝试将我
的
pandas
代码转换为pyspark dataframe,并尝试在dataframe
的
一
列上
应用函数。我在
pandas
dataframe中做了一些如下
的
事情。在操作了几个
列
值之后,
将
新
列
添加到
pandas
数据
帧
中,如下所示。基本上,我想在pyspark dataframe
列上
应用一个函数。谢谢。
浏览 15
提问于2020-01-03
得票数 1
回答已采纳
1
回答
groupby和aggregation后
的
输出
、
我有一个熊猫
数据
框。当我创建GROUP BY和
聚合
函数(如min或max )时,我只能得到部分结果,即我在数值
列上
进行min/max
聚合
的
列
。我怎样才能得到全行(即所有与这个最小/最大值相对应
的
数据
)?
数据
帧
看起来像这样: Place Year Time TimeSFUKUOKA 1973 02:11
浏览 10
提问于2019-02-10
得票数 0
回答已采纳
1
回答
对非常大
的
数据
集执行dask中
的
多个sum().compute()
、
、
我有一个包含100个分区
的
dask
数据
帧
(
将
大约45 are
的
100个json文件
聚合
在一起)。我想用.sum().compute()在大约15-20
列上
计算一些指标。对于每个.compute(),都需要很长
的
时间
。有没有更好
的
方法来并行执行所有这些sum().compute()?
浏览 27
提问于2019-03-12
得票数 1
1
回答
如何运行多个agg函数并在
pandas
数据
框中以行
的
形式返回它们?
给定一个如下所示
的
数据
帧
: id x y 2 5 5 2 3 7 2 1 9 如何在一
列上
运行多个
聚合
函数(例如min和max),但将它们作为
数据
框
的
行返回?预期输出应为: minmax 6 在R
的
dplyr中,我可以做这样
的
事情,但我不知道如何让它在
pandas
中工作。
浏览 16
提问于2020-08-24
得票数 0
回答已采纳
1
回答
如何在
聚合
后
将
pandas
数据
帧
转换为单索引?
、
、
我一直在玩
pandas
数据
帧
中
的
聚合
。','e'], 'c':[4,1,3,4,5,1,3,2]}) 我必须对batch
列
进行
聚合
,对
列
a使用mean,对
列
c使用min。) 问题是,我希望最终
的
数据
帧
具有与原始
数据
帧
相同
的
列
,只
浏览 21
提问于2020-09-05
得票数 0
回答已采纳
2
回答
Spark
聚合
,其中输出列是函数,行是
列
、
、
、
、
我想在一个
数据
帧
中
的
不同
列上
计算一组不同
的
agg函数。假设我将在10个不同
的
列上
执行100个不同
的
聚合
。我希望输出
数据
帧
是这样
的</
浏览 0
提问于2020-02-22
得票数 2
2
回答
合并多个panda
帧
、
我有一堆CSV文件,其中包含特定
时间
的
数据
,
时间
被编码为文件名:Label val1 val2b. 6 4 Label我可以
将
每个文件读入
Pandas
数据
帧
。然后我想:
将
"time“
列
添加到
每个
数据
帧
中,然后
将
所有
数据
帧</
浏览 2
提问于2020-10-11
得票数 0
1
回答
在回归中使用group by在python中定义x和y值
、
、
是否可以
将
数据
分组(用于定义x和y变量),以便直接在regPlot (或任何其他海运功能)中运行回归?我找不到这样
的
内置功能。例如,在一
列
中,我有一个分类变量" C ",然后我试图使用每个C类别的中位数来拟合回归线(具有x和y)。有什么功能可以这样做吗?
浏览 18
提问于2019-02-26
得票数 1
回答已采纳
1
回答
pandas
绘制
时间
跨度
聚合
列
、
我正在尝试使用
时间
跨度绘制
数据
。我使用
的
是
pandas
数据
帧
,
时间
跨度足够直接,但在所有示例中,它们生成
的
数据
都符合
时间
跨度。 series = pd.Se
浏览 0
提问于2016-06-13
得票数 0
1
回答
具有特定索引
列
的
pandas
combine_first?
、
我正在尝试连接
pandas
中
的
两个
数据
帧
,以实现以下行为:我想在指定
的
列上
连接,但要让它不会将多余
的
列
添加到
数据
帧
中。这类似于combine_first,不同之处在于combine_first似乎不接受索引
列
可选参数。示例:df1 =
pandas
.merg
浏览 0
提问于2013-03-28
得票数 2
回答已采纳
0
回答
减去
Pandas
或Pyspark Dataframe中
的
连续
列
、
、
、
、
我想在
pandas
或pyspark
数据
帧
中执行以下操作,但我仍然没有找到解决方案。我描述
的
操作可以在下图中看到。 请记住,输出
数据
帧
在第一
列上
不会有任何值,因为输入表中
的
第一
列
不能被前一
列
减去,因为它不存在。
浏览 1
提问于2016-07-12
得票数 4
回答已采纳
1
回答
计算databricks中线串(geo)
的
长度
、
、
、
我们导入一个具有地理
列
的
数据
集。这个geo-column表示一条线。当我
将
数据
导入到
数据
帧
中时,geo-column中
的
数据
如下所示: LINESTRING (155337.4045392797 368804.3359240878,155355.9229438164 368779.3184124769,155373.0222553128368596.075214043,155466.4756062801 368586.00792423
浏览 44
提问于2021-08-09
得票数 0
回答已采纳
3
回答
Pandas
:有没有一种方法可以在不遇到AttributeError
的
情况下使用.str访问器来检查对象是否真的是一个字符串?
、
、
我使用toPandas()
将
pyspark
数据
帧
转换为
pandas
数据
帧
。但是,因为某些
数据
类型不对齐,所以
pandas
会将
数据
帧
中
的
某些列强制转换为object。我想用实际
的
字符串在我
的
列上
运行.str,但似乎不能让它工作(如果没有显式地找到首先要转换
的
列
)。(作为参考,我尝试做
的
是,如果<
浏览 1
提问于2020-06-23
得票数 1
1
回答
Dask: DataFrame计算耗时太长
、
、
我从一个大约50K行和5
列
的
Pandas
数据
帧
创建了一个Dask
数据
帧
:然后我
将
一堆
列
(~30)
添加到
dataframe中,并尝试将其转换回
Pandas
dataframe:我查看了文档,如果我没
浏览 1
提问于2017-07-28
得票数 4
2
回答
如何消除
pandas
groupby中
聚合
列
的
附加行
、
、
、
我正在尝试对字段进行
聚合
,并在
聚合
列上
获得了额外
的
一行-在本例中为'sum‘。我怎么才能摆脱这个?这使得在后续处理中很难处理此
数据
帧
import
pandas
as pd Grade=[['A',1],['A',2],['A',10],['B',4],['B',2],['C',3],['D',10
浏览 5
提问于2020-12-28
得票数 1
回答已采纳
1
回答
MongoDB
聚合
管道vs
Pandas
聚合
、
我们目前使用了大量
的
MongoDB
聚合
管道来做一些
数据
处理。然而,我们经常遇到一些性能问题。我正在考虑
将
数据
从MongoDB读取到
Pandas
数据
帧
中,并使用
Pandas
数据
帧
聚合
来处理
数据
。有谁有比较这两种方法
的
经验吗?另外,MongoDB
聚合
管道是否利用了内部
的
某种并行性?
浏览 0
提问于2020-05-15
得票数 2
4
回答
pandas
中
的
多
列
分解
、
、
、
pandas
factorize函数
将
序列中
的
每个唯一值分配给一个从0开始
的
顺序索引,并计算每个序列条目所属
的
索引。我想在多个
列上
实现
pandas
.factorize
的
等价物:df = pd.DataFrame({'x': [1, 1, 2, 2, 1, 1], 'y':[1, 2, 2, 2, 2, 1]}) pd.factorize(df)[0] #
浏览 0
提问于2013-05-09
得票数 12
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
pandas系列学习(五):数据连接
这样做能让你的 pandas 循环加快 71803 倍
Python使用pandas使数据可视化笔记
11,二维dataframe——类SQL操作
在也不用996!如何用Python轻松取代Excel
热门
标签
更多标签
云服务器
ICP备案
对象存储
云直播
腾讯会议
活动推荐
运营活动
广告
关闭
领券