腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
Pandas
DataFrame
中
的
压缩
列
、
、
我有两个列表,我想创建一个包含3
列
的
pandas
Dataframe
,其中一
列
包含通过
压缩
列表
中
的
两
列
生成
的
列
。我尝试了以下几种方法 import
pandas
as pdS_y = [800, 1000, 1200, 450,
浏览 28
提问于2020-04-02
得票数 0
回答已采纳
2
回答
如何通过分组将
Pandas
Dataframe
转换为数据字典
、
、
、
、
我有一个由3D数据构建
的
DataFrame
,其形式如下:
列
:1.a,1.b,2.a,2.baa =
pandas
.
DataFrame
({'1.a':[1,2], '1.b':[3,4], '2.a':[5,6], '2.b':[7,8], '
浏览 8
提问于2021-01-28
得票数 0
回答已采纳
1
回答
不带NaN值空格
的
Pandas
绘图栏
、
、
、
我有一个包含NaN值
的
pandas
DataFrame
。我想用x轴上
的
索引绘制一个条形图,并为每一
列
绘制一个条形图,按索引分组。我只想绘制具有实际值
的
条形图。据我所知,在这个例子
中
: df =
pandas
.
DataFrame
({'foo':[1,None,None], 'bar':[None,2,0.5], 'col': [1,1.5,None]}, index=[&quo
浏览 3
提问于2018-11-21
得票数 6
1
回答
如何对列表列
中
每个元素
的
pandas
数据帧
的
整数列
中
的
值进行求和?
、
、
我有下面的例子
pandas
DataFrame
: "count": [3, 5, 1]}){"a": 8, "b": 3
浏览 1
提问于2021-10-06
得票数 0
2
回答
DataFrame
'groupby‘正在使用索引修复组
列
、
、
我使用了一个简单
的
'groupby‘来
压缩
Pandas
数据帧
中
的
行: df = df.groupby(['col1', 'col2', 'col3']).sum() 在新
的
DataFrame
'df‘
中
,'groupby’函数中使用
的
三
列
现在在索引
中
是固定
的
,并且不再是
列
索引
浏览 12
提问于2021-04-28
得票数 2
回答已采纳
1
回答
如何使用Python / Pyspark合并数据库
中
的
数据
、
、
、
我正在使用Databricks笔记本来提取gz
压缩
的
csv文件并加载到
dataframe
对象
中
。我对下面的第2部分有困难。 import
pandas
as pd df.show(truncate返回以下错误: TypeError:无法连接类型为'<cl
浏览 5
提问于2021-02-10
得票数 1
回答已采纳
3
回答
我能和熊猫一起加入
压缩
的
溪流吗?
、
、
、
我知道,通过将compression='gzip'参数传递给pd.to_csv(),我可以将
DataFrame
保存到
压缩
的
CSV文件
中
。my_df.to_csv('my_file_name.csv', compression='gzip') 我还知道,如果我想将
DataFrame
附加到现有CSV文件
的
末尾,我可以使用mode='a',如下所示my_df.to_csv('my_file_name.cs
浏览 10
提问于2016-07-29
得票数 14
1
回答
pandas
.
DataFrame
.to_pickle向后兼容性
、
、
pandas
0.20
中
引入了
pandas
.
DataFrame
.to_pickle
的
压缩
参数。 在
pandas
0.20之前,没有我需要指定
的
压缩
参数。我有一个用
pandas
0.18编写
的
how应用程序,要在0.18版本中使用
pandas
.read_pickle读取pickle文件而没有错误,我应该如何pickle文件?到目前为止,我已经尝试将
压缩
参数设置为No
浏览 1
提问于2017-08-17
得票数 2
1
回答
Python
Pandas
。使用Series创建
DataFrame
不保留dtype
、
"value": numpy.random.rand(5)})基本上,我正在创建一个
DataFrame
,df2,基于一个旧
的
DataFrame
,df
的
值。int64dtype: objectid float64dtype: o
浏览 4
提问于2016-02-09
得票数 3
回答已采纳
2
回答
ValueError:在熊猫数据上使用itertuple()时,有太多
的
值需要解包
、
、
、
我试图根据我在这里找到
的
答案将一个简单
的
熊猫数据文件转换成一个嵌套
的
JSON文件: firstname lastname orgname1 Minny Moose Moosers 916-555-2222 none minny.moose@wildlife.net data =
pandas
.read_excel(inputExcel, sheetnam
浏览 0
提问于2016-06-14
得票数 4
回答已采纳
1
回答
zip操作与
pandas
切片操作
的
比较
、
、
、
、
一个有趣
的
观察,我觉得我应该澄清。我预计
pandas
切片操作应该比
压缩
数据帧
的
列
更快,但在两个操作上运行%timeit时,
压缩
操作更快……s = pd.
DataFrame
({'Column1':range(50), 'Column2':np.random.randn(50), 'Column3':np.random.randn
浏览 1
提问于2018-10-16
得票数 0
1
回答
熊猫
DataFrame
中
的
多
列
减法及附加结果
、
我有一个传感器数据表,其中一些
列
是测量,而一些
列
是传感器偏差。例如,如下所示: 'dx':[0.25,0.25,0.25]}) 我可以在表格
中
添
浏览 1
提问于2016-07-17
得票数 2
回答已采纳
1
回答
熊猫数据导入列作为“方法”类转换为“系列”
、
、
我有一个熊猫
dataframe
(源代码格式为CSV),当我认为它应该是'
pandas
.core.series.Series‘时,其中一个
列
是'method’类。"troublesomeColumn“是文本
列
,其他文本
列
自然导入为'
pandas
.core.series.Series‘.我不知道是什么导致了这个问题,我在专栏
中
找不到任何异常值。我希望它是一个“
pandas
.core.series.Series”,这
浏览 5
提问于2020-06-25
得票数 0
回答已采纳
1
回答
熊猫:根据条件自动重新排序列
、
我有一个表,其中
的
索引
列
用星期数表示: 我希望重组
列
,以便获得以下内容: 第一和第二周是2022年,第45至52周是2021年,所以我想重组表格,在第52周之后
的
第1和第2周。我做了这段代码,但是我会有一个自动
的
解决方案:data = data', '47', '4
浏览 2
提问于2022-01-11
得票数 0
回答已采纳
2
回答
使用
pandas
从zip
中
读取特定
的
csv文件
、
这里有一个我感兴趣
的
数据。我想下载
压缩
与熊猫和创建
DataFrame
从一个文件称为Production_Crops_E_All_Data.csv import
pandas
as pddf=pd.read_csv(url)
Pandas
浏览 64
提问于2020-07-06
得票数 2
回答已采纳
1
回答
将
列
中
的
值替换为excel/sql/ same
中
同一
列
中出现
的
频率
、
、
、
我有一个包含超过600000条记录
的
表和一个名为implementer_userid
的
列
,其中
的
值可能被重复用于多个记录。现在,我想在该
列
中
存储特定
的
不同值出现
的
次数。COUNTIF(Excel)、GroupBy(sql)和类似的函数不能工作,因为我不想要一个特定值
的
计数,而是用它们
的
频率替换所有不同
的
值。在这三个框架
中
的
任何一个框架
中
帮助我做到
浏览 3
提问于2020-02-20
得票数 1
回答已采纳
2
回答
将元组
的
列
拆分为两
列
、
、
、
、
我正在使用python2.7和dasktable[col] = table.apply(lambda x: (x[col1],x[col2]), axis = 1, meta = pd.
Dataframe
) table[[col1,col2]] = table[col].apply(pd.Series) 这样做
的
要点是,d
浏览 7
提问于2017-11-19
得票数 4
回答已采纳
2
回答
有效地压扁大熊猫
中
的
大型多功能动物
、
我有一个非常大
的
DataFrame
,如下所示:SPH2008 3/21/2008 1 2 3/21/2008 1 2 6/21/2008 1 2我有下面的代码,目的是将这两个监听器
的
唯一对简化为一个新
浏览 0
提问于2018-11-05
得票数 2
回答已采纳
1
回答
PySpark:带有标量
Pandas
的
无效returnType
、
、
我正在尝试从
pandas
_udf返回一个特定
的
结构。它在一个集群上工作,但在另一个集群上失败。我尝试在组上运行udf,这需要返回类型为数据框架。from pyspark.sql.functions import
pandas
_udfimport numpy as np oneCar.loc[1:, 'Lati
浏览 2
提问于2018-03-26
得票数 5
回答已采纳
2
回答
我们可以用一条数据线创建散点图吗
、
、
、
、
我在
dataframe
中有如下示例数据 Header=['Date','EmpCount','DeptCount'] Date
浏览 15
提问于2019-10-11
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券