腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
从
JSON
dataframe
中
只
读取
特定
的
列
?
python
、
json
、
pandas
我有一个包含12
列
的
JSON
dataframe
,但是,我只想
读取
名为"name“和”score“
的
第2
列
和第5
列
。目前,我拥有的代码是: df = pd.read_
json
("path",orient='columns', lines=True) print(df.head()) 它所做
的
就是显示每一
列
,正如预期
的
那样在阅读完此
浏览 41
提问于2021-05-01
得票数 1
回答已采纳
1
回答
发出一个保留为
json
的
列
。
json
、
python-3.x
、
dataframe
在我
的
dataframe
的
一个
特定
列
中
,它不会转换为
json
,并且保持这样。{“自我”:“https://servicedesk.com/rest/api/2/c‘,’value”:'EXANDAS','id':'10120'}
如何
只
获取值或转换该
列
--在现有的
dataframe
浏览 2
提问于2021-03-01
得票数 0
1
回答
使用部分模式
的
Spark read
json
apache-spark
、
apache-spark-sql
、
spark-dataframe
我需要使用spark处理一个相当大
的
json
文件。我不需要
json
中
的
所有字段,实际上我只想
读取
其中
的
一部分(而不是
读取
所有字段和项目)。我想知道我是否可以使用
json
连接器,并为它提供一个
只
包含我感兴趣加载
的
字段
的
部分
读取
模式。
浏览 0
提问于2017-07-14
得票数 0
2
回答
只
从
大型
JSON
读取
特定
字段并导入Pandas
Dataframe
python
、
json
、
python-3.x
、
pandas
、
dataframe
"Field999": 'data999'我
的
目标是和熊猫一起分析它,所以我想把来自所有文件
的
数据保存到一个
Dataframe
中
。就我
的
目的而言,我只需要一个来自所有文件
的
带有两
列
( cat 和 dateTime )
的
Dataframe
,我认为这比我尝试
读取
的
所有
列
的
整个
Dataframe
都要轻一些:
浏览 0
提问于2019-01-10
得票数 7
回答已采纳
2
回答
将包含多个
json
对象
的
tweet
json
文件加载到熊猫数据
中
python
、
json
、
pandas
、
twitter
、
nested
我
的
问题:
如何
将
JSON
文件加载到熊猫数据
中<
浏览 6
提问于2021-05-16
得票数 0
1
回答
如何
在解析
Json
文件
中
的
数据时仅获取Python脚本中所需
的
列
python
、
arrays
、
json
、
pandas
、
dataframe
根据要求,我大约有400
列
,这将是按照
JSON
文件
中
的
多个数组。 我使用
的
是Pandas库和python 3.6版。我可能会
从
JSON
文件
中
获得比400
列
更多
的
列
。
如何
限制不需要
的
列
,并且
只
希望在python输出文件
中
获得指定
的
列
。 我使用下面的代码按照指定
的</em
浏览 26
提问于2019-05-09
得票数 1
回答已采纳
1
回答
如何
使用pandas数据帧
从
磁盘
读取
和写入文件?
python-3.x
、
pandas
我将处理非常大
的
数据文件(许多of )。我将不得不
读取
这些文件并写入这些文件。因此,我将不能依赖RAM来存储数据,而需要从磁盘
读取
和写入文件。我熟悉pandas库提供
的
read_csv和to_csv选项。但是,我不确定read csv函数是
读取
文件,然后将其存储在内存
中
,还是直接
从
磁盘
读取
文件。使用pandas
从
磁盘
读取
和写入文件
的
最佳方式是什么?
浏览 0
提问于2017-09-16
得票数 0
1
回答
火花:单元测试-我有一个功能,联合3输入数据集。我应该对它们进行单元测试吗?
unit-testing
、
apache-spark
、
apache-spark-sql
other logic object readDataframes{ spark.read.
json
(spark:SparkSession):Dataset[Row]={}在上面的代码
中
,我正在
读取
3个文件,然后将它们合并为一个文件,我将其进一步用于处理基于上述情况,我
的
问题如下: 单元测试函数mergdatasets集是否有意义
浏览 2
提问于2019-09-23
得票数 0
1
回答
在运行时更改
dataframe
的
列名
python
、
pandas
我正在尝试用5
列
值初始化一个空
的
dataframe
。比如column1,column2,column3,column4,column5。现在,我希望
从
数据库
中
读取
数据,并希望将
特定
的
列
值
从
数据库插入到此数据
中
。因为有5
列
,所以单独做比较容易。但是,我必须将
dataframe
的
列
数扩展到70。为此,我使用For循环。要更新库仑值,
浏览 0
提问于2014-05-27
得票数 1
回答已采纳
2
回答
如何
在PySpark中将df
列
[
JSON
_Format]转换为多个
列
?
python
、
apache-spark
、
pyspark
、
apache-kafka
、
spark-structured-streaming
我
从
Kafka那里得到了
JSON
格式
的
数据,并在PySpark
中
以
DataFrame
的
形式
读取
了这些数据。在我
从
Kafka获得数据后,它显示为
DataFrame
格式:
DataFrame
[value: string] 但是,该值包含
JSON
/ DICT格式。testing.writeStream.foreach(print_row).start() Row(value='{co
浏览 24
提问于2020-01-13
得票数 0
1
回答
JSON
格式
的
日期
json
、
pandas
、
date
、
dataframe
我想写一个(熊猫)
DataFrame
到一个
json
文件。但是我
的
一
列
是日期,当我
从
json
文件
中
读取
日期时,日期格式是毫秒(?)from pandas import
DataFrame
, read_
json
A = {'a': [date(2019,1,1),:\temp\Export_
DataFrame
.<
浏览 2
提问于2019-10-09
得票数 1
回答已采纳
1
回答
避免
JSON
错误,每次在一个变量上显示日文字符串(R) /运行一个函数
r
、
plotly
、
cjk
、
r-plotly
、
jsonlite
总的来说,我对R和初学者
的
编程水平非常陌生,并试图弄清楚
如何
以圆滑
的
方式
从
我
的
数据
中
显示一个日文字符串。,使用'productName‘
从
dataframe
返回日语字符串,这将导致绘图无法呈现。DOM检查器
的
控制台显示
JSON
遇到了字符串问题(尽管它只是用UTF-8编码)。我只想要那个
特定
产品
的
名称;就像'grossSales‘和’成本‘一样,在绘图
的<
浏览 0
提问于2019-01-31
得票数 0
回答已采纳
1
回答
大熊猫WaldTestResults
DataFrame
的
提取值
python
、
pandas
、
dataframe
、
statsmodels
LogModel = sm.Logit(y_01, Xdata_WithDummies).fit() 在计算
的
统计数据
中
,有一个Wald表,作为一个熊猫,
Dataframe
(< 'statsmodels.stats.contrast.WaldTestResults'>),类,我可以打印和查看它)。不过,我需要提取本表
的
具体内容,以便进一步分析。根据
的
说法,Wald表是一
只</em
浏览 0
提问于2021-03-04
得票数 1
回答已采纳
1
回答
将写入
JSON
的
MLLIB稀疏向量丢失格式
java
、
apache-spark
、
apache-spark-sql
、
apache-spark-mllib
我正在为
json
编写一个(Java)。其中一个
列
是mllib稀疏向量。稍后,我将
json
文件
读取
到第二个
Dataframe
中
,但是稀疏向量
列
现在是一个WrappedArray,而不是作为第二个数据帧
中
的
稀疏向量
读取
。我
的
问题是:为了得到一个稀疏
的
向量
列
,而不是一个wrappedArray
列
,我可以在书写方或
读取
方做些什么吗?写作
浏览 1
提问于2016-06-15
得票数 4
回答已采纳
1
回答
如何
从
json
格式检索
特定
值到pandas
dataframe
列
python
、
pandas
我有一个
json
文件,我想从该文件
中
检索数据框
列
中
的
特定
值,如下所示 {'Benot':'50455','Madri':'18017','Madrar':'Ossur','Application/ Polyester','ShoeSize':'Male 9 to 11','Size&
浏览 11
提问于2019-10-02
得票数 0
1
回答
用Pandas系列搜索元素
python
、
json
、
pandas
我有一个下面的
JSON
文件(请参阅下面的链接),它是我
从
web上
读取
的
。我想搜索一个
特定
的
字符串并返回它
的
索引。import
json
from pandas import
DataFrame
, Ser
浏览 4
提问于2014-02-22
得票数 0
回答已采纳
1
回答
基于python
中
的
用户输入,我该
如何
访问CSV
中
的
特定
元素?
python
、
csv
、
input
、
user-input
、
csvreader
Testarossa,11,19,1985Dodge,B150/B250 Wagon 2WD,12.2222,16.6667,1985 我想根据用户输入来访问
特定
行
的
“Ucity”和“want”
列
。如果可能的话,使用用户输入,我将
如何
访问'29‘和'47’,它们分别是'Ucity‘和’Ucity‘。我非常感谢所有的反馈,谢谢!
浏览 22
提问于2021-07-20
得票数 0
1
回答
如何
用新
列
转义星火
dataFrame
中
的
字符串字段
apache-spark
、
apache-spark-sql
如何
通过
DataFrame
编写具有
JSON
格式
的
新
列
。我尝试了几种方法,但它将数据写入
JSON
-转义字符串字段。id":1,"name":"name","problem_field": {"x":100,"y":200}}}va
浏览 0
提问于2019-06-14
得票数 1
2
回答
Spark Streamming :
从
具有多个模式
的
kafka
读取
数据
apache-spark
、
apache-kafka
、
spark-streaming
、
apache-spark-dataset
我正在为spark streaming
中
的
实现而努力。来自kafka
的
消息看起来像这样,但带有更多字段我正在尝试阅读来自Kafka主题(有多个模式)
的</em
浏览 10
提问于2017-10-24
得票数 5
3
回答
如何
将新
列
添加到现有的
dataframe
中
,并使用来自另一
列
的
部分数据填充它?
python
、
pandas
、
dataframe
我有一个数据格式
的
作业 我需要在就业数据框架
中
增加一个新
的
专栏“年份”。该
列
应该包含每个post_date
的
相应年份(这已经是一个
列
)。我不知道
如何
插入一个新
的
列
,同时也从一个预先存在
的
列
中提取数据。
浏览 5
提问于2019-11-20
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
干货:手把手教你用Python读写CSV、JSON、Excel及解析HTML
4个解决特定的任务的Pandas高效代码
数据加载、存储与文件格式
肝了3天,整理了90个Pandas案例
Spark之SparkSQL
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券