腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9913)
视频
沙龙
1
回答
将
Pandas
DF
加
载到
大
查询
失败
、
、
我正在使用以下代码(基于示例
pandas
-gbq-migration),如下所示: from google.cloud import bigqueryimport osos.environ["GOOGLE_APPLICATION_CREDENTIALS"] = "link_to_credentials.json" table_ref = dataset_ref.table('y
浏览 68
提问于2019-01-07
得票数 4
回答已采纳
1
回答
Dask DataFrame能和大熊猫DataFrames一起工作吗?
、
、
df
=
pandas
.DataFrame({'x': my_very_large_array}) ddf = dask.dataframe.from_
pandas
(
df
, npartitions=100
浏览 7
提问于2019-03-06
得票数 0
回答已采纳
1
回答
从CSV文件中选择*
、
、
我想知道是否有一种简单而直观的方法来做这样的事情:我搜索了网页,但找不到任何
查询
CSV文件的SQL类型语法。在R,我可以这样做:
df
<- read.csv.sql("C:\\your_path_here\\CSV1.csv", "select * from file whereName='Ryan'")我想知道Python中是否有类似的东西。
浏览 1
提问于2018-07-30
得票数 0
回答已采纳
5
回答
将
大量数据从BigQuery加
载到
python/大熊猫/dask
、
、
、
、
我在BigQuery中有一个
大
表(假设每天插入2000万行)。我希望有大约2000万行数据,在python/大熊猫/dask中有大约50列的数据来做一些分析。
浏览 2
提问于2019-03-06
得票数 6
回答已采纳
1
回答
Python Dask:无法
将
非限定值(NA或inf)转换为整数
、
、
我正在尝试从一个postregres表中捕获一个非常
大
的结构化表格。它有大约200,000,000条记录。我正在使用dask而不是
pandas
,因为它更快。当我
将
数据加
载到
df
中时,它比
pandas
快得多。
浏览 0
提问于2020-02-20
得票数 1
1
回答
将
大型SQL语句传递给Python SQLAlchemy中的变量?
、
、
、
请指导我如何
将
一个非常
大
的SQL语句(50列)传递给stmt变量,之后我将用它来加
载到
pandas
df
中?以下是我所做的工作:import
pandas
as pd
df</em
浏览 1
提问于2017-06-27
得票数 1
3
回答
管道从外壳进入jupyter笔记本电池
、
、
、
是否有人知道如何
将
shell命令( csvkit工具调用链)的输出流到jupyter笔记本单元,但特别是在
Pandas
DataFrame中。
df
= DataFrame.read_csv(output)我正在寻找一种管道/流解决方案,它允许
Pandas
读取输出。
浏览 4
提问于2016-06-12
得票数 2
2
回答
从Pydrill
查询
将
csv加
载到
pandas
数据帧中
、
、
、
我可以
将
csv加
载到
pandas
dataframe中,但它被困在列表中。我怎样才能直接从Pydrill加
载到
pandas
数据框中,或者从
pandas
数据框列和数据列表中删除?由于Pydrill
查询
,pd.dataframe无法工作。 reviews = drill.query("SELECT * FROM hdfs.datasets.`titanic_ML/titanic.csv` LIMIT 1000", timeout=30) pr
浏览 30
提问于2019-10-11
得票数 0
1
回答
熊猫read_csv()不能读取字符串"null“
、
、
如果我有这个CSV:"hi"import
pandas
print(list(
df
["col1"]))['hi'][nan] 我的实际CSV相当
大
,
浏览 4
提问于2021-09-25
得票数 0
回答已采纳
3
回答
仅
将
一个工作表加
载到
dataframe
、
、
、
、
我正在尝试用
pandas
的read_excel方法把一个excel表格读成
df
文件。excel文件包含6-7个不同的工作表。其中,2-3张纸非常
大
。我只想从文件中读出一张excel表格。我读过
pandas
使用的xlrd总是
将
整个工作表加
载到
内存中。我不能更改输入的格式。 你能建议一种提高性能的方法吗?
浏览 31
提问于2017-12-21
得票数 2
1
回答
将
大型.jsons文件加
载到
Pandas
数据中
、
、
我正在尝试
将
一个
大
的jsons-文件(2.5GB)加
载到
Pandas
dataframe。由于文件的大小较大,
pandas
.read_json()
将
导致内存错误。file.jsons')) as json_file: data = list(map(json.loads, data))
df
浏览 0
提问于2019-09-16
得票数 3
2
回答
pandas
:迭代数据帧,对每一行执行SQL
查询
、
在数据帧的每一行中,我希望添加一个列,该列是对Postgres数据库的
查询
结果。这就是我现在所拥有的: for index, row in
df
_tf.iterrows(): id = row['National ID'] q我知道我可以
将
Postgres数据加
载到
pandas
中并直接连接,但它相当
大
且很慢,所以我更喜欢使用Postgres
查询
。
浏览 22
提问于2021-06-28
得票数 0
3
回答
将
csv文件加
载到
BIGquery中,并在插入数据时添加日期列
、
、
我正在编写一个python云函数,以便在添加新的列creation_date后
将
csv文件加
载到
BigQuery中。到目前为止还没有成功。有没有办法使用云函数或
pandas
来实现这一点?
浏览 67
提问于2021-08-04
得票数 0
回答已采纳
1
回答
获得更多信息当
大
查询
加载
失败
时,CSV表遇到太多错误,放弃
我试图从CSV文件
将
表加
载到
大
查询
中,但是它
失败
了 当我单击
大
查询
控制台中的作业状态时。没有更多的信息了。
浏览 2
提问于2018-12-19
得票数 0
2
回答
ColumnarToRow是如何在Spark中高效运行的
、
、
、
即使对于某些列的选择,columnar也能很好地工作,因为我们不必将其他列加
载到
内存中。但是在Spark3.0中,我看到在
查询
计划中应用了这个ColumnarToRow操作,根据我从可以理解的,
查询
计划
将
数据转换为行格式。 'a': [i for i in range(200
浏览 13
提问于2020-11-12
得票数 10
1
回答
将
数据加
载到
、
我的问题如下:{"value":"123"}我已经为我的数据定义了以下架构。[] 当我试图
将
json文件加
载到
大
查询
中时,如果出现以下错误,它将
失败
浏览 3
提问于2014-05-14
得票数 4
1
回答
如何
将
两只熊猫的数据加
载到
拥抱面的dataset对象中?
、
、
、
、
我正在尝试
将
火车和测试数据帧加
载到
dataset对象中。
将
熊猫数据加
载到
dataset对象中的通常方法是:import
pandas
as pddataset = Dataset.from_
pandas
(
df
)from d
浏览 5
提问于2022-06-04
得票数 1
1
回答
pandas
在csv上提高OutOfBoundsDatetime,而不是在sql上
、
、
、
、
我有一个运行
pandas
版本0.25.2的服务。此服务从数据库读取数据并将快照存储为csv
查询
的结果是一个包含一些非常
大
的日期时间值的数据帧。(如3000-01-02 00:00:00)之后,我使用
df
.to_csv(index=False)创建csv快照并将其写入文件 在安装了
pandas
0.25.3的不同机器上,我
将
csv文件的内容读入数据帧这将导致OutOfBoundsDateti
浏览 18
提问于2019-11-08
得票数 1
回答已采纳
1
回答
如何在我的SQ
查询
中使用
pandas
数据框?
、
、
、
、
我有一个熊猫数据帧:
df
。我是用sql query得到的。现在,我想编写另一个sql
查询
,从该
pandas
数据帧中获取数据: SELECT id, type, valueGROUP BY id, type 我想这样做是因为第一个
查询
非常
大
,第二个
查询
也可能变得非常
大
,所以为了避免大型
查询
,如何在第二个
查询
中插入熊猫数据帧?
浏览 11
提问于2021-09-30
得票数 0
1
回答
使用气流迁移大型表
、
、
我需要使用MySQL Airflow
将
一些非常
大
的s3表迁移到s3文件。气流中的所有相关钩子和操作符似乎都适合使用
Pandas
数据文件
将
完整的SQL输出加
载到
内存中,然后将其转换/导出到所需的文件格式。 这给无法完全装入内存且正在
失败
的大型表带来了明显的问题。我无法让气流读取
查询
结果并将其保存到本地文件中,而不是将其全部存储到内存中。我看到了bulk_dump使用MySqlHook
将
结果输出到MySQL服务器上的文件的方法,但是没有明确的方法
浏览 1
提问于2021-03-25
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券