腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
使用
execute
和
executemany
命令
将
Pandas
数据
帧
插入
SQL
Server
花费
的
时间
太长
、
、
、
我有一个包含27列
和
大约45k行
的
pandas
数据
帧
,我需要将其
插入
到
SQL
Server
表中。我目前正在
使用
下面的代码,它需要90分钟来
插入
: conn = pyodbc.connect('Driver={ODBC Driver 17 for
SQL
Server
};\) for in
浏览 111
提问于2020-12-20
得票数 0
回答已采纳
1
回答
如何在拆分分支中从Python
插入
到
SQL
表中
、
、
、
、
我目前正在做一个关联规则项目,这是我第一次
使用
SQL
Server
。我有一个包含所有结果
的
Pandas
Dataframe,并希望将它们传输到
SQL
表中。不过,
数据
帧
的
形状是(1788020,4),并且在运行代码时需要
花费
太长
时间
,并且在500左右
的
行处停止。以防万一,这是我
使用
的
代码: cursor2 = conn2.curs
浏览 22
提问于2021-09-02
得票数 1
3
回答
加快潘达斯to_
sql
()?
、
、
、
、
我有一个1,000,000 x 50
Pandas
DataFrame,我正在
使用
以下方法将其写入一个
SQL
表:花了相当长
的
时间
我已经看到了关于如何在网上加速这一过程
的
各种解释,但似乎没有一种解释适合MSSQL。 然后我得到一个no attribute copy_from错误。有什么简单
的
方法来加速to_
sq
浏览 5
提问于2017-01-09
得票数 8
1
回答
SQLAlchemy编程错误‘转换小数丢失精度’,'HY000‘
、
、
我正在
使用
SQL
Alchemy engine
和
pandas
,并试图实现fast_
executemany
=True,但是当我试图
将
df框架行
插入
到
SQL
SERVER
DB中时,我得到了这个错误。我
的
代码是这样
的
engine = create_engine('mssql+pyodbc://@
SERVER
/DATABASE?) conn =
浏览 60
提问于2021-10-06
得票数 0
回答已采纳
1
回答
需要
使用
较小
的
批次
插入
到具有pyodbc
的
Teradata表
、
我尝试通过pyodbc小批量地
将
数据
从
pandas
dataframe
插入
到Teradata表中。我能够成功地
插入
一小部分样本
数据
,但是当我尝试
插入
整个
数据
帧
(大约125k行)时,我收到这个错误消息: Teradata
SQL
请求超过了1MB
的
最大允许长度。在做了一些研究之后,似乎我
的
insert语句太大了,所以我想把它拆分成更小
的
批处理大小。我研究了cursor
浏览 19
提问于2019-07-19
得票数 2
1
回答
在带有driver=‘
sql
+服务器’
的
SQL
alchemy中
使用
fast_
executemany
= True时出错
、
、
我正在尝试
使用
fast_
executemany
来加速我
的
df.to_
sql
插入
。=True)当我在没有fast_
executemany
的
情况下运行这段代码时,它可以工作,但是
插入
操作需要相当长
的
时间
。因此,我想
使用
该
命令
,但在'
SQL
+
Server
'驱动程序中<em
浏览 16
提问于2019-07-10
得票数 2
2
回答
如何在python中存储
SQL
表以
使用
它?
、
我希望与我在
SQL
中有一个表在python中工作。我希望
将
整个表存储在一个名为'mat‘
的
矩阵中,然后在python代码之后获得输出,这样我就可以再次
使用
SQL
读取该表。我是这样开始
的
:import
pandas
as pddatabase = 'mydatabase'p
浏览 0
提问于2018-12-18
得票数 0
1
回答
大型Dask/
Pandas
(27M行x 52列) .to_csv或.to_
sql
MemoryError
、
、
、
、
长话短说,我一直在与内存问题(以及执行
时间
) dask /
pandas
来编写大型
数据
帧
to_
sql
或to_csv作斗争,如果有人能给我指出正确
的
方向(下面有更多详细信息)?在此基础上,我只是简单地尝试写入.csv,但是在尝试
使用
.compute()
将
dask
数据
帧
转换为
pandas
数据
帧
并写入文件时,我再次耗尽了内存。我想把这个问题集中在如何在不耗尽内
浏览 25
提问于2020-06-12
得票数 0
2
回答
如何加速
pandas
to_
sql
、
、
、
我正在尝试
使用
pandas
to_
sql
将
数据
上传到MS Azure
Sql
数据
库,这需要很长
时间
。我经常在上床睡觉
和
早上醒来之前运行它,它已经完成了,但已经花了几个小时,如果出现错误,我无法解决它。下面是我
的
代码: params = urllib.parse.quote_plus('
Server
=%s,1433;
浏览 116
提问于2020-07-06
得票数 0
回答已采纳
1
回答
Python
pandas
到azure
SQL
,批量
插入
、
如何安排
将
python dataframe批量
插入
到相应
的
azure
SQL
中。我看到INSERT对单个记录有效:
插入
XX (Field1)值(value1); 如何
将
dataframe
的
全部内容
插入
Azure表? 谢谢
浏览 24
提问于2020-08-26
得票数 0
1
回答
通过python脚本执行
的
插入
速度很慢,即使只有400行
、
、
、
我有一个400行
的
“
数据
帧
”。 当我尝试
将
数据
推送到
SQL
Server
(在azure VM上)时,
插入
大约需要4分钟。下面是我
使用
的
exceutemany语句: cursor.
executemany
(insert_query,df) 我知道cursor.
executemany
是逐行
插入
的
,但是对于只有400行的人来说,花4分钟
的</e
浏览 144
提问于2019-08-26
得票数 0
回答已采纳
2
回答
基于Sqlite3
的
数据
库
、
、
、
、
我正在用Sqlite3 python库创建一个股票价格
数据
库。但是我
的
代码需要很长
时间
才能运行,不知道为什么速度慢。知道我怎么能加快速度吗?我做错了什么吗?我
使用
Python3.x,Anacondafrom googlefinance.client import get_price_data, get_prices_datapd.DataFrame(get_price_data(param)) end_of_day['Time']=end_of
浏览 0
提问于2018-04-23
得票数 1
回答已采纳
1
回答
使用
python快速加载到
SQL
server
中
、
、
我有一个有6列
和
大约27000行
的
数据
帧
。27000行应该不会花很长
时间
。从
数据
库读取时没有问题。row.group_company, row.customer_type, row.invoice_date, row
浏览 3
提问于2021-11-21
得票数 0
1
回答
字符串(对象)
数据
的
to_
sql
内存不足错误
、
、
、
我正在
使用
to_
sql
将
pandas
数据
帧
写入
SQL
server
数据
库。
数据
帧
很小(1列,100行)。然而,我得到了一个错误: MemoryError 该列
的
dataType为object (即string)。如果我
将
dataType转换为INT,则代码执行
浏览 3
提问于2020-09-19
得票数 0
1
回答
使用
fast_
executemany
属性
的
缺点还是缺点?
、
、
、
当我们通过熊猫
将
文件加载到
Server
时,在创建SQLAlchemy引擎对象时,我已经开始
使用
这个SQLAlchemy属性。我理解它在加载
数据
时所带来
的
好处。 是否建议在
Server
任务中启用它?也许只要一直做单身
插入
就行了?我仍然看不出fast_
executemany
会怎么变慢。
浏览 0
提问于2020-11-23
得票数 2
回答已采纳
5
回答
如何
使用
pyodbc加速批量
插入
到MS
SQL
Server
、
、
、
、
下面是我
的
代码,我想要一些帮助。我必须运行它超过1,300,000行,这意味着它需要40分钟来
插入
~300,000行。 reader = csv.reader(f) #trims any extra spaces columns = [x.strip(' ')
浏览 7
提问于2015-04-14
得票数 46
回答已采纳
1
回答
Python MSSQL PyODBC与fast_
executemany
失败
、
、
我在
使用
pyodbc
和
fastexecutemany
将
数据
推送到MSSQL表时遇到了问题。 我已经搜索了互联网
和
Stackoverflow上
的
其他帖子。据我所知,我这样做是正确
的
,但并没有成功加载。 我有一个简单明了
的
数据
框架,我正在尝试推送。日期是日期
时间
。数字是浮点数。名称是字符串 我正在尝试加载到Microsoft
SQL
2016
数据
库 代码如下: conn = '
浏览 31
提问于2019-02-08
得票数 0
5
回答
基于dataframe
插入
SELECT
、
、
、
我有一个dataframe,我想执行一个查询,将来自dataframe
的
所有值
插入
到一个表中。基本上,我试图将其加载为以下查询:SELECT *为此,我有以下代码:import
pandas
as pd '
Ser
浏览 12
提问于2020-04-19
得票数 0
回答已采纳
1
回答
PostgreSQL
使用
了错误
的
分隔符
我正在尝试
使用
pgAdmin
将
.txt文件中
的
数据
添加到postgreSQL
数据
库
的
空表中。.txt文件
使用
'|‘作为分隔符。我猜
SQL
也试图
使用
"\“作为分隔符。ERROR: missing data for column "email"
SQL
state: 22P04 如何修
浏览 52
提问于2021-01-13
得票数 0
回答已采纳
2
回答
使用
to_
sql
将
Pandas
数据
插入
Sybase
数据
库表失败
、
、
、
、
下面代码
的
目的是从restful服务中获取
数据
,将其规范化,用必要
的
列将其存储在dataframe中,然后
使用
Pandas
‘to_
sql
将其加载到Sybase表中。错误: 文件“C:\ Files\Anaconda3\lib\site-packages\sqlalchemy\engine\default.py",第467行,在do_
executemany
cursor.
executemany
\n (102) (SQLExecDirectW)
浏览 3
提问于2020-07-01
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Pyodbc:数据库连接神器,这个Python库让数据库操作更简单!
7个点让 Python 更加充分的使用 Sqlite3
让 Python 更加充分的使用 Sqlite3
Python 中查询 sqlite3 的一些小技巧
每日一模块:clickhouse_driver
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券