腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(8603)
视频
沙龙
1
回答
数据
长度
超过
65536
个字符
的
Pandas
dataframe
to_sql
、
、
、
、
我有一个
Pandas
dataframe
,其中一些列
的
值
超过
65536
个字符
。当我尝试使用df.to_sql(con=engine, name=table_name, if_exists='replace', index=False)将
数据
导出到MySQL时,它们被截断为
65536
个字符
。如果列
的
值大于
65536
,有没有办法自动将它转换为LONGTEXT或BLOB (而不是文本)
浏览 23
提问于2019-07-10
得票数 2
2
回答
检查包含
超过
64
个字符
的
dataframe
列
、
我试图在
Pandas
dataframe
中找到有
超过
64
个字符
的
列。 if (df[col].str.len()).any() > 64:
浏览 1
提问于2018-11-05
得票数 4
回答已采纳
1
回答
Python
pandas
数据
帧事务
、
、
、
、
请建议在一个事务中执行SQL语句和
pandas
dataframe
.
to_sql
()
的
方法因此,基本上我需要使用
dataframe
的
.
to_sql
在一个事务中删除然后插入 我将sqlalchemy引擎与
pandas
.df.to_sql()一起使用
浏览 0
提问于2018-06-25
得票数 1
2
回答
pandas
df.to_sql()会回滚吗?
、
、
我正在使用
pandas
通过SQLalchemy将
数据
写入SQL
数据
库。 我将
数据
加载到
DataFrame
,然后使用
to_sql
()方法。
pandas
to_sql
()方法会回滚吗?例如,如果在将
数据
插入
数据
库
的
过程中发生错误,我可以将其回滚到原始
数据
吗?
浏览 175
提问于2020-08-09
得票数 1
回答已采纳
1
回答
使用teradatasql包将
数据
框插入teradata
、
、
我使用teradatasql包作为python和Teradata之间
的
连接器,它是Teradata
的
本地解决方案,用于从DB加载
数据
。但是,我想将我在python中创建
的
数据
框插入回DB。是否可以使用teradatasql包将
数据
帧写入
数据
库? 谢谢
浏览 14
提问于2020-07-13
得票数 1
回答已采纳
1
回答
Pandas
dataframe
read_sql读取
超过
1023
个字符
的
字符串
、
、
、
我正在尝试从MS SQL表中读取
数据
,其中一列包含
超过
1024
个字符
的
varchar。当我将查询读入
数据
帧时,字符串被截断为1023
个字符
。请参见下面的代码和输出。有人知道如何将
超过
1023
个字符
的
字符串放入
数据
帧吗?我到处寻找,在
DataFrame
文档中,但我还没有找到答案。 在下面的代码中,表test包含一个列's‘,其中一行有一个
长度
为1100
的
字
浏览 27
提问于2017-01-22
得票数 1
回答已采纳
1
回答
从CSV中选择
数据
并将该
数据
输入到SQLite中
的
表中
、
、
我正在尝试找出如何遍历.CSV文件中
的
行,并将
数据
输入到sqlite中
的
表中,但前提是该行中
的
数据
满足一定
的
条件。 我正在尝试建立一个关于我个人消费
的
数据
库。我已经使用python对我
的
支出
数据
进行了分类,现在我想将这些
数据
输入到一个
数据
库中,每个类别作为一个不同
的
表。这意味着我需要对
数据
进行排序,并根据支出类别将其输入到不同
的
浏览 12
提问于2021-09-26
得票数 0
1
回答
Python:如何获得大于n
个字符
的
二维数组
的
字符串值?
、
s = (["id" "title" "name"] ["2" "hide" "joh"]我需要得到
长度
超过
2
个字符
的
字符串值。由于
数据
相当大,所以我也尝试了
DataFrame
.iterrows或
pandas
中
的</em
浏览 1
提问于2022-06-19
得票数 0
回答已采纳
1
回答
使用fast_executemany属性
的
缺点还是缺点?
、
、
、
我理解它在加载
数据
时所带来
的
好处。 是否建议在Server任务中启用它?也许只要一直做单身插入就行了?我仍然看不出fast_executemany会怎么变慢。
浏览 0
提问于2020-11-23
得票数 2
回答已采纳
1
回答
如何使用pyodbc更快地更新db
、
、
、
我有一个简单
的
任务,它正在发挥作用,但它正在漫长地完成。任务包括从api (json文件)检索
数据
,并比较该
数据
是否已经在
数据
库上。 如果
数据
位于
数据
库= update项上,则on =insert。为此,我循环遍历
数据
库上
的
一组当前item_id,并为每个场景执行语句。在另一个任务上,我只需要一次从一个
数据
中插入所有
数据
,所以我使用了df.to_sql和method=multi和chunksize = 50,它工作得
浏览 9
提问于2022-07-16
得票数 0
回答已采纳
3
回答
python
pandas
:只将
数据
帧
的
结构(没有行)导出到SQL
、
、
我使用
的
是
pandas
0.16和sqlalchemy。是否可以只将
数据
帧
的
结构(即列名和
数据
类型)导出到SQL?我所能做到
的
最接近
的
结果是只导出第一行:然后我必须做一个截断表。但是,to_csv和
to_sql
方法之间存在不一致之处: to_csv将布尔字段写为字符串'TRUE‘或'FALSE’,而
to_sql<
浏览 4
提问于2015-04-20
得票数 3
1
回答
如何在SQL中将
数据
框另存为表
、
、
我有一台SQL Server,其上有我想使用
pandas
来更改
数据
的
数据
库。我知道如何使用pyodbc将
数据
放入
DataFrame
中,但是我不知道如何将该
DataFrame
放回我
的
SQL Server中。我试图用sqlalchemy创建一个引擎并使用
to_sql
命令,但我无法让它工作,因为我
的
引擎永远不能正确地连接到我
的
数据
库。import pyodbc import
pa
浏览 16
提问于2019-04-19
得票数 1
回答已采纳
1
回答
Pandas
,将包含过多字符
的
单元格替换为缩短版本
、
、
我有一个
数据
集,它有时包含由于大小而无法插入到SQL中
的
无关注释。注释与我正在做
的
事情无关,但格式不好,所以我不能常规地通过查找代表其开头
的
符号来找到它们。我需要
的
是找到每个
长度
超过
250
个字符
的
单元格,并将其替换为保留积分(如果您可以按列执行此操作),因为在一天结束时,我希望在每个文件中保留两列,所以我可以在
dataframe
.columns中调用x:= (column_name to )来做这件事 下面的示例代码
浏览 6
提问于2020-03-05
得票数 0
回答已采纳
1
回答
Pandas
to_sql
方法与sqlalchemy hana连接器一起工作?
、
我正在为HANA
数据
库连接创建一个sqlalchemy引擎(安装了pyhdb和sqlalchemy-hana ),并将其传递给
pandas
的
to_sql
函数用于
数据
帧:我在Hana模式中创建了一个表,该表与我试图从
dataframe
传递给它
的
内容
的</
浏览 3
提问于2017-06-30
得票数 0
1
回答
雪花总是使用集结地吗?
我是雪花新手,只是想了解雪花中
的
数据
加载。 假设我在Azure ADLS或Amazon S3中有一些文件。我使用python读取这些文件,进行一些转换,并使用
Pandas
'
to_sql
‘函数将
数据
加载到雪花表。雪花是否使用任何暂存区域先加载
数据
,然后将
数据
移动到表中?还是直接将
数据
加载到表中?
浏览 4
提问于2022-08-20
得票数 1
回答已采纳
2
回答
在使用read_csv函数时,是否有方法验证
Pandas
中
的
数据
类型
长度
?
、
、
、
我试图使用
Pandas
对列进行某种
长度
验证。现在,假设我有一个名为dbo.Test1
的
SQL表,其列
数据
类型和
长度
如下: CREATE TABLE [dbo].test.csv,然后使用
to_sql
导入这些
数据
。当运行时,它将抛出一个错误,因为Column3
数据
在第一行(13)中对于第3 (5)列
的
长度
设置来说太大了。我
的
问题是-
Pandas
中是否有一种方法可以拒绝此记录并导入没
浏览 4
提问于2022-04-18
得票数 0
1
回答
检查模拟方法
的
类对象
、
、
我正在编写一个函数
的
测试,该函数使用
数据
帧
的
to_sql
()方法将熊猫
数据
帧发送到sql
数据
库。为了避免实际发送任何内容,我使用mock.patch('
pandas
.
DataFrame
.to_sql')模拟该方法。我正在测试<em
浏览 2
提问于2019-03-22
得票数 0
1
回答
Pandas
:加速对大型SQLite
数据
库
的
查询
、
、
我已经创建了一个包含32 in财务
数据
的
SQLite
数据
库(我从csv文件开始,然后在
pandas
中使用
to_sql
命令)。更具体地说,该
数据
库有
超过
5.5亿行和6列(3
个字符
串列、2个浮点列和一个日期-时间列)。我想使用
pandas
执行一个简单
的
分组计数查询,但这似乎需要很长时间。我做了以下工作:from sqlalchemy import create_
浏览 0
提问于2015-05-07
得票数 2
1
回答
熊猫
to_sql
引发错误“标识名太长”
、
、
、
COLUMN_ALLIANCERANK, COLUMN_ALLIANCEID, 输入
的
dataframe
除了最后一个数值字段(101,102.)是
数据
文件中
的
索引。 table.create
浏览 0
提问于2016-04-10
得票数 0
1
回答
如何合并clickhouse和postgresql查询?
我正在使用Apache zeppelin,我可以分别从postgres和clickhouse获得结果。但是我需要合并这两个查询。
浏览 31
提问于2019-01-29
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
pandas&sqlalchemy
pandas 统计分析基础
如何使用Pandas处理超过内存容量的大规模数据?
Pandas从MySQL中读取和保存数据
python将一列数据转成字符串并提取前几位
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券