腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Postgresql
,
如何
导入
大
的
bak.gz
文件
?
、
、
我有13
的
bak.gz
数据库转储。
如何
通过ubuntu命令行将其
导入
到本地pgsql db?
浏览 55
提问于2020-04-01
得票数 0
1
回答
Postgresql
,
如何
导入
大型
bak.gz
文件
?
、
我有13
的
bak.gz
数据库转储。
如何
通过ubuntu命令行将其
导入
本地pgsql db?
浏览 0
提问于2020-03-31
得票数 1
1
回答
当使用cookbook时,
如何
在主厨运行期间多次序列化
postgresql
.conf?
、
、
我正在创建一个厨师食谱,它做了几件事情,其中包括将大量数据
导入
Postgresql
数据库。我正在使用超市'
postgresql
‘烹饪书,它允许我通过node['
postgresql
']['config']属性创建一个配置
文件
。我想在我
的
菜谱运行过程中更新
postgresql
.conf中
的
配置,即在执行
大
导入
之前设置满足
大
导入
浏览 0
提问于2015-10-18
得票数 1
回答已采纳
1
回答
将数据从CSV
导入
到现有Post逗号表中
、
、
如何
将数据从csv
文件
导入
到
PostgreSQL
.I中已经存在
的
表中,我只需要对现有表进行添加,但是由于数据非常
大
,所以我将其
导入
CSV。任何建议都会很有帮助。
浏览 4
提问于2016-09-19
得票数 0
回答已采纳
1
回答
如何
将大型XML
文件
(~10 to )
导入
PostgreSQL
、
、
我有一个大约10 of
的
XML
文件
,我不知道这个
文件
的
内容,但是我想把它
导入
到我
的
数据库中,以便于查看。
如何
将xml
文件
导入
我
的
PostgreSQL
数据库?(对于这么
大
的
文件
,这可能吗?)
浏览 0
提问于2019-01-09
得票数 1
回答已采纳
1
回答
用
PostgreSQL
向GeoKettle数据库插入行
的
最快方法是什么?
、
、
、
、
假设我有一个有1亿行
的
..csv
文件
。我将csv-
文件
导入
宾得凯特尔,并希望将所有行写入
PostgreSQL
数据库。什么是最快
的
插入-转换?我已经尝试过正常
的
表输出转换和
PostgreSQL
大
容量加载器(这比表输出快得多)。但是,它还是太慢了。有比使用
PostgreSQL
大
容量装载机更快
的
方法吗?
浏览 3
提问于2018-02-08
得票数 0
回答已采纳
1
回答
如何
向
PostgreSQL
插入非常
大
的
XML数据
文件
、
、
、
、
我正在使用XML9.5并试图将
PostgreSQL
数据
文件
导入
数据库。要加载XML,我使用这里中
的
这个函数$SQL Error [54000]: ERROR: large object read request is too large Where:SELECT
浏览 0
提问于2019-02-24
得票数 1
1
回答
Pentaho:不能将布尔值
导入
到
PostgreSQL
大
容量加载器
的
表中?
、
、
、
、
我目前正在尝试将一些数据(从csv
文件
)
导入
到
postgreSQL
数据库中。为此,我使用CSV
文件
输入步骤将csv
文件
导入
到Kettle中。我
的
步骤如下:要将数据从水壶
导入
到
PostgreSQL
数据库表中,我使用
PostgreSQL
大
容量加载器(因为要
导入
的
行数以百万计)。此步骤如下所示:正如您在此图像中所看到
的
,表列名是
浏览 3
提问于2018-02-12
得票数 1
1
回答
将数据
导入
Amazon极其缓慢
、
、
、
我需要将一个PostgresSql db从旧服务器
导入
到一个新
的
Amazon中。我创建了一个db转储
文件
,通过pgAdmin连接到我
的
RDS,并开始
导入
pgAdmin控制台(\i dump_file.sql)。📷 所以看起来有写操作符(但是为什么这么少)和一些CPU
的
使用,但是看起来它
的
使用能力非常低。此外,我检查了磁盘使用
的
细节和磁盘收缩,所以它真正
浏览 0
提问于2016-07-01
得票数 1
回答已采纳
2
回答
如何
在
导入
期间对pg_dump数据运行筛选器?
、
、
使用Mac (iTerm2)上
的
终端,除了postgres之外,没有外部应用程序,我想在一个相当
大
(52 MB)
的
pg_dump数据
文件
中运行regex /regex,因为它被
导入
到
PostgreSQL
在转储
文件
访问
PostgreSQL
之前,我需要这样做,因为我必须转换创建和修改表
的
传入
的
SQL查询。用于
导入
数据
的
shell命令是: psql MyDatabase <
浏览 3
提问于2016-07-08
得票数 0
回答已采纳
1
回答
psycopg2 object类-使用比特流插入大型对象
、
、
、
在python + psycopg2中,是否可以使用比特流创建/编写
Postgresql
大
对象,而不是在
文件
系统上提供指向本地
文件
的
路径?为什么这个要求 我正在编写一个数据库迁移脚本mysql >
postgresql
。在源数据库(mysql)中,二进制
文件
存储在一个longblob字段中。使用标准方法/方法将大型对象
导入
postgresql
将是过度
的
,因为它需要输入到本地
文件</e
浏览 2
提问于2015-12-01
得票数 1
回答已采纳
2
回答
如何
在eclipse中连接hibernate和
PostgreSQL
?
、
、
我试图将hibernate与
PostgreSQL
连接起来,但我不知道为什么它不能工作。我已经搜索了很多关于这个背景
的
帖子,但它们不是为我工作
的
。非常感谢!下面是我
的
文件
的
结构:hibernate.cfg.xml<!</property> <property name="hibernate.conn
浏览 1
提问于2013-09-26
得票数 5
回答已采纳
2
回答
使用数百万INSERT语句
导入
大型SQL转储
、
、
、
、
我需要将一个
大
的
.sql
文件
(解压缩时为8.1GB)
导入
到
PostgreSQL
中。我试着使用\i /path/to/file.sql,但是它太慢了。---- -- Dumped from database version 9.5.3完整
浏览 0
提问于2018-08-29
得票数 9
回答已采纳
1
回答
将无标题列从tsv
文件
复制到
postgresql
?
、
我所说
的
tsv是指由制表符分隔
的
文件
。我有一个非常
大
(6 6GB)
的
数据
文件
,我必须
导入
到
PostgreSQL
数据库中,在56列中,前8列是有意义
的
,然后在其他48列中有几列(大约7列)稀疏地分布着1,其余
的
是0。有没有一种方法可以指定要复制到表中
的
文件
中
的
哪些列?如果没有,那么我可以
导入
整个
文件
,只提取所需
的
浏览 0
提问于2016-07-09
得票数 1
1
回答
如何
在seeds.rb中大容量加载前删除DB索引?
、
、
在我
的
rails应用程序中,我有一个seeds.rb脚本,它可以插入很多记录。事实上,我正试着装上1600万辆。花了很长时间。我在迁移中使用add_index和remove_index命令,但在seeds.rb
文件
中不使用相同
的
语法。事实上,在迁移之外能够做到这一点吗?
浏览 4
提问于2011-10-05
得票数 3
回答已采纳
1
回答
为什么在
文件
中就地替换如此困难?
我有一个非常
大
的
CSV
文件
,我想直接
导入
Postgresql
和COPY。为此,CSV列标题需要匹配DB列名。因此,我需要在这个非常
大
的
文件
的
第一行上做一个简单
的
字符串替换。关于
如何
做到这一点,有许多答案: 所有答案都意味着创建一个大型
文件
的
副本,或者使用访问整个
文件
的
文件
系统级解决方案,尽管
浏览 1
提问于2019-04-10
得票数 1
1
回答
不向磁盘写入
文件
的
MySql
大
容量
导入
、
、
我有一个运行mysql数据库后端
的
django网站。我接受相当
大
的
上传从一个管理员用户批量
导入
一些数据。数据
的
格式与其在数据库中所需
的
格式略有不同,因此我需要进行一些解析。我希望能够将这些数据转换为csv,并将其写入cStringIO对象,然后简单地使用mysql
的
批量
导入
命令来加载该
文件
。我宁愿先跳过将
文件
写入磁盘
的
过程,但我似乎找不到解决方法。我过去基本上用
postgresql
浏览 1
提问于2011-06-30
得票数 0
回答已采纳
2
回答
我需要使用python高效、批量地将数据从csv
文件
导入
postgresql
表
、
、
、
我正在寻找一种有效
的
方法来使用python批量地将数据从CSV
文件
导入
到
Postgresql
表中,因为我有相当
大
的
文件
,而我要
导入
数据
的
服务器又很远。我需要一个有效
的
解决方案,因为我尝试
的
一切要么很慢,要么就是不起作用。我使用
的
是SQLlahcemy。我想使用原始SQL,但它很难参数化,而且我需要多个循环来执行对多行
的
查询
浏览 0
提问于2020-07-12
得票数 0
1
回答
从csv过滤每一行
导入
到
postgreSQL
、
我有以下问题(即使是彻底
的
研究也帮不了我):谢谢大家提前,如果这是在某个回答/博士,我错过了! 彼得罗斯
浏览 5
提问于2013-11-07
得票数 0
回答已采纳
1
回答
使用python将压缩
的
SQL转储
导入
Postgresql
、
我必须将压缩
的
sql
导入
到
PostgreSQL
数据库中。通过以下方式创建转储:所以我得到了一个压缩
文件
,我不能一行行地解析它,然后使用psycopg2将它上传到我
的
数据库中。 我正在处理
的
压缩转储非常
大
(最高可达10 to )。
导入
它们
的
有效方法是什么?
浏览 0
提问于2011-02-11
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何解决CAD无法导入PDF文件的问题
如何将Excel文件导入EpiData软件?
excel从外部导入数据之如何导入文本文件数据?
如何用Python快速导入多个excel文件并合并文件数据
Shopify如何使用CSV 文件导入和导出产品?
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券