腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
批量
插入
到
Impala
中
花费
的
时间
太长
、
、
、
我正在使用
Impala
JDBC驱动程序
批量
插入
数据
到
Impala
。我当前
的
批处理大小是1000,并且使用PreparedStatement
的
INSERT INTO VALUES子句来执行批查询。在3台计算机上运行
的
Impala
Daemon和在第4台计算机上运行
的
Impala
Catalog Server、State store。
Impala
上
的
批量</
浏览 201
提问于2017-02-01
得票数 0
回答已采纳
1
回答
如何从hive表
插入
到
分区表(如拼接)?
、
、
、
我
插入
到
分区表
中
,如下所示。如果分区不存在,则会自动创建分区。此查询
花费
的
时间
太长
。
浏览 0
提问于2020-09-25
得票数 0
1
回答
我该选什么- JSON还是SQLite?
、
、
在我
的
应用程序
中
,在每次启动时,有些JSON必须从服务器下载,然后我需要通过解析这些数据来显示各种信息--这是一个完整
的
应用程序生命周期。JSON对象非常大,有将近5000 JSONArray。] 第一种选择似乎是有效
的
。但是稍后我必须操作JSON来显示各种信息。在某些情况下,我需要搜索完整
的
数组来选择数组信息
浏览 3
提问于2013-08-03
得票数 5
回答已采纳
1
回答
当模型是嵌套集合时,如何在数据库
中
执行大容量
插入
?
、
、
我有一个涉及嵌套集合数据结构
的
模型,所以我使用了act_as_nested_set gem。现在,我需要
批量
插入
超过100,000条记录。如果不是嵌套
的
集合数据结构,
批量
插入
可能会更容易、更快捷。但是对于嵌套
的
set,每次
插入
都会更新祖先链
中
的
所有记录。所以,这
花费
的
时间
太长
了。我想过在内存
中
创建树,并维护lft、rgt、深度、
浏览 73
提问于2019-07-05
得票数 0
1
回答
使用Mars更新7000行是否有效?
、
、
、
我有一个使用MARS更新/
插入
7000+行
的
服务。有没有更好
的
方法来做这件事?
浏览 0
提问于2009-10-23
得票数 3
回答已采纳
1
回答
JDBC和PostgreSQL
的
性能。为什么创建大容量
插入
的
速度会更慢
、
、
、
我目前正在测试使用PostgreSQL
的
JDBC
批量
插入
的
速度有多快。为什么会这样,我可以增加这个最优数字吗?我正在创建一百万个应该
浏览 2
提问于2018-03-23
得票数 0
1
回答
插入
花费
的
时间
太长
、
、
、
我
的
设置是: JBOSS AS 7.1.1和PostGreSql不知道问题出在哪里,也不知道从哪里开始。我更新数据库
的
代码看起来像这样- public long updateRecord(long id, List<MyDat
浏览 3
提问于2013-03-11
得票数 0
回答已采纳
2
回答
如何使用多个OledbConnections改进具有不同Ids
的
多个
插入
、
、
、
目前,该系统正在创建多个OledbConnections,该过程需要很长
时间
才能完成,总结如下:从表A中选择所有人员:为每个人执行一个选择,以查看表B
中
是否存在表A
中
的
ID 'x‘。对于每个人,:使用表A
的
ID
插入
或新
的
ID (如果该ID已经存在于表B
中
) 所有这些
插入
都为每个人创建了一个新
的
OledbConnection,例如3k人,
花费
的
时间</
浏览 8
提问于2020-01-17
得票数 0
2
回答
基于值
的
二叉树复杂度
、
、
、
、
我用C语言创建了一个二进制搜索树,当我测试我
的
树时,
插入
和搜索操作需要不同
的
时间
来执行。例如,我有两个场景,从1
到
10000
插入
随机值,从1
到
10000
插入
排序值。当我将1
到
10000
的
随机值
插入
到我
的
BST
中
时,它比将排序值从1
插入
到我
的
BST所
花费
的
时间
要少。同样,在我<
浏览 2
提问于2018-12-05
得票数 0
回答已采纳
1
回答
使用大容量收集填充特定列
、
、
大多数在线示例都是关于select * bulk collect ...
的
我有一个授予同义词
的
脚本,但是从游标
中
获取数据需要
花费
太长
的
时间
,所以我计划使用
批量
收集。原始光标和fetch:
浏览 0
提问于2012-10-16
得票数 0
回答已采纳
2
回答
php : csv导入
到
多个表
花费
的
时间
太长
、
、
我正在使用csv导入库加载
批量
的
产品
到
mysql数据库与codeigniter。csv文件有一些来自一个表
的
列名,比如name,price,还有一些来自另一个表
的
列名,比如categories。它将名称和价格
插入
到
第一个表
中
,类别将在我们从第一个表
中
获得id后
插入
,因此类别将与产品
的
id一起。但处理csv文件
花费
的
时间
太长
(10
浏览 1
提问于2018-02-07
得票数 0
1
回答
使用带MySQL
的
大容量SQL语句
的
c#
、
、
我认识
到
加载数据可以用来加载文本/csv数据。然而,这似乎仅限于
插入
。但是,有没有一种方法可以让MYSQL使用c#
批量
导入SQL文件。 我希望在文本文件
中
构建SQL,然后将其发送到我
的
连接
中
。因为这个过程是每天进行
的
,所以我需要它
的
自动化,这样一旦程序启动,我就不需要任何用户干预了。当可以
批量
执行时,
插入
和更新需要
太长
时间
。
浏览 1
提问于2013-05-03
得票数 0
1
回答
如何使用有错误空间
的
SQLAlchemy将批条目提交到SQL数据库?
、
、
、
有什么可以使用SQLAlchemy将条目提交给具有容错能力
的
SQL数据库?在一起提交一大批条目的效率要高得多,但如果其中一个条目出现错误,例如整数列
中
的
文本,则无法将整个批处理保存到数据库
中
。下面的解决方案是单独提交条目,但是这个方法可以创建太多到mysql服务器
的
连接,特别是在并行运行
的
情况下。是否有更有效
的
方法将条目作为一个有错误空间
的
批提交?
浏览 4
提问于2014-01-21
得票数 2
回答已采纳
2
回答
删除所有产品信息Magento
的
SQL查询
、
因此,我正在寻找从magento
中
删除所有产品及其属性
的
能力。选择全部,然后从管理面板
中
删除它们会
花费
太长
时间
。现在,我正在进行大规模
的
批量
导入并调整数据,直到它看起来正确为止。我该怎么做呢?
浏览 2
提问于2011-05-13
得票数 1
回答已采纳
2
回答
一次将多条记录
插入
到
模型
中
、
、
、
、
当涉及
到
将数据
插入
到
模型
中
时,我正在寻找一些最佳实践,特别是当有许多记录要创建时,到目前为止,我正在检索一些XML并将其保存到模型
中
:cid => cid, :name => name)end 现在,在我看来,这是一个接一个地
插入
记录,这
花费
了
太长
的
浏览 0
提问于2013-04-04
得票数 1
回答已采纳
2
回答
Laravel -在重复键更新大型数据集上进行
批量
插入
、
、
、
我有大约80k条记录,我每天需要在上面运行几次
插入
/更新脚本。['id' => 80000, 'rank' => 3],有没有一种很好
的
/高性能
的
方法可以运行上面提到
的
更新查询?我看过Eloquent
的
Model::updateOrCreate(...)。然而,我不认为我可以将其用于
批量
插入
/更新。我希望避免在$rankings数组上使用foreach和
插入
浏览 0
提问于2016-01-15
得票数 4
1
回答
更新数据库架构
、
因此,我想从我
的
实时数据库
中
更新我
的
数据库
的
开发版本,我已经导出了实时数据库
的
模式,当我尝试将其导入
到
开发数据库
中
时,它给出了错误,说明表已经存在。这些表中有我不想丢失
的
数据,执行完整
的
数据转储将
花费
太长
时间
,而且不需要。我只需要实时数据库
中
较新
的
列进入我
的
dev数据库,有没有办法将所有较新
的
列
批量</
浏览 1
提问于2018-03-07
得票数 2
1
回答
在MS SQL
中
从文本文件进行大容量
插入
、
、
、
、
我有一个文本文件,其中包含大约21个lac条目,我想将所有这些条目
插入
到
一个表
中
。最初,我在c#
中
创建了一个函数,逐行读取并
插入
到
表
中
,但它
花费
了太多
时间
。请建议一种有效
的
方法来
插入
这些
批量
数据,并且该文件包含TAB(4个空格)作为分隔符。 这个文本文件也包含一些重复
的
条目,我不想
插入
这些条目。
浏览 0
提问于2013-01-03
得票数 0
回答已采纳
1
回答
使用spring rest和data jpa
插入
100万条记录
的
最佳方式
、
、
、
、
当我们尝试使用spring
批量
插入
来
插入
100万条记录时,我们最终
花费
了超过1分钟
的
时间
,并且定制
的
pivotal cloud foundry向客户端返回502错误
的
网关响应,甚至在后台发生实际
的
数据
插入
你能告诉我处理
批量
数据
插入
的
最好
的
方法吗?
浏览 0
提问于2020-03-07
得票数 0
1
回答
从XML中提取并使用sqlalchemy瓶颈加载到Postgres
、
、
、
、
有什么线索导致瓶颈
的
原因吗?new_reading)我使用Python2.7.5,postgres 9.2.4,SQLAlchemy==0.9.6,psycopg2==2.5.3 第1-5行: 5.1
浏览 4
提问于2014-07-18
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何将MapReduce转化为Spark
亲测有效!学会这个技巧,摆脱重复性工作
听原作者为你深度解读InnoDB批量建索引原理
DeepMind推出分布式深度强化学习架构IMPALA,让一个Agent学会多种技能
基于jdbc批量操作的大量测试数据制造方法
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券