腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如
何在
php
中
提高
csv
数据
在
数据库
中
的
插入
速度
?
、
、
、
我写
的
这段代码允许读取一个文件夹,根据文件名
插入
到不同表
中
的
csv
文件
的
数据
。一旦文件被处理,它就会被移动到另一个文件夹。我
的
代码运行良好,但是第二个
csv
文件超过8万行,并且需要几个小时才能集成到我
的
数据库
中
。 如何
提高
代码
的
性能?我尝试了“本地加载
数据
”,但没有成功... <?
php
include
浏览 21
提问于2020-07-23
得票数 0
回答已采纳
1
回答
使用Python将大型
数据
加载到SQL Server [BCP]
中
、
在
使用正则表达式扫描非常大
的
每日事件日志之后,我必须将它们加载到SQL Server
数据库
中
。不允许创建临时
CSV
文件,然后使用命令行BCP将其加载到SQL Server
数据库
中
。使用Python,是否可以使用BCP流将
数据
加载到SQL Server
数据库
中
?我想使用BCP
的
原因是为了
提高
插入
SQL Server
数据库
的
浏览 0
提问于2014-09-09
得票数 1
1
回答
导入后优化MySQL表
、
、
我有一个应用程序,需要每天晚上将
数据
导入到MySQL表
中
。大约有5个表被截断,
PHP
脚本处理
CSV
文件并逐个
插入
数据
。这些表每个可容纳大约20,000行。任何其他
提高
性能
的
技巧也将不胜感激。 谢谢
浏览 0
提问于2014-10-16
得票数 0
2
回答
在
mysql
中
快速
插入
大记录?
、
、
、
我有一个
csv
文件,有多条1000( 100,000 )条记录。当我使用这些文件将记录
插入
到我
的
数据库
中
时,将需要半小时以上
的
时间。有没有其他方法来
提高
这些过程
的
效率和
速度
,或者是否有可用
的
框架?
浏览 0
提问于2015-10-30
得票数 0
1
回答
更快地更新
数据库
?
、
、
我们正在尝试将我们
的
数据库
(mysql)移动到amazon redshift (
数据
仓库),并且我们
在
更新仓库
数据库
时遇到了一个问题。我们已经
在
db上启用了常规日志记录,然后我们
在
redshift上重放了常规日志
中
的
所有这些查询。所有的更新查询大约需要6-7秒。我正在寻找一些方法,以更快
的
速度
执行这些更新?不过,更快进行更新
的
一般方法也会有所帮助。我尝试过
的
一种解
浏览 0
提问于2013-05-02
得票数 0
1
回答
如何使用python
提高
sql
数据库
的
写入
速度
、
、
、
、
我正试图找到一种更好
的
方法,使用python将
数据
推送到sql。我已经尝试过dataframe.to_sql()方法和cursor.fast_executemany(),但是它们似乎并没有
提高
我现在正在使用
的
数据
(
数据
在
csv
文件
中
)
的
速度
。有人建议我可以使用--元组、和生成器--以比熊猫更快
的
速度
加载
数据
。 通常
csv
文件<e
浏览 2
提问于2019-04-25
得票数 1
1
回答
自动完成JQuery UI,
在
DOM中加载所有
数据
,而不是从mysql获取
、
、
、
、
variety').focus();}).focus(function() {});$category = $_REQUEST["category"]; $sql = "SELECT distinct(cat
浏览 3
提问于2014-06-11
得票数 1
回答已采纳
3
回答
在
大访问量时加载iframe内容时延迟和
速度
慢
、
、
在
一个系统上工作,它将存储更多
的
4 million记录per day。该系统是用
PHP
编写
的
ppc系统,通过iframe显示多个站点
的
横幅和各自
的
服务器。每当这个横幅加载到任何网站,我都会在文件
中
存储它
的
信息
的
一条记录(之前是
插入
到<
浏览 40
提问于2015-08-09
得票数 17
回答已采纳
2
回答
AWS
提高
iops
、
、
、
我以前从未使用过亚马逊网络服务,并且
在
EC2实例上创建了一个
php
应用程序。我该如何
提高
这个过程
的
速度
呢?然而,当我运行我
的
应用程序时,我得到了和以前一样
的
速度
。 Ec2实例和RDS实例上
的
什么规格将决定它写入
浏览 36
提问于2017-04-19
得票数 0
2
回答
向远程mongodb
数据库
写入
数据
、
、
、
我正在逐行读取
CSV
文件,并将
数据
插入
mongodb
数据库
。大约需要2分钟。当db和文件
在
同一台机器上时,从所有文件
中
读取、处理和写入
数据
到mongodb。而当
数据库
位于我
的
网络
中
的
另一台机器上时,大约需要5分钟。
在
远程机器上花费更多
的
时间。有谁能帮我缩短时间吗?谢谢。
浏览 11
提问于2016-08-30
得票数 1
2
回答
数据库
索引
的
适当使用?
、
、
我
在
应用程序中使用SQL
数据库
。我想
提高
在
我
的
应用程序
中
运行搜索查询
的
速度
。所以,自然
的
,我做了一些关于
数据库
索引
的
研究。关于
数据库
索引,有很多有用
的
文章,但是这些帖子让我陷入了困境。原因如下: 如果在表
中
执行大量搜索查询,通常在表
中
引入
数据库
索引是很好
的
做法。如果在表
中
执行
浏览 1
提问于2021-03-23
得票数 0
回答已采纳
1
回答
Wordpress --使用
数据库
更新自定义帖子
、
、
、
我有一个Wordpress站点,它使用自定义
的
post类型,称为CPT-1,我使用JetEngine创建了它。CPT-1
的
内部是元字段.一旦建立,我做了大量
的
数据
插入
使用终极
CSV
导入程序,它把这些信息到CPT-1,我可以把每一列
数据
到我想要使用
的
元字段。这些字段随后将在表中使用。是否有办法绕过
CSV
导入程序
的
一部分,并从
数据库
中提取?从长远来看,我想在使用CPT-1
的
时候对某些帖
浏览 7
提问于2021-09-05
得票数 0
回答已采纳
1
回答
在
Azure上
的
postgres
的
pg8000上执行任何命令都非常慢
、
、
、
、
我正在使用pg8000从
csv
文件更新我
在
Azure上
的
postgres
数据库
中
的
数据
,但执行
速度
非常慢。这是我
的
代码 command = "INSERT INTO public.tempcumulativesales (combined, cumulative_sales) VALUES (%s, %s)/UpdateDatabaseFiles/rows1.
csv
',
浏览 0
提问于2021-06-25
得票数 0
1
回答
更新或
插入
包含6000万个条目的mysql
数据库
、
、
我有一个mysql
数据库
,它有一个大约有6000万个条目的表,主键是'x‘。我有一个
数据
集(
csv
文件),它也有大约6000万个条目。此
数据
集还具有索引'x‘。对于mysql表和dataset共有的键'x‘
的
值,mysql表
中
的
相应条目只会随着计数器变量
的
递增而更新。
数据
集中
的
新
数据
将被
插入
。一个简单
的
串行执行,我们尝试更新条目(如果
浏览 1
提问于2017-05-01
得票数 0
2
回答
使用jdbc
的
Postgresql 11行
插入
性能较低
、
、
我正在尝试使用标准
的
java准备语句来
提高
postgresql11db
中
插入
行
的
性能。
在
虚拟机环境
中
,它站在debian 11之上。我使用
的
是pentaho
数据
集成和一个简单
的
表格输出步骤。我想让我
的
转换
数据库
成为事务性
的
,所以使用批量更新不是一个好
的
选择。我创建了不带索引和约束
的
表,并将其设为unlogged。它们有几列。我目
浏览 28
提问于2021-05-28
得票数 0
1
回答
w3total缓存:磁盘、Opcache或memcache
、
我有一个wordpress网站,每天有大约200.000页
的
浏览量。我
在
一个6GB内存
的
VPS上运行这个程序。我现在已经安装了w3total缓存,但是页面的加载
速度
仍然很慢。我现在想知道
的
是,我应该为我
的
站点磁盘、Opcache或memcache使用什么缓存,以及应该在alla上使用哪个缓存,或者如何设置它?目前,我只使用基本磁盘缓存。我
的
问题基本上是,我应该改变什么,如果是什么?还是应该坚持使用基本
的
磁盘缓存呢? 我还没有尝试改变任何事情,所以我不会
浏览 1
提问于2014-09-19
得票数 5
回答已采纳
1
回答
迁移到kubernetes
、
我们计划将我们
的
软件迁移到kubernetes
中
运行,并自动运行,这是我们目前
的
基础设施: MySql
在
中
运行
数据
文件(
csv
,pdf)和代码存储
在
一个SSD持久磁盘
中
。我发现许多帖子建议将
数据
文件存储
在
中
,并使用API获取文件并上传到桶<em
浏览 2
提问于2018-06-05
得票数 0
回答已采纳
2
回答
通过.net c#将3000多个.
CSV
文件
数据
从一个位置读取到Sql表
的
最快方法是什么?
通过.net c#将3000多个.
CSV
fil
数据
从一个位置读取到SQL表
的
最快方法是什么如果有人知道这件事,请帮助我。
浏览 3
提问于2016-04-13
得票数 1
1
回答
缓慢批量
插入
Azure
数据库
、
、
、
我们
在
Azure
中
运行一个弹性池,运行多个
数据库
,当运行一个较大
的
导入时,这似乎比我们习惯
的
时间要长。在这些导入过程
中
,我们运行了6个核作为测试。所有
数据库
都允许使用所有核心。
在
我们
的
本地环境
中
,它每秒
插入
大约100 k记录,但是Azure上相同
的
数据
集每秒执行大约1k /秒(我们
的
vm)到4k /秒(开发笔记本电脑)。在此<
浏览 5
提问于2021-10-26
得票数 0
1
回答
通过Python加快AWS PostgreSQL
插入
速度
、
、
、
我无法像在我
的
AWS RDS postgresql DB
中
那样将它们
中
的
每一个
插入
,这将是120,000^2 = 14,400,000,000条记录。每个
csv
大约是2MB。我
的
方法是: Python脚本,该脚本
在
pandas库
的
帮助下,将12万条记录转换为每个
csv
的
一个记录(字典列表)(现在在压缩
数据
后为5MB)。然后,python脚本通过pandas.to_sql将每个<em
浏览 0
提问于2020-04-04
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
云直播
活动推荐
运营活动
广告
关闭
领券