首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Mysql使用存储过程快速添加百万数据

为了体现不加索引和添加索引的区别,需要使用百万级的数据,但是百万数据的表,如果使用一条条添加,特别繁琐又麻烦,这里使用存储过程快速添加数据,用时大概4个小时。...bin DEFAULT NULL COMMENT '用户名', `password` varchar(64) COLLATE utf8_bin DEFAULT NULL COMMENT '密码 MD5存储...COMMENT '用户类型 1,2,3,4 随机', PRIMARY KEY (`id`), KEY `idx_username` (`username`) USING BTREE ) 然后创建存储过程...,批量添加数据。...call salesAdd() 改进版 虽然使用存储过程添加数据相对一个个添加更加便捷,快速,但是添加几百万数据要花几个小时时间也是很久的,后面在网上找到不少资料,发现mysql每次执行一条语句都默认自动提交

3.5K20

Mysql使用存储过程快速添加百万数据

前言 为了体现不加索引和添加索引的区别,需要使用百万级的数据,但是百万数据的表,如果使用一条条添加,特别繁琐又麻烦,这里使用存储过程快速添加数据,用时大概4个小时。...,批量添加数据。...set i = i + 1; end while; end // DELIMITER ; 这里需要注意的是DELIMITER//和DELIMITER;两句, DELIMITER是分割符的意思,因为MySQL...默认以";"为分隔符,如果我们没有声明分割符,那么编译器会把存储过程当成SQL语句进行处理,则存储过程的编译过程会报错,所以要事先用DELIMITER关键字申明当前段分隔符,这样MySQL才会将";"当做存储过程中的代码...然后调用存储过程 call salesAdd() 改进版 虽然使用存储过程添加数据相对一个个添加更加便捷,快速,但是添加几百万数据要花几个小时时间也是很久的,后面在网上找到不少资料,发现mysql每次执行一条语句都默认自动提交

1.8K20
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Mysql 百万级数据迁移实战笔记

    试验发现,通过mysqldump导出百万级量的数据库成一个sql文件,大概耗时几分钟,导出的sql文件大小在1G左右,然后再把这个1G的sql文件通过scp命令复制到另一台服务器,大概也需要耗时几分钟。...select data into outfile file.txt、load data infile file.txt into table 的命令,以导入导出文件的形式完成了百万级数据的迁移。...province,city,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy); 按照这么几个步骤操作,几分钟内就完成了一个百万级数据表的跨服务器迁移工作...注意项 mysql安全项设置 在mysql执行load data infile和into outfile命令都需要在mysql开启了secure_file_priv选项, 可以通过show global...数据量较大,且希望能在短时间内完成数据迁移时,可以通过mysql导入导出文件的方式来迁移,这种方式效率较高。

    80220

    Mysql百万级数据迁移实战笔记

    这个小程序一开始的后端逻辑是用douchat框架写的,使用框架自带的dc_mp_fans表存储微信端授权登录的用户信息,使用dc_mp_tempmsg表存储formid。...试验发现,通过mysqldump导出百万级量的数据库成一个sql文件,大概耗时几分钟,导出的sql文件大小在1G左右,然后再把这个1G的sql文件通过scp命令复制到另一台服务器,大概也需要耗时几分钟。...infile file.txt into table的命令,以导入导出文件的形式完成了百万级数据的迁移。...注意项 MySQL安全项设置 在mysql执行load data infile和into outfile命令都需要在mysql开启了secure_file_priv选项, 可以通过show global...数据量较大,且希望能在短时间内完成数据迁移时,可以通过mysql导入导出文件的方式来迁移,这种方式效率较高。

    51120

    Mysql百万级数据迁移实战笔记

    这个小程序一开始的后端逻辑是用douchat框架写的,使用框架自带的dc_mp_fans表存储微信端授权登录的用户信息,使用dc_mp_tempmsg表存储formid。...试验发现,通过mysqldump导出百万级量的数据库成一个sql文件,大概耗时几分钟,导出的sql文件大小在1G左右,然后再把这个1G的sql文件通过scp命令复制到另一台服务器,大概也需要耗时几分钟。...infile file.txt into table的命令,以导入导出文件的形式完成了百万级数据的迁移。...,province,city,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy);按照这么几个步骤操作,几分钟内就完成了一个百万级数据表的跨服务器迁移工作...复制数据文件到目标服务器 在目标数据库导入文件 注意项 MySQL安全项设置 在mysql执行load data infile和into outfile命令都需要在mysql开启了secure_file_priv

    87310

    MySQL百万级数据高效导入Redis

    以下文章来源于侠梦的开发笔记 ,作者侠梦 前言 随着系统的运行,数据量变得越来越大,单纯的将数据存储在MySQL中,已然不能满足查询要求了,此时我们引入Redis作为查询的缓存层,将业务中的热数据保存到...$ \r\n 数据> \r\n 比如:插入一条hash类型的数据。...从MySQL导入百万级数据到Redis 首先造数据 由于环境限制,所以这里没有用真实数据来实现导入,那么我们就先使用一个存储过程来造一百万条数据吧。...总结 本篇文章主要探讨了,MySQL百万级数据量级下,如何高效的迁移到Redis中去,逐步实现目标的过程中,总结了如下几点: 1、Redis单线程执行命令,避免了线程切换所消耗的时间,但是在超大数据量级下...2、网络nc命令的应用场景,及在数据导入时存在的缺点。 3、Redis RESP协议的理解和应用。 4、百万量级MySQL数据的Redis快速导入案例。

    1.8K20

    MySQL 百万级数据分页查询优化

    可是数据量到了10万,百万至千万,他的性能还能那么高吗?一点小小的失误,可能造成整个系统的改写,甚至更本系统无法正常运行!好了,不那么多废话了。...现在往里面填充数据,填充10万篇新闻。最后collect 为 10万条记录,数据库表占用硬1.6G。...10万条记录到 t(id,title,vtype) 里,数据表大小20M左右。...可是我们高估了mysql 的智能,他不是商务数据库,事实证明定长和非定长对limit影响不大?怪不得有人说discuz到了100万条记录就会很慢,我相信这是真的,这个和数据库设计有关!...可以快速返回id就有希望优化limit , 按这样的逻辑,百万级的limit 应该在0.0x秒就可以分完。看来mysql 语句的优化和索引时非常重要的!

    2K20

    mysql 百万数据测试迁移对比

    第一种迁移方案 mysqldump迁移 mysqldump导出数据库成一个sql文件(快) scp命令复制到另一台服务器(快) source命令导入数据,cpu跑满(比较耗时) 脚本迁移 命令行操作数据库进行数据的导出和导入...,远程连接redis,并行读取redis队列里面的数据,并把读取到的数据写入到目标数据库。...第一种迁移方案效率太低,第二种迁移方案编码代价较高 文件迁移 通过mysql的select data into outfile file.txt、 load data infile file.txt into...table的命令,以导入导出文件的形式迁移 需要在mysql开启了secure_file_priv选项(可以通过show global variables like '%secure%';查看mysql...通过修改mysql配置项([mysqld]),将secure_file_priv= ) 详细配置 [mysqld] secure_file_priv= 具体操作 select * from software

    66110

    Mysql 百万级数据迁移实战笔记

    试验发现,通过mysqldump导出百万级量的数据库成一个sql文件,大概耗时几分钟,导出的sql文件大小在1G左右,然后再把这个1G的sql文件通过scp命令复制到另一台服务器,大概也需要耗时几分钟。...select data into outfile file.txt、load data infile file.txt into table 的命令,以导入导出文件的形式完成了百万级数据的迁移。...province,city,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy); 按照这么几个步骤操作,几分钟内就完成了一个百万级数据表的跨服务器迁移工作...注意项 mysql安全项设置 在mysql执行load data infile和into outfile命令都需要在mysql开启了secure_file_priv选项, 可以通过show global...数据量较大,且希望能在短时间内完成数据迁移时,可以通过mysql导入导出文件的方式来迁移,这种方式效率较高。

    1.1K40

    MySQL百万数据深度分页优化思路分析

    这种统计数据随着时间的推移数据量会慢慢的变大,达到百万、千万条数据只是时间问题。 二、瓶颈再现 创建了一张user表,给create_time字段添加了索引。并在该表中添加了100w条数据。...我们这里使用limit分页的方式查询下前5条数据和后5条数据在查询时间上有什么区别。 查询前10条基本上不消耗什么时间 我们从第50w+开始取数据的时候,查询耗时1秒。...IO 回表操作通常是IO操作,因为需要根据索引查找到数据行后,再根据数据行的主键或唯一索引去聚簇索引中查找具体的数据行。...聚簇索引一般是存储在磁盘上的数据文件,因此在执行回表操作时需要从磁盘读取数据,而磁盘IO是相对较慢的操作。 LIMTI 2000,10 ?...五、解决方案 既然覆盖索引可以防止数据回表,那么我们可以先查出来主键id(主键索引),然后将查出来的数据作为临时表然后 JOIN 原表就可以了,这样只需要对查询出来的5条结果进行数据回表,大幅减少了IO

    51710

    一百万数据索引实例測试–mysql

    描写叙述考虑的过程 user表例如以下: 初始化100W条数据,当中。...这样并不能将mysql索引的效率最大化。使用“索引合并策略” 4.选择合理的索引列顺序:索引列的顺序意味着索引首先依照最左列进行排序。然后是第二列,以此类推。...也就是会所依照这个条件搜索到的数据最少,选择性就越高。比方选择性:last_login> area> sex。 6.索引不是越多越好。适合的索引能够提高查询效率。可是会减少写入效率。...第二条数据这是怎么了,我測试了5次都在这附近晃悠哈! 这尼玛。找对索引啦。就该这么建立,查询不出来须要的时间啦!预计就是我们须要的索引啦! ! !!...推荐书籍:高性能mysql(第三版) PDF版本号的:http://pan.baidu.com/s/1sjJIyRV 发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn

    93720

    快速构建Mysql百万级测试数据

    说明 本文描述问题及解决方法同样适用于 腾讯云 云数据库 MySQL(TencentDB for MySQL,CDB)。...背景 在进行查询等操作的验证时,我们经常需要在线下环境构建大量的基础数据供我们测试,模拟线上的真实环境。 构建数据 这里我们快速构建一份测试数据,用来模拟实际生产中量级在100万的一张数据表。...创建内存表 利用 MySQL 内存表插入速度快的特点,我们先利用函数和存储过程在内存表中生成数据,然后再从内存表插入普通表中。...创建存储过程 创建插入数据的存储过程 MySQL [dts_demo]> CREATE DEFINER=`root`@`%` PROCEDURE `add_user_memory`(IN n int)...调用存储过程 调用存储过程将测试数据写入内存表 MySQL [dts_demo]> CALL add_user_memory(1000000); Query OK, 1 row affected (1

    2.9K2317

    mysql数据更改存储路径

    在初次安装mysql 的时候将数据库目录安装在了系统盘。(第一个磁盘)使用了一段时间之后数据库存储量变大,快将20GB的存放空间占满了。因此必须将存放数据空间换地方了。下面是简单的操作。...检查mysql数据库存放目录 mysql -u root -prootadmin #进入数据库 show variables like '%dir%'; #查看sql存储路径 (查看datadir...那一行所指的路径) quit; 停止mysql服务 service mysql stop 创建新的数据库存放目录 mkdir /data/mysql 移动/复制之前存放数据库目录文件,到新的数据库存放目录位置...cp -R /usr/local/mysql/data/* /data/mysql/ #或mv /usr/local/mysql/data/* /data/mysql 修改mysql数据库目录权限以及配置文件.../mysql datadir=/data/mysql 启动数据库服务 service mysqld start 说明:根据以上的简单6步操作,已经成功的数据库目录更换路径了。

    5.8K51

    mysql 快速生成百万条测试数据

    1、生成思路 利用mysql内存表插入速度快的特点,先利用函数和存储过程在内存表中生成数据,然后再从内存表插入普通表中 2、创建内存表及普通表 CREATE TABLE `vote_record_memory...index_user_id` (`user_id`) USING HASH ) ENGINE = INNODB AUTO_INCREMENT = 1 DEFAULT CHARSET = utf8 3、创建函数及存储过程...20),FLOOR(RAND() * 1000),FLOOR(RAND() * 100) ,now() );             set i=i+1;     END WHILE; END 4、调用存储过程...根据电脑性能不能所花时间不一样,大概时间在小时级别,如果报错内存满了,只在修改max_heap_table_size 个参数即可,win7修改位置如下,linux,修改my.cnf文件,修改后要重启mysql...,重启后内存表数据会丢失 ?

    3.4K120

    分享 | MySQL百万级数据分页查询及优化

    可是数据量到了10万,百万至千万,他的性能还能那么高吗?一点小小的失误,可能造成整个系统的改写,甚至更本系统无法正常运行!好了,不那么多废话了。...现在往里面填充数据,填充10万篇新闻。最后collect 为 10万条记录,数据库表占用硬1.6G。...10万条记录到 t(id,title,vtype) 里,数据表大小20M左右。...可是我们高估了mysql 的智能,他不是商务数据库,事实证明定长和非定长对limit影响不大?怪不得有人说discuz到了100万条记录就会很慢,我相信这是真的,这个和数据库设计有关!...可以快速返回id就有希望优化limit , 按这样的逻辑,百万级的limit 应该在0.0x秒就可以分完。看来mysql 语句的优化和索引时非常重要的!

    2.3K42

    mysql生成百万级数量测试数据

    今天因为项目需要,想测试一下读取百万级数量数据的速度如何,无奈数据库没有现成符合要求的数据,网上百度一番有很都不错的文章,但是需要涉及到一些存储过程和用php代码什么的,虽说可以实现,但是感觉另外再弄这些比较麻烦...,没有通用性,于是在几篇文章的参考下,.自己写了一段代码,直接生成的数据还是比较方便的,并且不是重复的数据.网上很多都是重复的,我只是做了一点小的修改,测试数据库是mysql 5.5,存储形式是MyISAM...数据表设计完成之后需要插入一条数据,比方说随便插入个(1,1,1),这里就不再多提.   ...mysql中迅速插入百万条测试数据的方法 - MokeyChan - 博客园   http://www.cnblogs.com/endtel/p/5404065.html   mysql 快速生成百万条测试数据...- 小哈-whzhaochao - CSDN博客   http://blog.csdn.net/whzhaochao/article/details/49126037   用一条SQL快速生成10万条测试数据

    3.1K30
    领券