前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >mysqlimport导入报错的排查(r10笔记第58天)

mysqlimport导入报错的排查(r10笔记第58天)

作者头像
jeanron100
发布2018-03-20 10:18:19
9360
发布2018-03-20 10:18:19
举报

今天有个同事问我一个mysqlimport导入的问题,看起来还是蛮奇怪的。同事在客户端导入一个文件。文件大小是2.8G,然后报错mysqlimport: Error: 2013, Lost connection to MySQL server during query 对于这个问题我的第一感觉是一台云服务器,是不是没有配置swap造成的原因,因为在之前的一次迁移中,被这类问题折磨坏了,遭遇了OOM-Killer的问题,最后发现是swap没有配置导致的。 但是同事经过确认,这是一台实体机,而且查看硬件情况,配置还不错。buffer_pool_size有50多G,swap也配置了。看来这个问题的原因初步排除了。 对于这个问题,网络上也有很多种说法。有的说是max_allowed_packets导致。查看当前的配置是1G,看起来是比导入文件小了。 不过从Oracle中的经验来看,似乎这个说法也不是完全靠得住的,如果我导入一个100G的dump,那这个参数还要配置超过100G,好像听起来也不大合理啊。而且也没见过有环境配置一个极高的值。 为此我做了几个简单的测试。 首先找了一个测试环境,max_allowed_packets为30多M. # mysqladmin var|grep max_all | max_allowed_packet | 33554432 | slave_max_allowed_packet | 1073741824 锁定了一个小表. ]> select count(*)from t_fund_info; +----------+ | count(*) | +----------+ | 1998067 | 通过查看文件大小,大概是400多M. -rw-rw---- 1 mysql mysql 482344960 Oct 13 16:01 t_fund_info.ibd 这样就可以轻松模拟测试max_allowed_packets的场景了。 首先导出文件。 > select * from t_fund_info into outfile '/tmp/t_fund_info.txt'; Query OK, 1998067 rows affected (6.82 sec) 导出的文本文件有近300M ll t_fund_info.txt -rw-rw-rw- 1 mysql mysql 291963062 Oct 20 22:25 t_fund_info.txt 然后使用最简单的命令来导入: mysqlimport test '/tmp/t_fund_info.txt' 短暂的等待之后,成功导入。 可以看到慢日志的输出如下: # Time: 161020 22:31:49 # User@Host: root[root] @ localhost [] # Thread_id: 4321910 Schema: test Last_errno: 0 Killed: 0 # Query_time: 92.866443 Lock_time: 0.000074 Rows_sent: 0 Rows_examined: 0 Rows_affected: 1998067 Rows_read: 0 # Bytes_sent: 68 SET timestamp=1476973909; LOAD DATA INFILE '/tmp/t_fund_info.txt' INTO TABLE `t_fund_info` IGNORE 0 LINES; 原来mysqlimport会转换为load data 的形式。 然后delete,truncate,drop重建,都可以成功导入。 是哪里测试的不到位吗,我开始审视这个问题,我们可以在测试环境中模拟这个问题,以当时出问题的数据为准。然后查看同事提供的日志和截图,发现当时使用的命令是 mysqlimport test '/tmp/t_charextra.txt' --local --delete --default-character=gbk 这个表的字符集经过确认是latin,所以就在怀疑是不是因为字符集转换造成的。 ENGINE=InnoDB DEFAULT CHARSET=latin1 但是短暂的等待之后,还是可以成功导入。 # mysqlimport test '/tmp/t_charextra.txt' --local --delete --default-character=gbk test.t_charextra: Records: 480174 Deleted: 0 Skipped: 0 Warnings: 0 在表t_charextra存在大量数据的前提下,我们继续尝试上面的方法导入。 整个导入就会分为两部分, SET timestamp=1476975647; DELETE FROM t_charextra SET timestamp=1476975748; LOAD DATA LOCAL INFILE '/tmp/t_charextra.txt' INTO TABLE `t_charextra` IGNORE 0 LINES; 还是能够成功导入 # mysqlimport test '/tmp/t_charextra.txt' --local --delete --default-character=gbk test.t_charextra: Records: 480174 Deleted: 0 Skipped: 0 Warnings: 0 是哪里测试的不到位吗,现在唯一能够想到的就是两点,一是通过客户端调用,而是客户端和服务端的网络延迟较大。 配置了客户端用户,把导出的文本拷贝到客户端来复现问题。 > grant select,insert,delete on test.* to testdb@10.127.133.86 identified by 'mysqlnew'; Query OK, 0 rows affected (0.02 sec) 然后使用下面的命令来尝试客户端导入。 # mysqlimport -h 10.127.xxxx -utestdb -pmysqlnew test '/U01/t_charextra.txt' --local --delete --default-character=gbk Warning: Using unique option prefix default-character instead of default-character-set is deprecated and will be removed in a future release. Please use the full name instead. test.t_charextra: Records: 480174 Deleted: 0 Skipped: 0 Warnings: 0 从日志看除了抛出一个警告外,一切都很正常,所以现在的重点就落在了网络上,这一点还是需要进一步确认,不过目前来看已经排除了不少原因,想必原因也快揭晓了。问题背后的原因也会在确认之后进行更多的论证和分析,敬请期待。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2016-10-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 杨建荣的学习笔记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
云数据库 MySQL
腾讯云数据库 MySQL(TencentDB for MySQL)为用户提供安全可靠,性能卓越、易于维护的企业级云数据库服务。其具备6大企业级特性,包括企业级定制内核、企业级高可用、企业级高可靠、企业级安全、企业级扩展以及企业级智能运维。通过使用腾讯云数据库 MySQL,可实现分钟级别的数据库部署、弹性扩展以及全自动化的运维管理,不仅经济实惠,而且稳定可靠,易于运维。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档