首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

关于mysql导入大文本txt文件

前几天在偶然的情况下,获得了一个18G的txt文件,现在需要导入到数据库中,那么该怎么导入才能保证高效并且稳定呢?...mysql插入效率 首先应该知道的就是mysql的插入效率跟下面几个点有关 1:mysql数据库引擎,myisam,innodb,甚至是memory的插入效率都是不一样 2:索引,索引也会导致插入效率变慢...3:唯一索引冲突,在插入mysql数据库时,如果有相同数据,将会报错,降低插入效率 4:mysql硬盘,机械硬盘跟固态硬盘的插入效率也是不一样的 5:导入方法,单线程多线程等 6:mysql配置项,各种缓存区大小配置...` bigint(20) DEFAULT NULL,   PRIMARY KEY (`id`) ) ENGINE=MyISAM DEFAULT CHARSET=utf8; 2者都通过 Navicat txt...导入方式导入10万条数据: 可看到.在默认情况下innodb的插入时间为10.02秒,而myisam为5.93秒,所以默认情况下,innodb插入效率确实是比myisam慢的,那么有没有办法提高innodb

3.8K30
您找到你想要的搜索结果了吗?
是的
没有找到

Linux中将txt导入mysql的办法教程

前言 昨天写小项目的时候遇到了一个需求:把txt文档的数据导入mysql数据库中,开始本来想直接用Mysql Workbench导入TXT文件,但是最后发现不支持TXT导入,结果我吧嗒吧嗒的去把TXT...转了Excel,拿到Linux上导入的时候又发现了各种乱码问题。...抱着没有什么是程序员干不了的原则,我手写了一个Python代码直接操作文件进行导入了。结果大概一万多条的文件,导入时间大概两分钟。 下面是具体的代码: mysqlpython.py文件:?...自定义的连接mysql数据库的类 importtxt.py文件: 读TXT文件并进行插入操作 dict.txt文件: 要操作的TXT文件 mysqlpython.py文件 from pymysql import.../dict.txt') lines=f.readlines() for line in lines: insert(line) f.close() return '' if __name

2.1K20

Linux中将txt导入mysql的方法教程

前言 昨天写小项目的时候遇到了一个需求:把txt文档的数据导入mysql数据库中,开始本来想直接用Mysql Workbench导入TXT文件,但是最后发现不支持TXT导入,结果我吧嗒吧嗒的去把TXT...转了Excel,拿到Linux上导入的时候又发现了各种乱码问题。...抱着没有什么是程序员干不了的原则,我手写了一个Python代码直接操作文件进行导入了。结果大概一万多条的文件,导入时间大概两分钟。...下面是具体的代码: mysqlpython.py文件: 自定义的连接mysql数据库的类 importtxt.py文件: 读TXT文件并进行插入操作 dict.txt文件: 要操作的TXT文件 mysqlpython.py.../dict.txt') lines=f.readlines() for line in lines: insert(line) f.close() return '' if __name

2.1K41

MySQL LOAD DATA INFILE—从文件(csv、txt)批量导入数据

“/var/lib/my-files/”)具有管理员的权限(查看mysql路径,用“locate mysql”) 如果没有的话,可以指定本地路径(速度大概要慢%20),需要加上关键字"local"即:LOAD...,就跳过嘛 (5)@dummy ,通过占位符,跳过不需要的数据 导入到表的column顺序必须和文件保持一致,通过@dummy可以跳过不需要的column(示例跳过totoal_flow_size 和...") mysqlcur.execute("SET SESSION sql_log_bin = 1") “DISABLE KEYS” 然后 “ENABLE KEYS”,笔者实际测试没什么用,只是导入数据更快...区别在于:一个是插入一条,创建一个索引;一个是全部导入完了后,再一次创建所有索引。...引用:  如何导入5亿条数据到mysql — https://derwiki.tumblr.com/post/24490758395/loading-half-a-billion-rows-into-mysql

7.2K10

mysql 快速导入数据_MySQL导入数据

department,subject_n,teacher_name) values('",A1,"','",B1,"','",C1,"','",D1,"','",E1,"');") 参见:详情 2,通过直接导入...Excel到mysql表,如下图所示: 其实,也可以比上图更简单,第一步可以直接到最后一步,把最后一步中的文件名从dept.txt改为第一步中的dept…xls就行了 3、通过python解析excel...,然后python插入mysql #解析Excel import sys import os import MySQLdb import xlrd #解析Excel需要的库 #打开对应的Excel文件...#获取到数据就可以直接使用MySQLdb库调用插入语句进行数据插入操作了 4.pandas读取Excel文件,然后批量插入 在这里插入代码片 5.使用Navicat等工具,直接将excel导入数据库...参考文章: python执行mysql CUID操作 python解析excel 版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。

15.8K30

TiDB Lightning导入超大型txt文件实践

背景 TiDB 提供了很多种数据迁移的方式,但这些工具/方案普遍对MySQL比较友好,一旦涉及到异构数据迁移,就不得不另寻出路,借助各种开源或商业的数据同步工具。...txt文件导入。...大文件导入优化 Lightning 的最佳工作模式是处理大量的小文件,官网给出的建议值是单个数据文件不超过256M,经过实测发现,默认情况下 Lightning 对大文件的处理确实不够理想,风险包括:...1、Lightning 严格模式 如果要导入的文件能够保证真实数据不包含换行符(\r\n),那么可以开启 Lightning 的严格模式来自动拆分大文件,达到加速目的。...虽然全篇都在以txt文件作为演示,但csv文件也同样适用前面描述的几种处理方式。 最后,希望本文能帮助到正在受大文件导入折磨的小伙伴们~

1.3K10

Navicat怎样导入Excel表格和txt文本的数据

Navicat怎样导入txt文本数据 1. ...注意 txt文本的编码格式,默认为ANSI编码,而我们要修改成UTF-8编码,不然在导入数据后,会出现乱码现象 (1)    点击txt文本左上角的文件,然后选择“另存为”选项 (2)    此时在“保存...然后我们单击鼠标右键,点击“导入向导”选项 4. 接着选择要导入的文件的格式,这里我就选择了文本文件(*.txt)格式,然后点击“下一步”。 ? 5....如图,点击右边的浏览按钮来查找要导入txt文件,编码格式选择UTF-8。(之前txt文本默认编码格式为ANSI,所以我们才要修改txt文本的编码格式为UTF-8,保持编码一致) ? 6. ...选择好要导入txt文本之后,点击下一步 ? 7.

4.8K30
领券