我正在尝试通过Ubuntu中的命令行将一个大约300MB的sql文件导入到MySql中。我用过
source /var/www/myfile.sql;
现在,它显示了看似无限的行:
Query OK, 1 row affected (0.03 sec)
然而,它现在已经运行了一段时间。我以前没有导入过这么大的文件,所以我只想知道这是否正常,如果进程停止或有一些错误,这会在命令行中显示,或者这个过程会无限期地继续下去吗?
谢谢
发布于 2016-07-22 23:25:24
我用于大型sql恢复的解决方案是mysqldumpsplitter脚本。我将我的sql.gz拆分为多个单独的表。然后加载类似mysql工作台的东西,并将其作为对所需模式的恢复进行处理。
下面是脚本https://github.com/kedarvj/mysqldumpsplitter
这适用于更大的sql恢复,我使用的一个站点的平均大小是2.5 is的sql.gz文件,20 is的未压缩文件,完全恢复后约100 is
https://stackoverflow.com/questions/19483087
复制相似问题