我有一个包含c.1850行和两列的MySQL表-- ID
(整型-不自动递增)和data
(mediumblob)。该表为c.400MiB,其中许多单个条目超过1MiB,有些条目大小为4MiB。我必须将其上传到典型的Linux共享主机安装。
到目前为止,我遇到了各种大小限制。Bigdump毫不费力地导入了数据库的其余部分,它无法处理这个表-无论我使用过哪种方法(使用SQL或CSV进行各种尝试),它都不能在不同的位置停止。使用phpMyAdmin的直接导入也失败。
我现在承认,如果导入要成功,我必须以某种方式拆分表的内容。但是,由于(例如)最后一个CSV在GVIM中显示了160万行(当表中只有1850行时),我甚至不知道从哪里开始。
最好的方法是什么?在导出时必须使用哪些设置才能使该方法工作?
发布于 2011-04-23 20:48:06
mysqldump -u username -p -v database > db.sql
将SQL文件上传到您的FTP。
使用您选择的语言创建脚本(例如: PHP),该脚本将调用system/exec命令将SQL文件加载到MySQL数据库中。
nohup mysql -u username -p newdatabase < db.sql &
最初可能需要运行which mysqldump
和which mysql
来获取可执行文件的绝对路径。
https://stackoverflow.com/questions/5765940
复制