LOAD方式可以参考:mysql将csv格式的文件导入
mysqldump添加where条件的方法:
mysqldump -u用户名 -p密码 数据库名 pre_home_comment –where=” dateline > 1277495460″ > C://forum_comment_new_data.sql
参考资料:
http://imysql.com/2007_10_15_large_innodb_table_export_import
实践1:
对于超级大表(上千万行)的导入:
split -l 100 t_recvables_2016-10-15.sql
我这里采用分批导入
1、split -l 100 t_recvables_2016-10-15.txt
2、for f in `ls x*`;do db_mine –default-character-set=gbk db_finance < $f; wait; echo $f” done.”; done;
注意:这里遇到一个问题:
ERROR 1406 (22001) at line 1: Data too long for column ‘fail_reason’ at row 2
解决方法是–default-character-set=gbk,可是建表语句其实是utf8,具体原因没研究,不过换成gbk确实解决了问题
参考资料:
http://www.cnblogs.com/ovliverlin/archive/2007/11/26/972549.html
http://hunan.iteye.com/blog/752606