大文件导入 MYSQL,如何最快速

如题所述

一般的数据备份用 :mysql路径+bin/mysqldump -u 用户名 -p 数据库名 > 导出的文件名 

数据还原是:到mysql命令行下面,用:source   文件名;的方法。

但是这种方法对大数据量的表进行操作就非常慢。因为他不仅导出了数据还导出了表结构。

在针对大数据量的表时,我们可以用infile和 outfile来操作。

outfile导出数据库数据的用法:


下图我们可以看到6百多万数据35秒就搞定了:

下面我们看看infile的语法:

在infile导入数据的时候,我们还可以做一些优化。我们可以用 

alter table table_name disable keys   关闭普通索引。等数据导入玩,再用:

alter table table_name enable keys    æ¥å¼€å¯æ™®é€šç´¢å¼•ã€‚这样就不会边导入数据,边整理索引的二叉树儿影响导数据的效率。

如果可以保证 数据的正确性,我们可以将表的唯一索引也关闭,之后再开启,不是每条数据就算是唯一的他都要去检测一遍。命令:

set unique_checks=0; #关闭唯一校验

set unique_checks=1;#开启唯一校验

如果是InnoDB存储引擎,我们还可以set auto commit=0;关闭自动提交,来提高效率。InnoDB是按主键的顺序保存的,我们将其主键顺序排列也可以提高效率。

下面我们对myisam引擎的表做个测试,我们先不关索引,导入数据(用了近4分钟):


然后我们先把索引关闭试试(只用了一分钟多一点,快了不少啊!摸摸大!):

温馨提示:答案为网友推荐,仅供参考

相关了解……

你可能感兴趣的内容

本站内容来自于网友发表,不代表本站立场,仅表示其个人看法,不对其真实性、正确性、有效性作任何的担保
相关事宜请发邮件给我们
© 非常风气网