MySQL大数据量的导入

第一:其实最好的方法是直接用:

MySQLdump -u用户名 -p密码 数据库名 < 数据库名.sql

在Linux系统操作的,测试过一个一万多行的导入数据,共121m。在Linux下,几秒内导入成功。如果是在phpmyadmin,或者在各个终端中实施导入121M的数据,是比较困难的,你会遇到各个问题,浏览器卡顿,索引临时文件太大,以及php本身配置对sql语句的限制等等。我推荐用以上这个方法来导入。

如果是表名的话,那么就是:

mysqldump -uroot -p密码 数据库名 表名 < biao.sql

第二:用phpmyadmin

修改php的环境配置,将其增大。

1)首先我们要找到php的配置文件php.ini文件,然后按下Ctrl+F,搜索post_max_size,如果使用自己配置的php,默认的值应该是8M,很多集成环境对这个参数也没有改,如果你要导入的文件小于8M,可以不用修改此参数.如果大于8M,则修改为你需要的值.

2)配置完post_max_size,我们要搜索upload_max_filesize,如果你是使用自己搭配的环境,此值默认为2M,如果你使用的是集成环境,可能会是8M,然后更改为你想要导入的大小即可(导入的文件上限是post_max_size和upload_max_filesize中最小的那个值)

这样就可以了。但是效果还是比第一种方法差挺多。推荐第一种。

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/aafa8dff5553dd74325c402ad318a4b8.html