MYSQL Вставить огромные файлы SQL размером в ГБ

Я пытаюсь создать копию БД Википедии (около 50 ГБ), но у меня проблемы с самыми большими файлами SQL.

Я разделил файлы размером в ГБ с помощью утилиты разделения Linux на куски по 300 МБ. например

split -d -l 50 ../enwiki-20070908-page page.input.

В среднем 300 МБ файлов занимают 3 часа на моем сервере.У меня есть серверная ОС Ubuntu 12.04 и Mysql 5.5 Server.

Я пытаюсь как следует:

mysql -u username -ppassword database < category.sql

Примечание. Эти файлы состоят из операторов вставки и не являются файлами CSV.

Википедия предлагает дампы базы данных для скачивания, так что каждый может создать копию Википедии. Вы можете найти примеры файлов здесь:Wikipedia Dumps

Я думаю, что импорт идет медленно из-за настроек моего MySQL Server, но я не знаю, что мне следует изменить. Я использую стандартную конфигурацию Ubuntu MySQL на машине с приличным процессором и 2 ГБ оперативной памяти. Может ли кто-нибудь помочь мне с подходящей конфигурацией для моей системы?

Я попытался установить innodb_buffer_pool_size в 1 ГБ, но без тщетности.

Ответы на вопрос(2)

Ваш ответ на вопрос