MYSQL Вставить огромные файлы SQL размером в ГБ
Я пытаюсь создать копию БД Википедии (около 50 ГБ), но у меня проблемы с самыми большими файлами SQL.
Я разделил файлы размером в ГБ с помощью утилиты разделения Linux на куски по 300 МБ. например
split -d -l 50 ../enwiki-20070908-page page.input.
В среднем 300 МБ файлов занимают 3 часа на моем сервере.У меня есть серверная ОС Ubuntu 12.04 и Mysql 5.5 Server.
Я пытаюсь как следует:
mysql -u username -ppassword database < category.sql
Примечание. Эти файлы состоят из операторов вставки и не являются файлами CSV.
Википедия предлагает дампы базы данных для скачивания, так что каждый может создать копию Википедии. Вы можете найти примеры файлов здесь:Wikipedia Dumps
Я думаю, что импорт идет медленно из-за настроек моего MySQL Server, но я не знаю, что мне следует изменить. Я использую стандартную конфигурацию Ubuntu MySQL на машине с приличным процессором и 2 ГБ оперативной памяти. Может ли кто-нибудь помочь мне с подходящей конфигурацией для моей системы?
Я попытался установить innodb_buffer_pool_size в 1 ГБ, но без тщетности.