Rendimiento de inserción masiva en MongoDB para grandes colecciones

Estoy usando BulkWriteOperation (controlador java) para almacenar datos en grandes fragmentos. Al principio parece estar funcionando bien, pero cuando la colección crece en tamaño, los insertos pueden tomar bastante tiempo.

Actualmente, para una colección de 20 millones de documentos, la inserción masiva de 1000 documentos puede llevar unos 10 segundos.

¿Hay alguna manera de hacer insertos independientes del tamaño de la colección? No tengo actualizaciones ni actualizaciones, siempre estoy insertando datos nuevos.

A juzgar por el registro, no parece haber ningún problema con las cerraduras. Cada documento tiene un campo de tiempo que está indexado, pero está creciendo linealmente, por lo que no veo ninguna necesidad de que mongo se tome el tiempo para reorganizar los índices.

Me encantaría escuchar algunas ideas para mejorar el rendimiento.

Gracias

Respuestas a la pregunta(3)

Su respuesta a la pregunta