A granel inserte datos enormes en SQLite utilizando Python

Leo esto:Importar un archivo CSV en una tabla de base de datos sqlite3 usando Python

y parece que todo el mundo sugiere el uso de la lectura línea por línea en lugar de usar la importación masiva desde SQLite. Sin embargo, eso hará que la inserción sea realmente lenta si tiene millones de filas de datos. ¿Hay alguna otra manera de eludir esto?

Actualización: Intenté el siguiente código para insertar línea por línea, pero la velocidad no es tan buena como esperaba. ¿Hay alguna forma de mejorarlo?

for logFileName in allLogFilesName:
    logFile = codecs.open(logFileName, 'rb', encoding='utf-8')
    for logLine in logFile:
        logLineAsList = logLine.split('\t')
        output.execute('''INSERT INTO log VALUES(?, ?, ?, ?)''', logLineAsList)
    logFile.close()
connection.commit()
connection.close()

Respuestas a la pregunta(3)

Su respuesta a la pregunta