Paralelo a Python Loop con matrices numpy y memoria compartida

Soy consciente de varias preguntas y respuestas sobre este tema, pero no he encontrado una respuesta satisfactoria a este problema en particular:

¿Cuál es la forma más fácil de hacer una simple paralelización de memoria compartida de un bucle python donde las matrices numpy se manipulan mediante funciones numpy / scipy?

No busco la forma más eficiente, solo quería algo simple de implementar que no requiera una reescritura significativa cuando el bucle no se ejecuta en paralelo. Al igual que OpenMP implementa en lenguajes de nivel inferior.

La mejor respuesta que he visto en este sentido eséste, pero esta es una forma bastante torpe que requiere que uno exprese el bucle en una función que tome un solo argumento, varias líneas de conversión de matriz compartida, parece requerir que se llame a la función paralela__main__, y no parece funcionar bien desde el indicador interactivo (donde paso gran parte de mi tiempo).

Con toda la simplicidad de Python, ¿es esta realmente la mejor manera de parellizar un bucle? De Verdad? Esto es algo trivial para paralelizar en la moda de OpenMP.

He leído con esmero la documentación opaca del módulo de multiprocesamiento, solo para descubrir que es tan general que parece adecuado para todo menos una simple paralelización de bucle. No estoy interesado en configurar Administradores, Proxies, Canalizaciones, etc. Solo tengo un bucle simple, completamente paralelo que no tiene comunicación entre tareas. Usar MPI para paralelizar una situación tan simple parece una exageración, por no mencionar que sería ineficaz en memoria en este caso.

No he tenido tiempo de aprender sobre la multitud de diferentes paquetes paralelos de memoria compartida para Python, pero me preguntaba si alguien tiene más experiencia en esto y me puede mostrar una manera más sencilla. Por favor, no sugiera técnicas de optimización en serie como Cython (ya lo uso), o use funciones de numpy / scipy paralelas como BLAS (mi caso es más general y más paralelo).

Respuestas a la pregunta(3)

Su respuesta a la pregunta