Resultados de la búsqueda a petición "openmpi"

1 la respuesta

Eclipse PTP: ¿Ejecutando aplicaciones paralelas (MPI) en la máquina local?

4 la respuesta

Cómo acelerar este problema por MPI

(1). Me pregunto cómo puedo acelerar el cómputo que consume tiempo en el bucle de mi código a continuación utilizando MPI.

3 la respuesta

Tener problemas relacionados con Open MPI al hacer muestras de CUDA 5.0 (Mac OS X ML)

Cuando intento hacer muestras de CUDA 5.0 aparece un error:Makefile: 79:* MPI no encontrado, no construyendo simpleMPI .. Detente.He intentado descargar y co...

2 la respuesta

un controlador de interrupción personalizado para mpirun

6 la respuesta

error fatal: mpi.h: no existe dicho archivo o directorio #include <mpi.h>

cuando compilo mi script solo con #include <mpi.h>me dice que no existe tal archivo o directorio. Pero cuando incluyo el camino a mpi.h como #include "/usr/include/mpi/mpi.h"(la ruta es correcta) devuelve: In file included from ...

2 la respuesta

mpirun: no hay suficientes espacios disponibles

Por lo general, cuando uso mpirun, puedo "sobrecargarlo", usando más procesadores de los que realmente hay en mi computadora. Por ejemplo, en mi Mac de cuatro núcleos, puedo ejecutarmpirun -np 29 python -c "print 'hey'" No hay problema. Ahora ...

3 la respuesta

OpenMPI MPI_Barrier problemas

Tengo algunos problemas de sincronización con la implementación de OpenMPI de MPI_Barrier: int rank; int nprocs; int rc = MPI_Init(&argc, &argv); if(rc != MPI_SUCCESS) { fprintf(stderr, "Unable to set up MPI"); MPI_Abort(MPI_COMM_WORLD, rc); ...

2 la respuesta

Intercambio de datos entre procesos MPI (halo)

Dado el siguiente escenario, tengo N procesos MPI cada uno con un objeto. Cuando llega la etapa de comunicación, los datos &quot;generalmente pequeños&quot; ...

1 la respuesta

¿Se puede usar MPI_Publish_name para dos aplicaciones iniciadas por separado?

Escribo una aplicación OpenMPI que consta de un servidor y una parte del cliente que se inician por separado:

2 la respuesta

No se puede ejecutar MPI al transferir datos grandes

solíaMPI_Isend para transferir una matriz de caracteres al nodo esclavo. Cuando el tamaño de la matriz es pequeño, funcionó, pero cuando agrando el tamaño de la matriz, colgó allí. Código que se ejecuta en el nodo maestro (rango ...