¿Es posible dividir una red en múltiples GPU en tensorflow?
Planeo ejecutar una red recurrente muy grande (por ejemplo, 2048x5), ¿es posible definir una capa en una GPU en Tensorflow? ¿Cómo debo implementar el modelo para lograr la mejor eficiencia? Entiendo que hay gastos generales para la comunicación entre GPU o GPU-CPU-GPU.