É possível dividir uma rede entre várias GPUs no tensorflow?
Eu planejo executar uma rede recorrente muito grande (por exemplo, 2048x5). É possível definir uma camada em uma GPU no tensorflow? Como devo implementar o modelo para obter a melhor eficiência. Entendo que há sobrecarga na comunicação entre GPU ou GPU-CPU-GPU.