, Распределенное выполнение здесь очень легко выполнить, используя всего лишь две простые оболочки, но лично я не смог успешно его использовать (довольно медленно и случайным образом вылетает с segfault).

ользую TensorFlow на машине с двумя графическими процессорами, каждый с 3 ГБ памяти. Мой размер пакета составляет всего 2 ГБ, и поэтому может поместиться на одном графическом процессоре. Есть ли смысл тренироваться с обоими графическими процессорами (используяCUDA_VISIBLE_DEVICES)? Если бы я это сделал, как бы TensorFlow распространил обучение?

Ответы на вопрос(1)

Ваш ответ на вопрос