Источник
вая тензорshape=[batch_size, max_time, 128]
(выход RNN), для которогоmax_time
может меняться, я хотел бы применить полностью связанный слой для проецирования данных на[batch_size, max_time, 10]
форма.
Вопрос заключается в следующем: нужно ли сначала изменить форму входного тензора, объединяя первые два измерения, затем применить tf.layers.dense, а затем изменить форму обратно в 3D? Или я могу просто использовать tf.layers.dense на 3D-тензоре, чтобы получить эквивалентный эффект?
Я хотел бы иметь общую матрицу весов для всех соединений между 128 модулями RNN и 10 выходными классами, позволяя в то же время иметь переменную длинуmax_time
за каждую партию.