Reformar el tensor 3D antes de la capa densa

Dado un tensor deshape=[batch_size, max_time, 128] (la salida de un RNN), para el cualmax_time puede variar, me gustaría aplicar una capa completamente conectada para proyectar los datos en un[batch_size, max_time, 10] forma.

La pregunta es: ¿necesito reformar primero el Tensor de entrada, fusionar las dos primeras dimensiones, luego aplicar tf.layers.dense y luego volver a dar forma a 3D? ¿O simplemente puedo usar tf.layers.dense en el tensor 3D para obtener un efecto equivalente?

Me gustaría tener una única matriz de peso compartida para todas las conexiones entre las 128 unidades RNN y las 10 clases de salida, permitiendo al mismo tiempo una longitud variablemax_time para cada lote

Respuestas a la pregunta(1)

Su respuesta a la pregunta