Como usar o Iterator da API do conjunto de dados do tensorflow como entrada de uma rede neural (recorrente)?

Ao usar o Iterator da API do conjunto de dados do tensorflow, meu objetivo é definir um RNN que opere no iteradorget_next() tensores como entrada (consulte(1) no código).

No entanto, basta definir odynamic_rnn comget_next() como sua entrada resulta em um erro:ValueError: Initializer for variable rnn/basic_lstm_cell/kernel/ is from inside a control-flow construct, such as a loop or conditional. When creating a variable inside a loop or conditional, use a lambda as the initializer.

Agora eu sei que uma solução alternativa é simplesmente criar um espaço reservado paranext_batch e depoiseval() o tensor (porque você não pode passar o próprio tensor) e passá-lo usandofeed_dict (VejoX e(2) no código). No entanto, se eu entendi direito, essa não é uma solução eficiente, pois primeiro avaliamos e reinicializamos o tensor.

Existe alguma maneira de:

Defina adynamic_rnn diretamente em cima da saída do iterador;

ou:

De alguma forma, passar diretamente o existenteget_next() tensor para o espaço reservado que é a entrada dedynamic_rnn?

Exemplo de trabalho completo; a(1) versão é o que eu gostaria de trabalhar, mas não funciona, enquanto(2) é a solução alternativa que funciona.

import tensorflow as tf

from tensorflow.contrib.rnn import BasicLSTMCell
from tensorflow.python.data import Iterator

data = [ [[1], [2], [3]], [[4], [5], [6]], [[1], [2], [3]] ]
dataset = tf.data.Dataset.from_tensor_slices(data)
dataset = dataset.batch(2)
iterator = Iterator.from_structure(dataset.output_types,
                                   dataset.output_shapes)
next_batch = iterator.get_next()
iterator_init = iterator.make_initializer(dataset)

# (2):
X = tf.placeholder(tf.float32, shape=(None, 3, 1))

cell = BasicLSTMCell(num_units=8)

# (1):
# outputs, states = lstm_outputs, lstm_states = tf.nn.dynamic_rnn(cell, next_batch, dtype=tf.float32)

# (2):
outputs, states = lstm_outputs, lstm_states = tf.nn.dynamic_rnn(cell, X, dtype=tf.float32)

init = tf.global_variables_initializer()
with tf.Session() as sess:
    sess.run(init)
    sess.run(iterator_init)

    # (1):
    # o, s = sess.run([outputs, states])
    # o, s = sess.run([outputs, states])

    # (2):
    o, s = sess.run([outputs, states], feed_dict={X: next_batch.eval()})
    o, s = sess.run([outputs, states], feed_dict={X: next_batch.eval()})

(Usando o tensorflow 1.4.0, Python 3.6.)

Muito obrigado :)

questionAnswers(1)

yourAnswerToTheQuestion