Suchergebnisse für Anfrage "recurrent-neural-network"

6 die antwort

Tensorflow: So übergeben Sie die Ausgabe des vorherigen Zeitschritts als Eingabe an den nächsten Zeitschritt

Es ist ein Duplikat dieser FrageWie kann ich den letzten Ausgang y (t-1) als Eingang für die Erzeugung von y (t) im Tensorflow RNN ...

6 die antwort

So ermitteln Sie die maximale Chargengröße für ein seq2seq-Tensorflow-RNN-Trainingsmodell

Gegenwärtig verwende ich die Standardgröße 64 als Chargengröße für das seq2seq-Tensorflow-Modell. Was ist die maximale Batch-Größe, Layer-Größe usw. Ich kann mit einer einzelnen Titan X-GPU mit 12 GB RAM mit Haswell-E xeon 128 GB RAM gehen. Die ...

4 die antwort

Ist der RNN-Anfangszustand für nachfolgende Minibatches zurückgesetzt?

Kann jemand klären, ob der Anfangszustand der RNN in TF für nachfolgende Minibatches zurückgesetzt wird oder der letzte Zustand des vorherigen Minibatches verwendet wird, wie in @ erwähnIlya Sutskever et al., ICLR ...

TOP-Veröffentlichungen

2 die antwort

SensorFlow: Durchführen dieser Verlustberechnung

Meine Frage und mein Problem werden unter den beiden Codeblöcken angegeben. Verlustfunktiodef loss(labels, logits, sequence_lengths, label_lengths, logit_lengths): scores = [] for i in xrange(runner.batch_size): sequence_length = ...

6 die antwort

Regularisierung für LSTM im Tensorflow

Sensorflow bietet einen schönen LSTM-Wrapper. rnn_cell.BasicLSTM(num_units, forget_bias=1.0, input_size=None, state_is_tuple=False, activation=tanh)Ich möchte Regularisierung verwenden, beispielsweise L2-Regularisierung. Ich habe jedoch keinen ...

6 die antwort

Wie kann ich den letzten Ausgang y (t-1) als Eingang für die Erzeugung von y (t) im Tensorflow RNN einspeisen?

Ich möchte eine einschichtige RNN in Tensorflow so entwerfen, dass die letzte Ausgabe(y(t-1)) ist an der Aktualisierung des ausgeblendeten Status beteiligt. h(t) = tanh(W_{ih} * x(t) + W_{hh} * h(t) + **W_{oh}y(t - 1)**) y(t) = W_{ho}*h(t)Wie ...

6 die antwort

Tensorflow RNN Gewichtsmatrizen Initialisierung

Ich benutzebidirectional_rnn mitGRUCell Dies ist jedoch eine allgemeine Frage zum RNN in Tensorflow. Ich konnte nicht finden, wie die Gewichtsmatrizen initialisiert werden (Eingabe in Hidden, Hidden in Hidden). Werden sie zufällig initialisiert? ...

4 die antwort

SensorFlow: LSTM-Status für die nächste Charge speichern (stateful LSTM)

Gegeben ein trainiertes LSTM-Modell möchte ich Inferenz für einzelne Zeitschritte durchführen, d. H.seq_length = 1 im folgenden Beispiel. Nach jedem Zeitschritt müssen die internen LSTM-Zustände (Speicher und ausgeblendete Zustände) für den ...

2 die antwort

Keras: Wie soll ich Eingabedaten für RNN vorbereiten?

Ich habe Probleme beim Vorbereiten der Eingabedaten für RNN auf Keras. erzeit ist meine Trainingsdimension:(6752, 600, 13) 6752: Anzahl der Trainingsdaten 600: Anzahl der Zeitschritte 13: Größe der Merkmalsvektoren (der Vektor ist in ...

2 die antwort

Stream-Ausgabe von Vorhersagen in Keras

Ich habe einen LSTM in Keras, den ich trainiere, um Zeitreihendaten vorherzusagen. Ich möchte, dass das Netzwerk bei jedem Zeitschritt Vorhersagen ausgibt, da es alle 15 Sekunden eine neue Eingabe erhält. Ich kämpfe also mit der richtigen Art, es ...