Suchergebnisse für Anfrage "word-embedding"

4 die antwort

CBOW v.s. Überspringen-Gramm: Warum Kontext und Zielwörter umkehren?

ImDie [https://www.tensorflow.org/versions/r0.9/tutorials/word2vec/index.html#vector-representations-of-words] Seite, es wird gesagt, dass: [...] skip-gram invertiert Kontexte und Ziele und versucht, jedes Kontextwort aus seinem Zielwort [...] ...

4 die antwort

Update nur einen Teil der Wort-Einbettungsmatrix in Tensorflow

Angenommen, ich möchte während des Trainings eine vorab trainierte Worteinbettungsmatrix aktualisieren. Gibt es eine Möglichkeit, nur eine Teilmenge der Worteinbettungsmatrix zu aktualisieren? Ich habe die Tensorflow API-Seite durchgesehen und ...

6 die antwort

Stellen Sie sicher, dass das gensim dasselbe Word2Vec-Modell für verschiedene Läufe mit denselben Daten generiert.

ImLDA-Modell generiert jedes Mal unterschiedliche Themen, wenn ich auf demselben Korpus trainiere. [https://stackoverflow.com/questions/15067734/lda-model-generates-different-topics-everytime-i-train-on-the-same-corpus] , indem Sie ...

TOP-Veröffentlichungen

16 die antwort

Was macht die Funktion tf.nn.embedding_lookup?

tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None)Ich kann die Aufgabe dieser Funktion nicht verstehen. Ist es wie eine Nachschlagetabelle? Was bedeutet, dass die Parameter für jede ID (in IDs) zurückgegeben werden? Zum ...