Suchergebnisse für Anfrage "word-embedding"
CBOW v.s. Überspringen-Gramm: Warum Kontext und Zielwörter umkehren?
ImDie [https://www.tensorflow.org/versions/r0.9/tutorials/word2vec/index.html#vector-representations-of-words] Seite, es wird gesagt, dass: [...] skip-gram invertiert Kontexte und Ziele und versucht, jedes Kontextwort aus seinem Zielwort [...] ...
Update nur einen Teil der Wort-Einbettungsmatrix in Tensorflow
Angenommen, ich möchte während des Trainings eine vorab trainierte Worteinbettungsmatrix aktualisieren. Gibt es eine Möglichkeit, nur eine Teilmenge der Worteinbettungsmatrix zu aktualisieren? Ich habe die Tensorflow API-Seite durchgesehen und ...
Stellen Sie sicher, dass das gensim dasselbe Word2Vec-Modell für verschiedene Läufe mit denselben Daten generiert.
ImLDA-Modell generiert jedes Mal unterschiedliche Themen, wenn ich auf demselben Korpus trainiere. [https://stackoverflow.com/questions/15067734/lda-model-generates-different-topics-everytime-i-train-on-the-same-corpus] , indem Sie ...
Was macht die Funktion tf.nn.embedding_lookup?
tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None)Ich kann die Aufgabe dieser Funktion nicht verstehen. Ist es wie eine Nachschlagetabelle? Was bedeutet, dass die Parameter für jede ID (in IDs) zurückgegeben werden? Zum ...