Suchergebnisse für Anfrage "word2vec"

2 die antwort

Injektion von vorab trainierten word2vec-Vektoren in TensorFlow seq2seq

Ich habe versucht, vortrainierte word2vec-Vektoren in ein bestehendes Tensorflow-seq2seq-Modell zu injizieren. Folgendiese ...

6 die antwort

Sensorflow: Word2vec CBOW-Modell

Ich bin neu bei Tensorflow und Word2VEC. Ich habe gerade das @ studie word2vec_basic.py [https://github.com/tensorflow/tensorflow/blob/r0.8/tensorflow/examples/tutorials/word2vec/word2vec_basic.py] was trainiert das Modell mitSkip-Gram ...

4 die antwort

CBOW v.s. Überspringen-Gramm: Warum Kontext und Zielwörter umkehren?

ImDie [https://www.tensorflow.org/versions/r0.9/tutorials/word2vec/index.html#vector-representations-of-words] Seite, es wird gesagt, dass: [...] skip-gram invertiert Kontexte und Ziele und versucht, jedes Kontextwort aus seinem Zielwort [...] ...

TOP-Veröffentlichungen

5 die antwort

Aktualisieren Sie das Modell von gensim word2vec

Ich habe ein word2vec-Modell in gensim über 98892 Dokumente geschult. Für einen bestimmten Satz, der nicht im Satzarray vorhanden ist (d. H. Den Satz, über den ich das Modell trainiert habe), muss ich das Modell mit diesem Satz aktualisieren, ...

4 die antwort

Wie berechnet gensim doc2vec-Absatzvektoren

Ich gehe durch dieses Papierhttp: //cs.stanford.edu/~quocle/paragraph_vector.pd [http://cs.stanford.edu/~quocle/paragraph_vector.pdf] nd es besagt, dass "Der Absatzvektor und die Wortvektoren werden gemittelt oder verkettet, um das nächste ...

4 die antwort

Gensim word2vec für vordefinierte Wörterbuch- und Wortindexdaten

Ich muss eine word2vec-Darstellung auf Tweets mit gensim trainieren. Im Gegensatz zu den meisten Tutorials und Codes, die ich auf gensim gesehen habe, sind meine Daten nicht roh, sondern wurden bereits vorverarbeitet. Ich habe ein Wörterbuch in ...

6 die antwort

Stellen Sie sicher, dass das gensim dasselbe Word2Vec-Modell für verschiedene Läufe mit denselben Daten generiert.

ImLDA-Modell generiert jedes Mal unterschiedliche Themen, wenn ich auf demselben Korpus trainiere. [https://stackoverflow.com/questions/15067734/lda-model-generates-different-topics-everytime-i-train-on-the-same-corpus] , indem Sie ...

4 die antwort

word2vec: negative Abtastung (in Laienform)?

Ich lese die nachstehende Abhandlung und habe Probleme, das Konzept der Negativabtastung zu verstehen. http: //arxiv.org/pdf/1402.3722v1.pd [http://arxiv.org/pdf/1402.3722v1.pdf] ann mir jemand helfen, bitt

2 die antwort

Wie Wortvektoren zu Satzvektoren verketten

Ich habe in einigen Aufsätzen (Tomas Mikolov ...) gelernt, dass ein besserer Weg, den Vektor für einen Satz zu bilden, darin besteht, den Wortvektor zu verketten. aber wegen meiner ungeschickten Mathematik bin ich mir noch nicht sicher, was die ...

2 die antwort

Wie trainiere ich Word2vec mit sehr großen Datenmengen?

Ich denke daran, word2vec auf riesigen Datenmengen mit einer Größe von mehr als 10 TB auf einem Web-Crawler-Dump zu trainieren. Ich habe die Implementierung des GoogleNews-2012-Dumps (1,5 GB) auf meinem iMac persönlich geschult. Das Trainieren ...