Результаты поиска по запросу "word-embedding"

2 ответа

CBOW v.s. пропустить грамматику: зачем инвертировать контекст и целевые слова?

Вэтот На странице сказано, что:[...] пропускающая грамма инвертирует контексты и цели и пытается предсказать каждое контекстное слово из его целевого слова [...

1 ответ

 данных, что означает, что параметры являются общими для всех данных.

тоящее время я разрабатываю инструмент классификации текста с использованием Keras. Это работает (работает нормально, и я получил точность проверки до 98,7), но я не могу понять, как именно слой 1D-свертки работает с текстовыми данными. Какие ...

1 ответ

и другие свойства, которые могут храниться как отдельные файлы.

я пытаюсь создать модель word2vec (скипграмма с отрицательной выборкой), я получил 3 файла в следующем виде. word2vec (File) word2vec.syn1nef.npy (NPY file) word2vec.wv.syn0.npy (NPY file)Я просто волнуюсь, почему это происходит, так как для ...

ТОП публикаций

1 ответ

de.dariah.eu/tatom/getting_started.html

ел бы найти наиболее подходящие слова в наборе документов. Я хотел бы вызвать алгоритм Tf Idf для 3 документов и вернуть CSV-файл, содержащий каждое слово и его частоту. После этого я возьму только те, которые имеют большое количество, и буду ...

8 ответов

Что делает функция tf.nn.embedding_lookup?

1 ответ

Не забудьте добавить специальный символ в случае, если вы добавляете заполнение в свой ввод для некоторых случаев использования, таких как LSTM. Вы также можете добавить индекс для заполнения, что-то вроде

тоящее время я работаю с моделью Keras, в которой в качестве первого слоя используется слой внедрения. Чтобы визуализировать отношения и сходство слов между собой, мне нужна функция, которая возвращает отображение слов и векторов каждого элемента ...

2 ответа

Обновление только части матрицы встраивания слов в Tensorflow

Предполагая, что я хочу обновить предварительно обученную матрицу встраивания слов во время обучения, есть ли способ обновить только подмножество матрицы вст...

3 ответа

Убедитесь, что gensim генерирует одну и ту же модель Word2Vec для разных прогонов с одними и теми же данными.

ВМодель LDA генерирует разные темы каждый раз, когда я тренируюсь в одном корпусе. , установив

1 ответ

Это очень легко реализовать и использовать, у вас есть формула в статье, но в двух словах, вектор предложения просто V = sum_i ^ k = 1 Posweight (w_i) * IDFWeight (w_i) * V_i

агачто я пытаюсь реализовать, это говорит, [http://www.aclweb.org/anthology/S17-2100]В этой работе твиты были смоделированы с использованием трех типов текстового представления. Первая - это модель пакета слов, взвешенная по tf-idf (термин ...