Resultados de la búsqueda a petición "word-embedding"

8 la respuesta

¿Qué hace la función tf.nn.embedding_lookup?

tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None)No puedo entender el deber de esta función. ¿Es como una tabla de búsqueda? ¿Qué significa devolver los parámetros correspondientes a cada id (en ids)? Por ejemplo, en ...

1 la respuesta

Algoritmo idf de Python Tf

Me gustaría encontrar las palabras más relevantes en un conjunto de documentos. Me gustaría llamar a un algoritmo Tf Idf sobre 3 documentos y devolver un archivo csv que contenga cada palabra y su frecuencia. Después de eso, tomaré solo los que ...

1 la respuesta

¿Cómo funciona la capa de convolución Keras 1d con incrustaciones de palabras - problema de clasificación de texto? (Filtros, tamaño del núcleo y todos los hiperparámetros)

Actualmente estoy desarrollando una herramienta de clasificación de texto usando Keras. Funciona (funciona bien y obtuve una precisión de validación de 98.7), pero no puedo entender cómo funciona exactamente la capa de convolución 1D con datos ...

2 la respuesta

¿Qué significa incrustar una palabra ponderada?

En elpapel [http://www.aclweb.org/anthology/S17-2100]que estoy tratando de implementar, dice: En este trabajo, los tweets se modelaron utilizando tres tipos de representación de texto. El primero es un modelo de bolsa de palabras ponderado por ...

1 la respuesta

Cómo obtener vectores de palabras de Keras Embedding Layer

Actualmente estoy trabajando con un modelo Keras que tiene una capa de incrustación como primera capa. Para visualizar las relaciones y la similitud de las palabras entre sí, necesito una función que devuelva el mapeo de palabras y vectores de ...

2 la respuesta

CBOW v.s. skip-gram: ¿por qué invertir el contexto y las palabras de destino?

Enesta [https://www.tensorflow.org/versions/r0.9/tutorials/word2vec/index.html#vector-representations-of-words] página, se dice que: [...] skip-gram invierte contextos y objetivos, e intenta predecir cada palabra de contexto a partir de su ...

2 la respuesta

Actualice solo una parte de la matriz de inclusión de palabras en Tensorflow

Suponiendo que quiero actualizar una matriz de inclusión de palabras previamente capacitada durante el entrenamiento, ¿hay alguna manera de actualizar solo un subconjunto de la matriz de inclusión de palabras? He buscado en la página de la API ...

3 la respuesta

Asegúrese de que gensim genere el mismo modelo de Word2Vec para diferentes ejecuciones con los mismos datos

EnEl modelo LDA genera diferentes temas cada vez que entreno en el mismo corpus [https://stackoverflow.com/questions/15067734/lda-model-generates-different-topics-everytime-i-train-on-the-same-corpus] , estableciendo elnp.random.seed(0), el ...

1 la respuesta

¿Por qué se crean múltiples archivos de modelo en gensim word2vec?

Cuando trato de crear un modelo word2vec (skipgram con muestreo negativo) recibí 3 archivos como resultado de la siguiente manera. word2vec (File) word2vec.syn1nef.npy (NPY file) word2vec.wv.syn0.npy (NPY file) Solo me preocupa por qué sucede ...