Resultados de la búsqueda a petición "word-embedding"
¿Qué hace la función tf.nn.embedding_lookup?
tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None)No puedo entender el deber de esta función. ¿Es como una tabla de búsqueda? ¿Qué significa devolver los parámetros correspondientes a cada id (en ids)? Por ejemplo, en ...
Algoritmo idf de Python Tf
Me gustaría encontrar las palabras más relevantes en un conjunto de documentos. Me gustaría llamar a un algoritmo Tf Idf sobre 3 documentos y devolver un archivo csv que contenga cada palabra y su frecuencia. Después de eso, tomaré solo los que ...
¿Cómo funciona la capa de convolución Keras 1d con incrustaciones de palabras - problema de clasificación de texto? (Filtros, tamaño del núcleo y todos los hiperparámetros)
Actualmente estoy desarrollando una herramienta de clasificación de texto usando Keras. Funciona (funciona bien y obtuve una precisión de validación de 98.7), pero no puedo entender cómo funciona exactamente la capa de convolución 1D con datos ...
¿Qué significa incrustar una palabra ponderada?
En elpapel [http://www.aclweb.org/anthology/S17-2100]que estoy tratando de implementar, dice: En este trabajo, los tweets se modelaron utilizando tres tipos de representación de texto. El primero es un modelo de bolsa de palabras ponderado por ...
Cómo obtener vectores de palabras de Keras Embedding Layer
Actualmente estoy trabajando con un modelo Keras que tiene una capa de incrustación como primera capa. Para visualizar las relaciones y la similitud de las palabras entre sí, necesito una función que devuelva el mapeo de palabras y vectores de ...
CBOW v.s. skip-gram: ¿por qué invertir el contexto y las palabras de destino?
Enesta [https://www.tensorflow.org/versions/r0.9/tutorials/word2vec/index.html#vector-representations-of-words] página, se dice que: [...] skip-gram invierte contextos y objetivos, e intenta predecir cada palabra de contexto a partir de su ...
Actualice solo una parte de la matriz de inclusión de palabras en Tensorflow
Suponiendo que quiero actualizar una matriz de inclusión de palabras previamente capacitada durante el entrenamiento, ¿hay alguna manera de actualizar solo un subconjunto de la matriz de inclusión de palabras? He buscado en la página de la API ...
Asegúrese de que gensim genere el mismo modelo de Word2Vec para diferentes ejecuciones con los mismos datos
EnEl modelo LDA genera diferentes temas cada vez que entreno en el mismo corpus [https://stackoverflow.com/questions/15067734/lda-model-generates-different-topics-everytime-i-train-on-the-same-corpus] , estableciendo elnp.random.seed(0), el ...
¿Por qué se crean múltiples archivos de modelo en gensim word2vec?
Cuando trato de crear un modelo word2vec (skipgram con muestreo negativo) recibí 3 archivos como resultado de la siguiente manera. word2vec (File) word2vec.syn1nef.npy (NPY file) word2vec.wv.syn0.npy (NPY file) Solo me preocupa por qué sucede ...