ContributePerguntasPublicaçõesTags
VIKEnut'
EntrarInscreva-se

Pt

РусскийDeutschEspañol

Tema escuro

Write
EntrarInscreva-se

Tema escuro

Pt

РусскийDeutschEspañol

Você é muito ativo! É ótimo!

Registre-se para continuar usando todos os recursos do Techfeed

SignUpAction

Já possui uma conta?SignInAction

Tags populares

akka-clusterdjango-1.6forthshadow-domdebug-informationubuntu-13.10subtypingguiledart2jsstereoscopyqtipdiagrammingsctpghost-blogdiagnosticsvexclboost-computedisabled-inputjquery-ui-pluginswindows-networking

Perguntas relacionadas

1

Por que vários arquivos de modelo são criados no gensim word2vec?

2

CBOW v.s. skip-gram: por que inverter o contexto e as palavras-alvo?

2

O que significa uma incorporação de palavra ponderada?

1

Como obter vetores de palavras da Keras Embedding Layer

1

Algoritmo Python Tf idf

Jan 19, 2016, 08:14 AM
 
word-embeddingdeep-learningtensorflowpythonnatural-language-processing

O que a função tf.nn.embedding_lookup faz?

tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None)

Não consigo entender o dever dessa função. É como uma tabela de pesquisa? O que significa retornar os parâmetros correspondentes a cada ID (em IDs)?

Por exemplo, noskip-gram modelo se usarmostf.nn.embedding_lookup(embeddings, train_inputs), então para cadatrain_input encontra a incorporação correspondente?

questionAnswers(8)

yourAnswerToTheQuestion

Perguntas populares

0 a resposta

impedir filhos de herdar transformação css3

0 a resposta

Como você acessa o MainViewModel no ViewModelLocator a partir do código atrás?

0 a resposta

Por que a classe Java Vector (e Stack) é considerada obsoleta ou obsoleta?

0 a resposta

SQL Server Bitwise se comportar como C # Enum Flags

0 a resposta

bash: gitolite: comando não encontrado

© 2020. Todos os direitos reservados
Feito com amor 

Pt

РусскийDeutschEspañol