ContributePerguntasPublicaçõesTags
VIKEnut'
EntrarInscreva-se

Pt

РусскийDeutschEspañol

Tema escuro

Write
EntrarInscreva-se

Tema escuro

Pt

РусскийDeutschEspañol

Você é muito ativo! É ótimo!

Registre-se para continuar usando todos os recursos do Techfeed

SignUpAction

Já possui uma conta?SignInAction

Tags populares

r6kerasopenwebbeansfirebird-3.0hystrixpushbulletwso2mbefxclipsegrid.mvclatin9objectpoolasp.net-core-2.0iiopgoogle-app-engine-pythoncatalandefault.pngparse-frameworktagbuildermultipointopencart2.x

Perguntas relacionadas

1

Por que vários arquivos de modelo são criados no gensim word2vec?

2

CBOW v.s. skip-gram: por que inverter o contexto e as palavras-alvo?

2

O que significa uma incorporação de palavra ponderada?

1

Como obter vetores de palavras da Keras Embedding Layer

1

Algoritmo Python Tf idf

Jan 19, 2016, 08:14 AM
 
word-embeddingdeep-learningtensorflowpythonnatural-language-processing

O que a função tf.nn.embedding_lookup faz?

tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None)

Não consigo entender o dever dessa função. É como uma tabela de pesquisa? O que significa retornar os parâmetros correspondentes a cada ID (em IDs)?

Por exemplo, noskip-gram modelo se usarmostf.nn.embedding_lookup(embeddings, train_inputs), então para cadatrain_input encontra a incorporação correspondente?

questionAnswers(8)

yourAnswerToTheQuestion

Perguntas populares

0 a resposta

Bloqueio duplo verificado no Android

0 a resposta

Definir cabeçalhos do Apache condicionalmente

0 a resposta

Formatação de data dentro do cabeçalho da seção uitableview, POR FAVOR, AJUDA

0 a resposta

Quais são alguns problemas comuns com o Hibernate / persistence?

0 a resposta

Existe uma maneira de fazer ellipsize = "marquee" sempre rolar?

© 2020. Todos os direitos reservados
Feito com amor 

Pt

РусскийDeutschEspañol