Resultados da pesquisa a pedido "tensorflow"

2 a resposta

Como definir a reutilização de variável de volta para False no Tensorflow?

No Tensorlfow, podemos definir a reutilização variável comoTrue comtf.get_variable_scope().reuse_variables(), existe alguma maneira de configurá-lo novamente para False sem sair do escopo?

1 a resposta

Como implemento a função de otimização no tensorflow?

minΣ (|| xi-Xci || ^ 2 + λ|| ci ||), s.t cii = 0, onde X é uma matriz de forma d * n e C é da forma n * n, xi e ci significa uma coluna de X e C separadamente. X é conhecido aqui e, com base em X, queremos encontrar C.

5 a resposta

Tensorflow - matmul da matriz de entrada com dados em lote

Eu tenho alguns dados representados porinput_x. É um tensor de tamanho desconhecido (deve ser inserido por lote) e cada item é de tamanhon. input_x sofretf.nn.embedding_lookup, de modo aembed agora tem dimensões[?, n, m] Ondem é o tamanho de ...

3 a resposta

Tensorflow: Usando tf.slice para dividir a entrada

Estou tentando dividir minha camada de entrada em partes de tamanhos diferentes. Estou tentando usar o tf.slice para fazer isso, mas não está funcionando. Algum código de exemplo: import tensorflow as tf import numpy as np ph = ...

0 a resposta

Os gradientes são sempre zero

Eu escrevi um algoritmo usando a estrutura tensorflow e enfrentei o problema, quetf.train.Optimizer.compute_gradients(loss) retorna zero para todos os pesos. Outro problema é se eu colocar o tamanho do lote maior que 5,tf.histogram_summary para ...

1 a resposta

O que opt.apply_gradients () faz no TensorFlow?

A documentação não é muito clara sobre isso. Suponho que os gradientes podem ser obtidos poropt.compute_gradients(E, [v]) conter o∂E/∂x = g(x) para cada elementox do tensor quev lojas. Fazopt.apply_gradients(grads_and_vars) essencialmente ...

2 a resposta

TensorFlow: lembre-se do estado LSTM para o próximo lote (LSTM com estado)

Dado um modelo LSTM treinado, desejo realizar inferência para timesteps únicos, ou seja,seq_length = 1 no exemplo abaixo. Após cada intervalo de tempo, os estados internos do LSTM (memória e oculto) precisam ser lembrados para o próximo 'lote'. ...

1 a resposta

A taxa de aprendizado não muda para o AdamOptimizer no TensorFlow

Gostaria de ver como a taxa de aprendizado muda durante o treinamento (imprima ou crie um resumo e visualize-o no tensorboard). Aqui está um trecho de código do que tenho até agora: optimizer = tf.train.AdamOptimizer(1e-3) grads_and_vars ...

1 a resposta

Tensorflow: erro de ditado de feed: você deve alimentar um valor para o tensor do espaço reservado

Eu tenho um bug e não consigo descobrir o motivo. Aqui está o código: with tf.Graph().as_default(): global_step = tf.Variable(0, trainable=False) images = tf.placeholder(tf.float32, shape = [FLAGS.batch_size,33,33,1]) labels ...

8 a resposta

Como calcular resumos médios em vários lotes?

Supondo que eu tenha vários resumos definidos como: loss = ... tf.scalar_summary("loss", loss) # ... summaries = tf.merge_all_summaries()Eu posso avaliar osummaries tensor a cada poucos passos nos dados de treinamento e passar o resultado para ...