Resultados da pesquisa a pedido "lstm"

1 a resposta

Não é possível empilhar o LSTM com MultiRNNCell e dynamic_rnn

Estou tentando criar um modelo de previsão de séries temporais multivariadas. Segui o seguinte tutorial para previsão de ...

1 a resposta

As previsões de preço das ações do modelo Leras da multicamada keras convergem para um valor constante

[/imgs/cWxhc.png]Eu criei um modelo LSTM multicamada que usa regressão para prever os valores dos dados do próximo quadro. O modelo termina após 20 épocas. Eu, então, recebo algumas previsões e as comparo com meus valores de verdade básicos. ...

2 a resposta

Como interpretar pesos em uma camada LSTM no Keras

Atualmente, estou treinando uma rede neural recorrente para previsão do tempo, usando uma camada LSTM. A rede em si é bem simples e tem a seguinte aparência: model = Sequential() model.add(LSTM(hidden_neurons, ...

2 a resposta

TensorFlow: lembre-se do estado LSTM para o próximo lote (LSTM com estado)

Dado um modelo LSTM treinado, desejo realizar inferência para timesteps únicos, ou seja,seq_length = 1 no exemplo abaixo. Após cada intervalo de tempo, os estados internos do LSTM (memória e oculto) precisam ser lembrados para o próximo 'lote'. ...

1 a resposta

Como aplicar o autoencoder LSTM a dados de séries temporais de comprimento variável?

Eu li o LSTM-autoencoder neste tutorial: https://blog.keras.io/building-autoencoders-in-keras.html [https://blog.keras.io/building-autoencoders-in-keras.html]e cole a implementação keras correspondente abaixo: from keras.layers import Input, ...

1 a resposta

Entradas LSTM para Tensorflow

Estou tentando criar uma rede LSTM no Tensorflow e estou perdido em terminologia / conceitos básicos. eu tenhon exemplos de séries temporais paraX=xn, Ondexi= [[x11x12, x13], ..., [xm1xm2, xm3]] e onde xii é uma bóia. Antes de tudo, quero treinar ...

0 a resposta

Keras train_on_batch perda / precisão 0

Estou usando um grande conjunto de dados e, portanto, estou tentando usar train_on_batch (ou encaixar com época = 1) model = Sequential() model.add(LSTM(size,input_shape=input_shape,return_sequences=False)) model.add(Dense(output_dim)) ...

2 a resposta

Como criar lotes acolchoados no Tensorflow para dados tf.train.SequenceExample usando a API DataSet?

Para treinar umModelo LSTMnoTensorflow, Estruturei meus dados em um tf.train.SequenceExampleformato e armazenado em umArquivo TFRecord. Gostaria agora de usar a nova API DataSet paragerar lotes acolchoados para treinamento. Noa documentação ...

4 a resposta

Pool médio ou máximo com suporte de mascaramento em Keras

... print('Build model...') model = Sequential() model.add(Embedding(max_features, 128)) model.add(LSTM(size, return_sequences=True, dropout_W=0.2 dropout_U=0.2)) model.add(GlobalAveragePooling1D()) ...

1 a resposta

Noções básicas sobre LSTM com monitoração de estado

Eu estou passando por issotutorial [http://machinelearningmastery.com/understanding-stateful-lstm-recurrent-neural-networks-python-keras/] em RNNs / LSTMs e estou tendo dificuldades para entender LSTMs com estado. Minhas perguntas são as ...