Результаты поиска по запросу "lstm"

2 ответа

), оси 0 и 1 транспонированы, что приводит к

ют ли RNN различные модели зависимостей, когда входные данные являются пакетными, а не временными?

2 ответа

но когда я сделал это таким образом, мои значения состояния оставались постоянными даже после перехода на RNN.

кто-нибудь объяснить, как я могу инициализировать скрытое состояние LSTM в тензорном потоке? Я пытаюсь создать рекуррентный авто-кодировщик LSTM, поэтому пос...

0 ответов

* pytorch (упс)

ТОП публикаций

1 ответ

Если я не выполняю предварительную обработку на X и не передаю ее напрямую, это вызывает ошибку: ValueError: Ни одно из значений не поддерживается. @ output, _, _ = tf.nn.bidirectional_dynamic_rnn (lstm_fw_cell_m, lstm_bw_cell_m, x, dtype = tf.float32)

ел бы построить игрушечную модель LSTM для регрессии.это хороший учебник уже слишком сложен для начинающего.Учитывая последовательность длины

1 ответ

Как должны быть построены входные данные? Должен ли он быть подготовлен как серия временных шагов?

аюсь использовать LSTM, чтобы сделать прогноз продаж магазина. Вот как выглядят мои необработанные данные:

1 ответ

Я бы просто оставил это - но я бы также дождался ответа ОП в комментарии, чтобы уточнить, что он на самом деле хотел сделать :)

аюсь реализовать шумоподавляющий автоэнкодер со слоем LSTM между ними. Архитектура идет следующим образом.

1 ответ

хорошо, спасибо, я принимаю ваш ответ, я мог бы опубликовать отдельный вопрос для этого

3 ответа

 они будут векторами длины

е аргументы в нормальном

3 ответа

Тогда я могу тренировать свои данные без этой ошибки. Я не уверен, правильно ли мое предположение, но это работает для меня. Надеюсь, это работает для вас.

тот код:

1 ответ

stackoverflow.com/questions/46144191/...

я есть вопрос, касающийся разной длины последовательностей для LSTM в Керасе. Я передаю пакеты размером 200 и последовательности переменной длины (= x) с 100 объектами для каждого объекта в последовательности (=> [200, x, 100]) в LSTM: LSTM(100, ...