Результаты поиска по запросу "neural-network"

1 ответ

, которые возвращают результат на каждом временном шаге, который используется вторым слоем, где он возвращает результат только в конце

аюсь выяснить правильный синтаксис для модели, которую я пытаюсь соответствовать. Это проблема прогнозирования временных рядов, и я хочу использовать несколько плотных слоев, чтобы улучшить представление временных рядов, прежде чем передать их в ...

1 ответ

черт возьми, да

аюсь создать простую модель глубокого обучения для прогнозированияy=x**2 Но, похоже, глубокое обучение не в состоянии изучить общую функциювыходит за рамки его тренировочного набора. Интуитивно я могу думать, что нейронная сеть может не ...

1 ответ

 посторонние люди... ;)

исал ванильный автоэнкодер, используя толькоDense слой. Ниже мой код: iLayer = Input ((784,)) layer1 = Dense(128, activation='relu' ) (iLayer) layer2 = Dense(64, activation='relu') (layer1) layer3 = Dense(28, activation ='relu') (layer2) layer4 ...

ТОП публикаций

2 ответа

Позже вы можете сдать

ледовательной модели keras можно установить вес, используяset_weights метод. model.layers[n].set_weights([your_wight])Однако я сталкиваюсь с проблемой, если пытаюсь установить вес слоя, используя функциональный API. Вот фрагмент кода: emb = ...

1 ответ

@ blue-phoenox, добро пожаловать

ю, что можно заморозить отдельные слои в сети, например, чтобы обучить только последние слои предварительно обученной модели. То, что я ищу, - это способ применения определенных уровней обучения к различным слоям. Так, например, очень низкая ...

2 ответа

Ниже показано, как выглядит моя функция ввода:

я большой набор данных (300 000 примеров х 33 000 функций), который, конечно, не умещается в памяти. Данные сохраняются в формате HDF5. Значения в основном нули (разреженные данные). Они выглядят так: Attr1 52 52 52 52 52 52 52 52 ... Attr2 umb ...

1 ответ

@tim Извините за задержку, пожалуйста, смотрите мой обновленный ответ.

я есть небольшая проблема понимания с CNN. И я не совсем уверен, сколько фильтров и, следовательно, весов обучены. Пример: у меня есть входной слой с 32x32 пикселями и 3 каналами (то есть форма(32,32,3)). Теперь я использую слой 2D-свертки с 10 ...

1 ответ

Добавление количества каналов - это условия смещения.

ассчитать общее количество параметров в сети CNN вот код: input_shape = (32, 32, 1) flat_input_size = input_shape[0]*input_shape[1]*input_shape[2] num_classes = 4 cnn_model = Sequential() cnn_model.add(Conv2D(32, (3, 3), ...

3 ответа

, К сожалению, я не понимаю, в чем разница между этими двумя методами.

тоящее время я наткнулся на вариационные автоэнкодеры и попытался заставить их работать на MNIST, используя керасы. Я нашел учебник поGitHub [https://github.com/keras-team/keras/blob/master/examples/variational_autoencoder.py] . Мой вопрос ...

3 ответа

Я просто указывал, что в этом сценарии использования векторы на самом деле не прошли предварительную подготовку. В вашем примере кода он не загружает предварительно обученные векторы, а вместо этого обучает новые векторы слов. И мне было просто интересно, есть ли другой вариант использования, поэтому я спрашивал.

у загрузить предварительно обученное встраивание word2vec с помощью gensim в слой встраивания PyTorch. Поэтому мой вопрос заключается в том, как мне получить веса внедрения, загруженные gensim в слой внедрения PyTorch. Заранее спасибо!