Результаты поиска по запросу "keras"
Поэтому, если этот ответ в порядке, отметьте его как ответивший, чтобы другие пользователи могли получить пользу от этого вопроса и ответа.
ренировочные данные имеют вид (?, 15) где? переменная длина При создании моей модели я указываю это: inp = Input(shape=(None,15)) conv = Conv1D(32,3,padding='same',activation='relu')(inp) ...Мои тренировочные данные имеют форму (35730,?, ...
Как я уже сказал, ваша кривая - кривая переоснащения. Вам нужно сделать меньшую модель. Модель менее способна. К сожалению, нет точного ответа на лучший размер. Вы должны проверить, пока ваша кривая не начнет вести себя по-другому. Ваша модель в настоящее время запоминает результаты обучения (потому что ваша модель слишком хороша). Он ничего не узнает о тестовых данных.
я есть архитектура модели CNN-RNN с двунаправленной LSTMS для задачи регрессии временных рядов. Моя потеря не сходится за 50 эпох. Каждая эпоха имеет 20 тыс. Образцов. Потеря продолжает подпрыгивать между0,001 - 0,01. batch_size=1 epochs = 50 ...
Я обнаружил, что выполнение этого сценария или чего-то подобного значительно снижает частоту появления подобных ошибок, особенно когда мои данные об обучении поступают откуда-то вроде поиска изображений в Google.
я есть следующий код: from sklearn.model_selection import train_test_split from scipy.misc import imresize def _chunks(l, n): """Yield successive n-sized chunks from l.""" for i in range(0, len(l), n): yield l[i:i + n] def _batch_generator(data, ...
Как вы имеете в виду «если бы вы делали стохастические партии полностью, вы могли бы это осуществить»?
аюсь реализовать потерю деформации (тип функции попарного ранжирования) с помощью Keras API. Я вроде застрял, как это может быть достигнуто. Определение потери основы берется изLightFM ...
Я изменил форму ввода на model1_in = Input (shape = (40,)), и теперь она работает, спасибо!
аюсь объединить две последовательные модели в Keras 2.0, используя следующую строку: merged_model.add(Merge([model1, model2], mode='concat'))Это все еще работает нормально, но выдает предупреждение: "The `Merge` layer is deprecated and will be ...
Все зависит от того, что вы хотите сделать. Представьте себе случай, когда вы пытаетесь судить о том, что будет чувствовать человек на протяжении всего фильма. Каждый кадр фильма представляет собой шаг по времени, и вы хотите классифицировать все этапы, чтобы эволюция чувств человека была нарушена. Но вы никогда не сможете угадать чувство по одному кадру в отдельности. Это будет роль уровня LSTM, анализировать каждый временной шаг и отслеживать, что происходит.
нирую модель LSTM, используя в качестве входных данных последовательность из 50 шагов с 3 различными функциями, описанными ниже: #x_train [[[a0,b0,c0],.....[a49,b49,c49]], [a1,b1,c1]......[a50,b50,c50]], ...
), затем вы повторяете все последовательности.
аю LSTM-autoencoder в этом уроке: https://blog.keras.io/building-autoencoders-in-keras.html [https://blog.keras.io/building-autoencoders-in-keras.html]и вставьте соответствующую реализацию keras ниже: from keras.layers import Input, LSTM, ...
Классная идея, это редактировать :)
у манипулировать активациями предыдущего слоя с помощью пользовательского слоя keras. Нижний слой просто умножает число на активацию предыдущего уровня. class myLayer(Layer): def __init__(self, **kwargs): super(myLayer, self).__init__(**kwargs) ...
Вопрос: это проверка имен файлов, найденных в каждом каталоге? Как можно соединить, скажем, imageA1 с меткой A и imageA2, которая также имеет метку A?
жно ли иметь два flow_from_directory в fit_generator? Например train_generator_1 = train_datagen.flow_from_directory( train_data_dir_1, target_size=(img_height, img_width), batch_size=batch_size, class_mode='binary') train_generator_2 = ...
переменные, включая веса в модели Кераса, которые я хотел оставить нетронутыми.
as как упрощенный интерфейс для TensorFlow: учебное пособиеони описывают, как можно назвать модель Кераса на тензоре TensorFlow. [https://blog.keras.io/keras-as-a-simplified-interface-to-tensorflow-tutorial.html] Они также говорят: from ...