Результаты поиска по запросу "machine-learning"
Игнорирование того факта, что применение to_categorical бессмысленно в моем сценарии. Следующее решает проблему с памятью:
я есть такой массив: [[0. 1. 1. ... 0. 0. 1.] [0. 0. 0. ... 0. 0. 1.] [0. 0. 1. ... 0. 0. 0.] ... [0. 0. 0. ... 0. 0. 1.] [0. 0. 0. ... 0. 0. 1.] [0. 0. 0. ... 1. 0. 1.]]Я преобразую это так, чтобы уменьшить потребность в памяти: x_val = ...
Это одно из решений для сохранения дополненных изображений. Но что, если я не хочу хранить изображения из-за нехватки места, чем я могу использовать steps_per_epoch = 2 * (n_samples / batch_size). Означает ли это, что я подгоняю свои данные вдвое по сравнению с исходными данными за эпоху?
аюсь сделать классификацию изображений с моделью Inception V3. Есть лиImageDataGenerator из Keras создавать новые изображения, которые добавляются в мой набор данных? Если у меня есть 1000 изображений, будет ли эта функция удваивать ее до 2000 ...
массив предсказанных классов.
тоящее время я использую H2O для набора проблем классификации. Я проверяю это сH2ORandomForestEstimator в среде Python 3.6. Я заметил, что результаты метода прогнозирования дают значения от 0 до 1 (я предполагаю, что это вероятность). В моем ...
Именно так! Я забыл упомянуть об этом явно, но на самом деле AutoDiff строит график, который затем повторяется. Обратите внимание, что в правиле многомерной цепочки есть еще несколько деталей, которые также охватываются графом, но не упоминаются в ответе (в частности, если у вас есть несколько путей от x до z, скажем, через две разные переменные y1 и y2. Тогда ваша производная будет быть: dx / dz = dx / dy1 * dy1 / dz + dx / dy2 * dy2 / dz.
росто любопытно узнать, как PyTorch отслеживает операции над тензорами (после.requires_grad устанавливается какTrue и как он позже рассчитывает градиенты автоматически. Пожалуйста, помогите мне понять идею позадиautograd, Благодарю.
) ради демонстраций:
ользую Spark, и я хотел бы обучить модели машинного обучения. Из-за плохих результатов я хотел бы отобразить ошибку, допущенную моделью в каждую эпоху обучения (в обучении и наборе тестовых данных). Затем я буду использовать эту информацию, ...
они делают это. Ваш ответ также фокусируется на изменении функции стоимости, а не на трансферном обучении. Ваш ответ на # 2 может быть улучшен с помощью ссылки на источник.
при чтении блогов о трансферном обучении говорится: удалите последний слой или удалите последние два слоя. То есть удалить выходной слой и последний скрытый слой. Таким образом, если трансферное обучение подразумевает также изменение ...
Ниже показано, как выглядит моя функция ввода:
я большой набор данных (300 000 примеров х 33 000 функций), который, конечно, не умещается в памяти. Данные сохраняются в формате HDF5. Значения в основном нули (разреженные данные). Они выглядят так: Attr1 52 52 52 52 52 52 52 52 ... Attr2 umb ...
stackoverflow.com/questions/51542111/...
астройке гиперпараметров, чтобы моя модель работала лучше, я заметил, что результат, который я получаю (и, следовательно, модель, которая создается), меняется каждый раз, когда я запускаю код, несмотря на исправление всех начальных чисел для ...
не так ли?
у меня есть это сомнение и я искал ответы. Так что вопрос в том, когда я использую, from sklearn import preprocessing min_max_scaler = preprocessing.MinMaxScaler() df ...
потому что старый код версии панд ниже
аюсь построить ARIMA для обнаружения аномалий. Мне нужно найти скользящее среднее графика временного ряда, я пытаюсь использовать панды 0,23 для этого import pandas as pd import numpy as np from statsmodels.tsa.stattools import adfuller import ...