Результаты поиска по запросу "tensorflow-estimator"

1 ответ

Инициировать и идти

кстИзвестно, что на данный момент документация TF's Record оставляет желать лучшего. Мой вопрос касается того, что является оптимальным для хранения: последовательность,его вероятности класса для элемента, инекоторая (контекст?) информация ...

1 ответ

(1) TF имеет только один тип - байты. В основном, если вы используете имя _bytes, ожидается, что данные будут {"b64": ...}, но внутренний тип TF всегда будет байтовым, даже для "строк". (2) Возможно, вы правы в этом. Если вы попробовали приведенные выше инструкции, но они не работают, дайте мне знать, и я смогу обновить пост.

ная документация Google(см. Двоичные данные в прогнозе ввода) [https://cloud.google.com/ml-engine/docs/prediction-overview#prediction_input_data] состояния: Закодированная строка должна быть отформатирована как объект JSON с одним ключом с ...

1 ответ

Теперь вы можете просто добавить tf.summary.image и поместить его в Tensorboard. Убедитесь, что вы открываете Tensrobaord в родительском каталоге указанного выходного каталога, который вы использовали в хуке eval_summary. В моем примере он назывался 'eval_core', поэтому я открыл Tensorboard в его родительском каталоге, и, как вы можете видеть на рисунке ниже, он красиво отображается в синем окне.

нный момент я пытаюсь обучить автоэнкодер на пользовательском наборе данных изображений, используя новый API оценки Tensorflow. Пока все работает. Единственная проблема, которую я имею, - это сохранить входные и выходные изображения в виде ...

ТОП публикаций

2 ответа

 вещь, и положить его в

аюсь провести трансферное обучение модели Inception-resnet v2, предварительно обученной на imagenet, используя мой собственный набор данных и классы. Моя оригинальная кодовая база была модификациейtf.slim образец, который я не могу найти больше, ...

2 ответа

@dpk, вы используете tf-запись в качестве входного набора данных для модели оценщика?

чил реснет с помощью tf.estimator, модель была сохранена в процессе обучения. Сохраненные файлы состоят из.data, .index а также.meta, Я хотел бы загрузить эту модель обратно и получить прогнозы для новых изображений. Данные были поданы на модель ...

4 ответа

 исходный код. Кажется, это невозможно.

ользую

0 ответов

Так как я могу обойти это?

вопроснагрузкаSavedModel с другим расположением устройства [https://stackoverflow.com/questions/53356558/tensorflow-v1-10-load-savedmodel-with-different-device-placement-or-manually-se] исследует, как использоватьEstimator API для сохранения ...

1 ответ

@SumNeuron Извините, я не знаю, как это исправить

руководстве TensorFlow по использованиюГрафические процессоры [https://www.tensorflow.org/guide/using_gpu#manual_device_placement]есть часть об использовании нескольких графических процессоров «в режиме мульти-башни»: ... for d in ...

2 ответа

@ AndrésMarafioti здесь нечего исследовать, все зависит от аппаратного обеспечения и общей пропускной способности ввода / вывода. Задача состоит в том, чтобы выгрузить модель из памяти на диск (SSD или HDD), современные SSD в настоящее время выполняют операции записи в течение нескольких миллисекунд.

ользую tenorflow уже некоторое время. Сначала у меня были такие вещи: def myModel(training): with tf.scope_variables('model', reuse=not training): do model return model training_model = myModel(True) validation_model = myModel(False)Главным ...

1 ответ

Это связано с EvalSpec, поэтому он отслеживает потерю проверки. Это сделает раннюю остановку, если тренируется достаточно долго. Возможно, вам придется снизить значение сглаживания до 0,99 и понизить допуск, если он не останавливается достаточно быстро.

ользуюtf.estimator в TensorFlow 1.4 иtf.estimator.train_and_evaluate отлично, но мне нужно рано остановиться. Какой предпочтительный способ добавить это? Я предполагаю, что есть некоторыеtf.train.SessionRunHook где-то для этого. Я видел, что был ...