Результаты поиска по запросу "tensorflow-serving"

1 ответ

Да уж. Вам нужно будет сохранить модель с несколькими головками. Взгляните на образец переписи тензора ядра двигателя (без оценки)

я изо всех сил пытался понять, каковы основные задачи serve_input_fn (), когда обученная модель экспортируется в Tensorflow для служебных целей. В Интернете есть несколько примеров, которые объясняют это, но у меня проблемы с определением для ...

1 ответ

 пример с данными и пояснениями:

ю о странице «Обслуживание модели Tensorflow» https://www.tensorflow.org/serving/serving_basic [https://www.tensorflow.org/serving/serving_basic] но эти функции предполагают, что вы используете tf.Session (), чего нет в учебнике DNNClassifier ...

1 ответ

TensorFlow в производстве для прогнозов в реальном времени в приложении с высоким трафиком - как использовать?

ТОП публикаций

1 ответ

На каком этапе создается тензор потока графа?

Оптимизатор обычно запускает один и тот же граф вычислений за несколько шагов до сходимости. Настраивает ли тензорный поток график в начале и повторно исполь...

1 ответ

Мне трудно представить, как выглядит ваш код из описания. Можете ли вы опубликовать свой текущий код как редактирование вопроса, вместе с полным стеком трассировки ошибки?

ртывание Tensorflow Serving и запуск теста для Inception-V3. Работает отлично.Теперь хотелось бы сделать дозировку для подачи на Inception-V3. Например. хоте...

4 ответа

тот же ответ, что и ниже (с полным кодом) ... если у вас есть большие и более сложные модели, трудно найти имена в файле .pbtxt. Проще использовать тензорную доску и смотреть на график ...

состоит в том, чтобы открыть в Java модель, созданную / обученную на Python с

1 ответ

@SumNeuron Извините, я не знаю, как это исправить

руководстве TensorFlow по использованиюГрафические процессоры [https://www.tensorflow.org/guide/using_gpu#manual_device_placement]есть часть об использовании нескольких графических процессоров «в режиме мульти-башни»: ... for d in ...

1 ответ

Это потокобезопасно при использовании tf.Session в сервисе логического вывода?

4 ответа

TensorFlow: как прогнозировать из SavedModel?

ранил модель, используя tf.estimator .method export_savedmodel следующим образом: export_dir="exportModel/" feature_spec = tf.feature_column.make_parse_example_spec(feature_columns) input_receiver_fn ...

1 ответ

(1) TF имеет только один тип - байты. В основном, если вы используете имя _bytes, ожидается, что данные будут {"b64": ...}, но внутренний тип TF всегда будет байтовым, даже для "строк". (2) Возможно, вы правы в этом. Если вы попробовали приведенные выше инструкции, но они не работают, дайте мне знать, и я смогу обновить пост.

ная документация Google(см. Двоичные данные в прогнозе ввода) [https://cloud.google.com/ml-engine/docs/prediction-overview#prediction_input_data] состояния: Закодированная строка должна быть отформатирована как объект JSON с одним ключом с ...