Результаты поиска по запросу "tensorflow-serving"

2 ответа

@dpk, вы используете tf-запись в качестве входного набора данных для модели оценщика?

чил реснет с помощью tf.estimator, модель была сохранена в процессе обучения. Сохраненные файлы состоят из.data, .index а также.meta, Я хотел бы загрузить эту модель обратно и получить прогнозы для новых изображений. Данные были поданы на модель ...

1 ответ

Вам просто нужно заменить существующий файл pbtxt своим.

4 ответа

TensorFlow: как прогнозировать из SavedModel?

ранил модель, используя tf.estimator .method export_savedmodel следующим образом: export_dir="exportModel/" feature_spec = tf.feature_column.make_parse_example_spec(feature_columns) input_receiver_fn ...

ТОП публикаций

1 ответ

(1) TF имеет только один тип - байты. В основном, если вы используете имя _bytes, ожидается, что данные будут {"b64": ...}, но внутренний тип TF всегда будет байтовым, даже для "строк". (2) Возможно, вы правы в этом. Если вы попробовали приведенные выше инструкции, но они не работают, дайте мне знать, и я смогу обновить пост.

ная документация Google(см. Двоичные данные в прогнозе ввода) [https://cloud.google.com/ml-engine/docs/prediction-overview#prediction_input_data] состояния: Закодированная строка должна быть отформатирована как объект JSON с одним ключом с ...

4 ответа

тот же ответ, что и ниже (с полным кодом) ... если у вас есть большие и более сложные модели, трудно найти имена в файле .pbtxt. Проще использовать тензорную доску и смотреть на график ...

состоит в том, чтобы открыть в Java модель, созданную / обученную на Python с

1 ответ

TensorFlow в производстве для прогнозов в реальном времени в приложении с высоким трафиком - как использовать?

1 ответ

Мне трудно представить, как выглядит ваш код из описания. Можете ли вы опубликовать свой текущий код как редактирование вопроса, вместе с полным стеком трассировки ошибки?

ртывание Tensorflow Serving и запуск теста для Inception-V3. Работает отлично.Теперь хотелось бы сделать дозировку для подачи на Inception-V3. Например. хоте...

1 ответ

 --model_name, --model_base_path игнорируются.). Отредактировано сейчас

могу использовать несколькоtensorflow модели? Я использую докер-контейнер. model_config_list: { config: { name: "model1", base_path: "/tmp/model", model_platform: "tensorflow" }, config: { name: "model2", base_path: "/tmp/model2", ...

2 ответа

Я думаю, что это должен быть правильный ответ. «tf.saved_model.main_op.main_op», кажется, не работает должным образом и делает результат случайным

даю таблицу поиска из

2 ответа

попробуйте этот сценарий, который я написал, вы можете конвертировать модели keras в тензорные графы с тензорным потоком (я видел, что некоторые модели вызывают странное поведение, когда вы экспортируете их без замораживания переменных).