Результаты поиска по запросу "tensorflow-serving"
(1) TF имеет только один тип - байты. В основном, если вы используете имя _bytes, ожидается, что данные будут {"b64": ...}, но внутренний тип TF всегда будет байтовым, даже для "строк". (2) Возможно, вы правы в этом. Если вы попробовали приведенные выше инструкции, но они не работают, дайте мне знать, и я смогу обновить пост.
ная документация Google(см. Двоичные данные в прогнозе ввода) [https://cloud.google.com/ml-engine/docs/prediction-overview#prediction_input_data] состояния: Закодированная строка должна быть отформатирована как объект JSON с одним ключом с ...
Чтобы исправить это:
ько что закончил тренировать свою модель, только чтобы узнать, что я экспортировал модель для обслуживания, у которой были проблемы с подписями. Как мне их о...
Да уж. Вам нужно будет сохранить модель с несколькими головками. Взгляните на образец переписи тензора ядра двигателя (без оценки)
я изо всех сил пытался понять, каковы основные задачи serve_input_fn (), когда обученная модель экспортируется в Tensorflow для служебных целей. В Интернете есть несколько примеров, которые объясняют это, но у меня проблемы с определением для ...
тот же ответ, что и ниже (с полным кодом) ... если у вас есть большие и более сложные модели, трудно найти имена в файле .pbtxt. Проще использовать тензорную доску и смотреть на график ...
состоит в том, чтобы открыть в Java модель, созданную / обученную на Python с
--model_name, --model_base_path игнорируются.). Отредактировано сейчас
могу использовать несколькоtensorflow модели? Я использую докер-контейнер. model_config_list: { config: { name: "model1", base_path: "/tmp/model", model_platform: "tensorflow" }, config: { name: "model2", base_path: "/tmp/model2", ...
@SumNeuron Извините, я не знаю, как это исправить
руководстве TensorFlow по использованиюГрафические процессоры [https://www.tensorflow.org/guide/using_gpu#manual_device_placement]есть часть об использовании нескольких графических процессоров «в режиме мульти-башни»: ... for d in ...
TensorFlow: как прогнозировать из SavedModel?
ранил модель, используя tf.estimator .method export_savedmodel следующим образом: export_dir="exportModel/" feature_spec = tf.feature_column.make_parse_example_spec(feature_columns) input_receiver_fn ...
На каком этапе создается тензор потока графа?
Оптимизатор обычно запускает один и тот же граф вычислений за несколько шагов до сходимости. Настраивает ли тензорный поток график в начале и повторно исполь...
@dpk, вы используете tf-запись в качестве входного набора данных для модели оценщика?
чил реснет с помощью tf.estimator, модель была сохранена в процессе обучения. Сохраненные файлы состоят из.data, .index а также.meta, Я хотел бы загрузить эту модель обратно и получить прогнозы для новых изображений. Данные были поданы на модель ...
Страница 1 из 2