Результаты поиска по запросу "tensorflow-serving"

1 ответ

Вам просто нужно заменить существующий файл pbtxt своим.

1 ответ

(1) TF имеет только один тип - байты. В основном, если вы используете имя _bytes, ожидается, что данные будут {"b64": ...}, но внутренний тип TF всегда будет байтовым, даже для "строк". (2) Возможно, вы правы в этом. Если вы попробовали приведенные выше инструкции, но они не работают, дайте мне знать, и я смогу обновить пост.

ная документация Google(см. Двоичные данные в прогнозе ввода) [https://cloud.google.com/ml-engine/docs/prediction-overview#prediction_input_data] состояния: Закодированная строка должна быть отформатирована как объект JSON с одним ключом с ...

1 ответ

Это потокобезопасно при использовании tf.Session в сервисе логического вывода?

ТОП публикаций

1 ответ

 пример с данными и пояснениями:

ю о странице «Обслуживание модели Tensorflow» https://www.tensorflow.org/serving/serving_basic [https://www.tensorflow.org/serving/serving_basic] но эти функции предполагают, что вы используете tf.Session (), чего нет в учебнике DNNClassifier ...

1 ответ

 создает новый набор данных из каждого элемента исходного набора данных, читая содержимое файла и пропуская первую строку.

я есть следующий input_fn. def input_fn(filenames, batch_size): # Create a dataset containing the text lines. dataset = tf.data.TextLineDataset(filenames).skip(1) # Parse each line. dataset = dataset.map(_parse_line) # Shuffle, repeat, and batch ...

1 ответ

Чтобы исправить это:

ько что закончил тренировать свою модель, только чтобы узнать, что я экспортировал модель для обслуживания, у которой были проблемы с подписями. Как мне их о...

1 ответ

 --model_name, --model_base_path игнорируются.). Отредактировано сейчас

могу использовать несколькоtensorflow модели? Я использую докер-контейнер. model_config_list: { config: { name: "model1", base_path: "/tmp/model", model_platform: "tensorflow" }, config: { name: "model2", base_path: "/tmp/model2", ...

2 ответа

Я думаю, что это должен быть правильный ответ. «tf.saved_model.main_op.main_op», кажется, не работает должным образом и делает результат случайным

даю таблицу поиска из

4 ответа

тот же ответ, что и ниже (с полным кодом) ... если у вас есть большие и более сложные модели, трудно найти имена в файле .pbtxt. Проще использовать тензорную доску и смотреть на график ...

состоит в том, чтобы открыть в Java модель, созданную / обученную на Python с

2 ответа

попробуйте этот сценарий, который я написал, вы можете конвертировать модели keras в тензорные графы с тензорным потоком (я видел, что некоторые модели вызывают странное поведение, когда вы экспортируете их без замораживания переменных).