Результаты поиска по запросу "google-cloud-ml"

1 ответ

Это сработало! Мне пришлось обновить версию tenorflow до 1.12.

у обучить модель примерно 2 ТБ данных изображения в хранилище gcloud. Я сохранил данные изображения в виде отдельных tfrecords и попытался использовать API данных tenorflow, следуя этому ...

1 ответ

Рад это слышать!

ледовал заэтот великий учебник [https://github.com/GoogleCloudPlatform/cloudml-samples/tree/master/census]и успешно обучил модель (на CloudML). Мой код также делает прогнозы в автономном режиме, но сейчас я пытаюсь использовать Cloud ML, чтобы ...

2 ответа

 Возможно, я упускаю что-то очевидное здесь.

несколько вопросов (примеры:1 [https://stackoverflow.com/questions/40849195/how-convert-a-jpeg-image-into-json-file-in-google-machine-learning] , ...

ТОП публикаций

1 ответ

(1) TF имеет только один тип - байты. В основном, если вы используете имя _bytes, ожидается, что данные будут {"b64": ...}, но внутренний тип TF всегда будет байтовым, даже для "строк". (2) Возможно, вы правы в этом. Если вы попробовали приведенные выше инструкции, но они не работают, дайте мне знать, и я смогу обновить пост.

ная документация Google(см. Двоичные данные в прогнозе ввода) [https://cloud.google.com/ml-engine/docs/prediction-overview#prediction_input_data] состояния: Закодированная строка должна быть отформатирована как объект JSON с одним ключом с ...

1 ответ

Спасибо :), вы правы, я отправляю JSON, чтобы делать прогнозы. То, что вы предложили, работает локально для чтения байтовых строк (когда я добавляю decode (utf-8)), но не в функции ввода, выполняемой моим оценщиком. Я обновил ОП, чтобы объяснить, почему. Из того, что я вижу, синтаксический анализ должен делать gcloud автоматически (если я правильно понял ваш ответ) не так, как ожидалось.

аюсь преобразовать закодированную строку байтов обратно в исходный массив на графике тензорного потока (используя операции тензорного потока), чтобы сделать прогноз в модели тензорного потока. Преобразование массива в байты основано на этот ответ ...

2 ответа

 Однако я получаю

ался адаптироватьreddit_tft [https://github.com/GoogleCloudPlatform/cloudml-samples/tree/master/reddit_tft] пример изОблако-мл Github образцы репо [https://github.com/GoogleCloudPlatform/cloudml-samples]на мои нужды. Я смог запустить его в ...

1 ответ

Да уж. Вам нужно будет сохранить модель с несколькими головками. Взгляните на образец переписи тензора ядра двигателя (без оценки)

я изо всех сил пытался понять, каковы основные задачи serve_input_fn (), когда обученная модель экспортируется в Tensorflow для служебных целей. В Интернете есть несколько примеров, которые объясняют это, но у меня проблемы с определением для ...

3 ответа

Здорово. Я бы посоветовал вам использовать tf.contrib.data.map_and_batch, который позволит вам избежать перегрузки службы - пакетные входы, которые вы получаете в 20 или около того, и если вы работаете на машине с несколькими ядрами, вы можете указать число параллельных партий.

я есть модель google-cloud-ml, которую я могу запустить для прогнозирования, передав 3-мерный массив float32 ... { 'instances' [ { 'input' : '[ [ [ 0.0 ], [ 0.5 ], [ 0.8 ] ] ... ] ]' } ] } Однако это неэффективный формат для передачи ...

1 ответ

Ты прав, в этом не было необходимости

1 ответ

Вам просто нужно заменить существующий файл pbtxt своим.