Рад это слышать!

ледовал заэтот великий учебник и успешно обучил модель (на CloudML). Мой код также делает прогнозы в автономном режиме, но сейчас я пытаюсь использовать Cloud ML, чтобы делать прогнозы и у меня есть некоторые проблемы.

Для развертывания моей модели я следовалэтот урок, Теперь у меня есть код, который генерируетTFRecords черезapache_beam.io.WriteToTFRecord и я хочу делать прогнозы для тех,TFRecords, Для этого я следуюэта статьяМоя команда выглядит так:

gcloud ml-engine jobs submit prediction $JOB_ID --model $MODEL --input-paths gs://"$FILE_INPUT".gz --output-path gs://"$OUTPUT"/predictions --region us-west1 --data-format TF_RECORD_GZIP

Но я получаю только ошибки:'Exception during running the graph: Expected serialized to be a scalar, got shape: [64]

Похоже, что ожидают данные в другом формате. Я нашел спецификации формата для JSONВот, но не смог найти, как это сделать с TFrecords.

ОБНОВЛЕНИЕ: вот выводsaved_model_cli show --all --dir

MetaGraphDef with tag-set: 'serve' contains the following SignatureDefs:

signature_def['prediction']:
  The given SavedModel SignatureDef contains the following input(s):
    inputs['example_proto'] tensor_info:
    dtype: DT_STRING
    shape: unknown_rank
    name: input:0
  The given SavedModel SignatureDef contains the following output(s):
    outputs['probability'] tensor_info:
    dtype: DT_FLOAT
    shape: (1, 1)
    name: probability:0
  Method name is: tensorflow/serving/predict

signature_def['serving_default']:
  The given SavedModel SignatureDef contains the following input(s):
    inputs['example_proto'] tensor_info:
    dtype: DT_STRING
    shape: unknown_rank
    name: input:0
  The given SavedModel SignatureDef contains the following output(s):
    outputs['probability'] tensor_info:
    dtype: DT_FLOAT
    shape: (1, 1)
    name: probability:0
  Method name is: tensorflow/serving/predict

Ответы на вопрос(1)

Ваш ответ на вопрос