Здорово. Я бы посоветовал вам использовать tf.contrib.data.map_and_batch, который позволит вам избежать перегрузки службы - пакетные входы, которые вы получаете в 20 или около того, и если вы работаете на машине с несколькими ядрами, вы можете указать число параллельных партий.

я есть модель google-cloud-ml, которую я могу запустить для прогнозирования, передав 3-мерный массив float32 ...

{ 'instances' [ { 'input' : '[ [ [ 0.0 ], [ 0.5 ], [ 0.8 ] ] ... ] ]' } ] }

Однако это неэффективный формат для передачи изображений, поэтому я бы хотел передать кодированный в base64 png или jpeg.Этот документ говорит о том, как это сделать, но неясно, как выглядит весь объект json. Ли{ 'b64' : 'x0welkja...' } пойти на место'[ [ [ 0.0 ], [ 0.5 ], [ 0.8 ] ] ... ] ]'оставить одинаковые «экземпляры» и «входные данные» одинаковыми? Или какая-то другая структура? Или модель тензорного потока должна бытьобученный на base64?

Ответы на вопрос(3)

Ваш ответ на вопрос