Resultados da pesquisa a pedido "tensorflow-serving"

1 a resposta

TensorFlow em produção para previsões em tempo real no aplicativo de alto tráfego - como usar?

Qual é a maneira correta de usar o TensorFlow para previsões em tempo real em um aplicativo de alto tráfego. Idealmente, eu teria um servidor / cluster executando o tensorflow ouvindo em uma (s) porta (s) onde posso conectar-me a partir de ...

1 a resposta

É seguro para threads ao usar o tf.Session no serviço de inferência?

Agora usamos o TensorFlow para treinar e exportar um modelo. Podemos implementar o serviço de inferência com este modelo, exatamente comotensorflow/serving faz. Eu tenho uma pergunta sobre se otf.Session objeto é thread-safe ou não. Se ...

1 a resposta

Como fazer lotes no Tensorflow Serving?

Implantou o Tensorflow Serving e executou o teste para o Inception-V3. Funciona bem. Agora, gostaria de fazer um lote para veiculação no Inception-V3. Por exemplo. gostaria de enviar 10 imagens para previsão em vez de uma. Como fazer isso? ...

1 a resposta

Como altero as assinaturas do meu SavedModel sem treinar novamente o modelo?

Acabei de treinar meu modelo apenas para descobrir que exportei um modelo para veiculação que apresentava problemas com as assinaturas. Como atualizá-los? (Um problema comum é definir a forma errada para o CloudML Engine).

1 a resposta

Converter um proto de gráfico (pb / pbtxt) em um SavedModel para uso no TensorFlow Serving ou Cloud ML Engine

Eu tenho seguido oTensorFlow para poetas 2 [https://codelabs.developers.google.com/codelabs/tensorflow-for-poets-2]codelab em um modelo que eu treinei e criei um gráfico quantizado congelado com pesos incorporados. É capturado em um único arquivo ...

1 a resposta

Como posso usar o serviço tensorflow para vários modelos

Como posso usar váriostensorflow modelos? Eu uso o container docker. model_config_list: { config: { name: "model1", base_path: "/tmp/model", model_platform: "tensorflow" }, config: { name: "model2", base_path: "/tmp/model2", model_platform: ...

1 a resposta

O que o google cloud ml-engine faz quando uma solicitação Json contém "_bytes" ou "b64"?

A documentação do Google Cloud(consulte Dados binários na entrada de previsão) [https://cloud.google.com/ml-engine/docs/prediction-overview#prediction_input_data] afirma: Sua cadeia codificada deve ser formatada como um objeto JSON com uma única ...

1 a resposta

Insira vários arquivos no conjunto de dados do Tensorflow

Eu tenho o seguinte input_fn. def input_fn(filenames, batch_size): # Create a dataset containing the text lines. dataset = tf.data.TextLineDataset(filenames).skip(1) # Parse each line. dataset = dataset.map(_parse_line) # Shuffle, repeat, and ...

1 a resposta

TensorFlow v1.10 + carregar o SavedModel com posicionamento de dispositivo diferente ou definir manualmente o posicionamento dinâmico do dispositivo?

Então, no guia do TensorFlow para usar GPUs [https://www.tensorflow.org/guide/using_gpu#manual_device_placement] existe uma parte sobre o uso de várias GPUs de uma forma "multi-torre": ... for d in ['/device:GPU:2', '/device:GPU:3']: with ...

2 a resposta

Em que estágio está configurado um gráfico de fluxo tensorial?

Um otimizador normalmente executa o mesmo gráfico de computação por várias etapas até a convergência. O tensorflow configura o gráfico no início e o reutiliza em todas as etapas? E se eu alterar o tamanho do lote durante o treinamento? E se eu ...