Resultados da pesquisa a pedido "tensorflow-serving"

1 a resposta

Como posso usar o serviço tensorflow para vários modelos

Como posso usar váriostensorflow modelos? Eu uso o container docker. model_config_list: { config: { name: "model1", base_path: "/tmp/model", model_platform: "tensorflow" }, config: { name: "model2", base_path: "/tmp/model2", model_platform: ...

4 a resposta

Como importar um trem de modelo salvo do Tensorflow usando tf.estimator e prever dados de entrada

Eu salvei o modelo usando tf.estimator .method export_savedmodel da seguinte maneira: export_dir="exportModel/" feature_spec = tf.feature_column.make_parse_example_spec(feature_columns) input_receiver_fn ...

3 a resposta

Tensorflow classifier.export_savedmodel (Iniciante)

Conheço a página "Servindo um modelo de fluxo de tensor" https://www.tensorflow.org/serving/serving_basic [https://www.tensorflow.org/serving/serving_basic] mas essas funções assumem que você está usando tf.Session () que o tutorial ...

2 a resposta

No Tensorflow para servir um modelo, o que a função de entrada de servir deveria fazer exatamente

Portanto, tenho me esforçado para entender quais são as principais tarefas de um serving_input_fn () quando um modelo treinado é exportado no Tensorflow para fins de veiculação. Existem alguns exemplos online que explicam isso, mas estou tendo ...

1 a resposta

TensorFlow v1.10 + carregar o SavedModel com posicionamento de dispositivo diferente ou definir manualmente o posicionamento dinâmico do dispositivo?

Então, no guia do TensorFlow para usar GPUs [https://www.tensorflow.org/guide/using_gpu#manual_device_placement] existe uma parte sobre o uso de várias GPUs de uma forma "multi-torre": ... for d in ['/device:GPU:2', '/device:GPU:3']: with ...

1 a resposta

Insira vários arquivos no conjunto de dados do Tensorflow

Eu tenho o seguinte input_fn. def input_fn(filenames, batch_size): # Create a dataset containing the text lines. dataset = tf.data.TextLineDataset(filenames).skip(1) # Parse each line. dataset = dataset.map(_parse_line) # Shuffle, repeat, and ...

2 a resposta

Restaurando um modelo treinado com tf.estimator e alimentando entrada por meio de feed_dict

Treinei uma rede com o tf.estimator, o modelo foi salvo durante o processo de treinamento. Os arquivos salvos consistem em.data, .index e.meta. Gostaria de carregar este modelo de volta e obter previsões para novas imagens. Os dados foram ...

2 a resposta

FAILED_PRECONDITION do Google Cloud ML

Estou tentando usar o Google Cloud ML para hospedar um modelo de fluxo de tensão e obter previsões. Eu tenho um modelo pré-treinado que carreguei na nuvem e criei um modelo e uma versão no meu console do Cloud ML. Eu segui as ...

1 a resposta

TensorFlow em produção para previsões em tempo real no aplicativo de alto tráfego - como usar?

Qual é a maneira correta de usar o TensorFlow para previsões em tempo real em um aplicativo de alto tráfego. Idealmente, eu teria um servidor / cluster executando o tensorflow ouvindo em uma (s) porta (s) onde posso conectar-me a partir de ...

2 a resposta

Servindo modelos Keras com serviço Tensorflow

No momento, podemos servir modelos com sucesso usando o Tensorflow Serving. Usamos o seguinte método para exportar o modelo e hospedá-lo com o Tensorflow Serving. ------------ For exporting ------------------ ...