Resultados da pesquisa a pedido "tensorflow-serving"
Como posso usar o serviço tensorflow para vários modelos
Como posso usar váriostensorflow modelos? Eu uso o container docker. model_config_list: { config: { name: "model1", base_path: "/tmp/model", model_platform: "tensorflow" }, config: { name: "model2", base_path: "/tmp/model2", model_platform: ...
Como importar um trem de modelo salvo do Tensorflow usando tf.estimator e prever dados de entrada
Eu salvei o modelo usando tf.estimator .method export_savedmodel da seguinte maneira: export_dir="exportModel/" feature_spec = tf.feature_column.make_parse_example_spec(feature_columns) input_receiver_fn ...
Tensorflow classifier.export_savedmodel (Iniciante)
Conheço a página "Servindo um modelo de fluxo de tensor" https://www.tensorflow.org/serving/serving_basic [https://www.tensorflow.org/serving/serving_basic] mas essas funções assumem que você está usando tf.Session () que o tutorial ...
No Tensorflow para servir um modelo, o que a função de entrada de servir deveria fazer exatamente
Portanto, tenho me esforçado para entender quais são as principais tarefas de um serving_input_fn () quando um modelo treinado é exportado no Tensorflow para fins de veiculação. Existem alguns exemplos online que explicam isso, mas estou tendo ...
TensorFlow v1.10 + carregar o SavedModel com posicionamento de dispositivo diferente ou definir manualmente o posicionamento dinâmico do dispositivo?
Então, no guia do TensorFlow para usar GPUs [https://www.tensorflow.org/guide/using_gpu#manual_device_placement] existe uma parte sobre o uso de várias GPUs de uma forma "multi-torre": ... for d in ['/device:GPU:2', '/device:GPU:3']: with ...
Insira vários arquivos no conjunto de dados do Tensorflow
Eu tenho o seguinte input_fn. def input_fn(filenames, batch_size): # Create a dataset containing the text lines. dataset = tf.data.TextLineDataset(filenames).skip(1) # Parse each line. dataset = dataset.map(_parse_line) # Shuffle, repeat, and ...
Restaurando um modelo treinado com tf.estimator e alimentando entrada por meio de feed_dict
Treinei uma rede com o tf.estimator, o modelo foi salvo durante o processo de treinamento. Os arquivos salvos consistem em.data, .index e.meta. Gostaria de carregar este modelo de volta e obter previsões para novas imagens. Os dados foram ...
FAILED_PRECONDITION do Google Cloud ML
Estou tentando usar o Google Cloud ML para hospedar um modelo de fluxo de tensão e obter previsões. Eu tenho um modelo pré-treinado que carreguei na nuvem e criei um modelo e uma versão no meu console do Cloud ML. Eu segui as ...
TensorFlow em produção para previsões em tempo real no aplicativo de alto tráfego - como usar?
Qual é a maneira correta de usar o TensorFlow para previsões em tempo real em um aplicativo de alto tráfego. Idealmente, eu teria um servidor / cluster executando o tensorflow ouvindo em uma (s) porta (s) onde posso conectar-me a partir de ...
Servindo modelos Keras com serviço Tensorflow
No momento, podemos servir modelos com sucesso usando o Tensorflow Serving. Usamos o seguinte método para exportar o modelo e hospedá-lo com o Tensorflow Serving. ------------ For exporting ------------------ ...
Página 1 do 2