Resultados da pesquisa a pedido "tensorflow-serving"

4 a resposta

Carregando o modelo sklearn em Java. Modelo criado com DNNClassifier em python

O objetivo é abrir em Java um modelo criado / treinado em python comtensorflow.contrib.learn.learn.DNNClassifier. No momento, a questão principal é saber o nome do "tensor" para fornecer java no método do corredor de sessão. Eu tenho esse ...

4 a resposta

Como importar um trem de modelo salvo do Tensorflow usando tf.estimator e prever dados de entrada

Eu salvei o modelo usando tf.estimator .method export_savedmodel da seguinte maneira: export_dir="exportModel/" feature_spec = tf.feature_column.make_parse_example_spec(feature_columns) input_receiver_fn ...

2 a resposta

Servindo modelos Keras com serviço Tensorflow

No momento, podemos servir modelos com sucesso usando o Tensorflow Serving. Usamos o seguinte método para exportar o modelo e hospedá-lo com o Tensorflow Serving. ------------ For exporting ------------------ ...

1 a resposta

O que o google cloud ml-engine faz quando uma solicitação Json contém "_bytes" ou "b64"?

A documentação do Google Cloud(consulte Dados binários na entrada de previsão) [https://cloud.google.com/ml-engine/docs/prediction-overview#prediction_input_data] afirma: Sua cadeia codificada deve ser formatada como um objeto JSON com uma única ...

1 a resposta

Insira vários arquivos no conjunto de dados do Tensorflow

Eu tenho o seguinte input_fn. def input_fn(filenames, batch_size): # Create a dataset containing the text lines. dataset = tf.data.TextLineDataset(filenames).skip(1) # Parse each line. dataset = dataset.map(_parse_line) # Shuffle, repeat, and ...

1 a resposta

TensorFlow em produção para previsões em tempo real no aplicativo de alto tráfego - como usar?

Qual é a maneira correta de usar o TensorFlow para previsões em tempo real em um aplicativo de alto tráfego. Idealmente, eu teria um servidor / cluster executando o tensorflow ouvindo em uma (s) porta (s) onde posso conectar-me a partir de ...

2 a resposta

Em que estágio está configurado um gráfico de fluxo tensorial?

Um otimizador normalmente executa o mesmo gráfico de computação por várias etapas até a convergência. O tensorflow configura o gráfico no início e o reutiliza em todas as etapas? E se eu alterar o tamanho do lote durante o treinamento? E se eu ...

1 a resposta

TensorFlow v1.10 + carregar o SavedModel com posicionamento de dispositivo diferente ou definir manualmente o posicionamento dinâmico do dispositivo?

Então, no guia do TensorFlow para usar GPUs [https://www.tensorflow.org/guide/using_gpu#manual_device_placement] existe uma parte sobre o uso de várias GPUs de uma forma "multi-torre": ... for d in ['/device:GPU:2', '/device:GPU:3']: with ...