Resultados de la búsqueda a petición "tensorflow-serving"

1 la respuesta

TensorFlow v1.10 + ¿cargar el modelo guardado con una ubicación diferente en el dispositivo o establecer manualmente la ubicación dinámica del dispositivo?

Así que en la guía de TensorFlow para usar GPU [https://www.tensorflow.org/guide/using_gpu#manual_device_placement] hay una parte sobre el uso de múltiples GPU en una "forma de múltiples torres": ... for d in ['/device:GPU:2', '/device:GPU:3']: ...

1 la respuesta

Ingrese múltiples archivos en el conjunto de datos de Tensorflow

Tengo el siguiente input_fn. def input_fn(filenames, batch_size): # Create a dataset containing the text lines. dataset = tf.data.TextLineDataset(filenames).skip(1) # Parse each line. dataset = dataset.map(_parse_line) # Shuffle, repeat, and ...

1 la respuesta

¿Qué hace google cloud ml-engine cuando una solicitud Json contiene "_bytes" o "b64"?

La documentación de google cloud(Ver datos binarios en la entrada de predicción) [https://cloud.google.com/ml-engine/docs/prediction-overview#prediction_input_data] estados: Su cadena codificada debe formatearse como un objeto JSON con una sola ...

2 la respuesta

Restauración de un modelo entrenado con tf.estimator y alimentación de entrada a través de feed_dict

Entrené un resnet con tf.estimator, el modelo se guardó durante el proceso de entrenamiento. Los archivos guardados consisten en.data, .index y.meta. Me gustaría volver a cargar este modelo y obtener predicciones para nuevas imágenes. Los datos ...

2 la respuesta

En Tensorflow para servir un modelo, ¿qué se supone que hace exactamente la función de entrada de servicio?

Por lo tanto, he estado luchando por comprender cuáles son las tareas principales de un serving_input_fn () cuando un modelo entrenado se exporta en Tensorflow para fines de publicación. Hay algunos ejemplos en línea que lo explican, pero tengo ...

4 la respuesta

Cómo importar un tren modelo Tensorflow guardado usando tf.estimator y predecir datos de entrada

He guardado el modelo usando tf.estimator .method export_savedmodel de la siguiente manera: export_dir="exportModel/" feature_spec = tf.feature_column.make_parse_example_spec(feature_columns) input_receiver_fn ...

1 la respuesta

¿Cómo puedo usar el servicio de tensorflow para múltiples modelos?

¿Cómo puedo usar múltiplestensorflow modelos? Yo uso el contenedor docker. model_config_list: { config: { name: "model1", base_path: "/tmp/model", model_platform: "tensorflow" }, config: { name: "model2", base_path: "/tmp/model2", ...

3 la respuesta

Tensorflow classifier.export_savedmodel (Principiante)

Conozco la página "Sirviendo un modelo de Tensorflow" https://www.tensorflow.org/serving/serving_basic [https://www.tensorflow.org/serving/serving_basic] pero esas funciones suponen que está usando tf.Session () que el tutorial DNNClassifier no ...

1 la respuesta

Convierta un proto de gráfico (pb / pbtxt) en un modelo guardado para utilizarlo en TensorFlow Serving o Cloud ML Engine

He estado siguiendo elTensorFlow para poetas 2 [https://codelabs.developers.google.com/codelabs/tensorflow-for-poets-2]codelab en un modelo que he entrenado y he creado un gráfico congelado y cuantificado con pesas incrustadas. Está capturado en ...

2 la respuesta

¿Cómo mantener las tablas de búsqueda inicializadas para la predicción (y no solo el entrenamiento)?

Creo una tabla de búsqueda detf.contrib.lookup [https://www.tensorflow.org/api_docs/python/tf/contrib/lookup], utilizando los datos de entrenamiento (como entrada). Luego, paso cada entrada a través de esa tabla de búsqueda, antes de pasarla por ...