Resultados de la búsqueda a petición "tensorflow-serving"

1 la respuesta

TensorFlow en producción para predicciones en tiempo real en aplicaciones de alto tráfico: ¿cómo usarlo?

¿Cuál es la forma correcta de utilizar TensorFlow para predicciones en tiempo real en una aplicación de alto tráfico? Idealmente, tendría un servidor / clúster que ejecutara Tensorflow escuchando en uno o varios puertos donde puedo conectarme ...

1 la respuesta

¿Qué hace google cloud ml-engine cuando una solicitud Json contiene "_bytes" o "b64"?

La documentación de google cloud(Ver datos binarios en la entrada de predicción) [https://cloud.google.com/ml-engine/docs/prediction-overview#prediction_input_data] estados: Su cadena codificada debe formatearse como un objeto JSON con una sola ...

1 la respuesta

Convierta un proto de gráfico (pb / pbtxt) en un modelo guardado para utilizarlo en TensorFlow Serving o Cloud ML Engine

He estado siguiendo elTensorFlow para poetas 2 [https://codelabs.developers.google.com/codelabs/tensorflow-for-poets-2]codelab en un modelo que he entrenado y he creado un gráfico congelado y cuantificado con pesas incrustadas. Está capturado en ...

3 la respuesta

Tensorflow classifier.export_savedmodel (Principiante)

Conozco la página "Sirviendo un modelo de Tensorflow" https://www.tensorflow.org/serving/serving_basic [https://www.tensorflow.org/serving/serving_basic] pero esas funciones suponen que está usando tf.Session () que el tutorial DNNClassifier no ...

1 la respuesta

Ingrese múltiples archivos en el conjunto de datos de Tensorflow

Tengo el siguiente input_fn. def input_fn(filenames, batch_size): # Create a dataset containing the text lines. dataset = tf.data.TextLineDataset(filenames).skip(1) # Parse each line. dataset = dataset.map(_parse_line) # Shuffle, repeat, and ...

1 la respuesta

¿Cómo cambio las firmas de mi modelo guardado sin volver a entrenar el modelo?

Acabo de terminar de entrenar mi modelo solo para descubrir que exporté un modelo para servir que tenía problemas con las firmas. ¿Cómo los actualizo? (Un problema común es configurar la forma incorrecta para CloudML Engine).

1 la respuesta

¿Es seguro para subprocesos cuando se usa tf.Session en el servicio de inferencia?

Ahora hemos usado TensorFlow para entrenar y exportar un modelo. Podemos implementar el servicio de inferencia con este modelo de la misma manera quetensorflow/serving hace. Tengo una pregunta sobre si eltf.Session El objeto es seguro para ...

1 la respuesta

¿Cómo puedo usar el servicio de tensorflow para múltiples modelos?

¿Cómo puedo usar múltiplestensorflow modelos? Yo uso el contenedor docker. model_config_list: { config: { name: "model1", base_path: "/tmp/model", model_platform: "tensorflow" }, config: { name: "model2", base_path: "/tmp/model2", ...

2 la respuesta

Restauración de un modelo entrenado con tf.estimator y alimentación de entrada a través de feed_dict

Entrené un resnet con tf.estimator, el modelo se guardó durante el proceso de entrenamiento. Los archivos guardados consisten en.data, .index y.meta. Me gustaría volver a cargar este modelo y obtener predicciones para nuevas imágenes. Los datos ...

1 la respuesta

¿Cómo hacer lotes en Tensorflow Serving?

Implementé Tensorflow Serving y ejecuté la prueba para Inception-V3. Funciona bien. Ahora, me gustaría hacer lotes para servir para Inception-V3. P.ej. quisiera enviar 10 imágenes para predicción en lugar de una. ¿Como hacer eso? ¿Qué archivos ...