Resultados de la búsqueda a petición "tensorflow-serving"

4 la respuesta

Cargando el modelo sklearn en Java. Modelo creado con DNNClassifier en python

El objetivo es abrir en Java un modelo creado / entrenado en python contensorflow.contrib.learn.learn.DNNClassifier. Por el momento, el problema principal es saber el nombre del "tensor" para dar en Java en el método de corredor de ...

1 la respuesta

¿Qué hace google cloud ml-engine cuando una solicitud Json contiene "_bytes" o "b64"?

La documentación de google cloud(Ver datos binarios en la entrada de predicción) [https://cloud.google.com/ml-engine/docs/prediction-overview#prediction_input_data] estados: Su cadena codificada debe formatearse como un objeto JSON con una sola ...

2 la respuesta

En Tensorflow para servir un modelo, ¿qué se supone que hace exactamente la función de entrada de servicio?

Por lo tanto, he estado luchando por comprender cuáles son las tareas principales de un serving_input_fn () cuando un modelo entrenado se exporta en Tensorflow para fines de publicación. Hay algunos ejemplos en línea que lo explican, pero tengo ...

1 la respuesta

¿Cómo puedo usar el servicio de tensorflow para múltiples modelos?

¿Cómo puedo usar múltiplestensorflow modelos? Yo uso el contenedor docker. model_config_list: { config: { name: "model1", base_path: "/tmp/model", model_platform: "tensorflow" }, config: { name: "model2", base_path: "/tmp/model2", ...

1 la respuesta

¿Cómo hacer lotes en Tensorflow Serving?

Implementé Tensorflow Serving y ejecuté la prueba para Inception-V3. Funciona bien. Ahora, me gustaría hacer lotes para servir para Inception-V3. P.ej. quisiera enviar 10 imágenes para predicción en lugar de una. ¿Como hacer eso? ¿Qué archivos ...

1 la respuesta

¿Cómo cambio las firmas de mi modelo guardado sin volver a entrenar el modelo?

Acabo de terminar de entrenar mi modelo solo para descubrir que exporté un modelo para servir que tenía problemas con las firmas. ¿Cómo los actualizo? (Un problema común es configurar la forma incorrecta para CloudML Engine).

2 la respuesta

Restauración de un modelo entrenado con tf.estimator y alimentación de entrada a través de feed_dict

Entrené un resnet con tf.estimator, el modelo se guardó durante el proceso de entrenamiento. Los archivos guardados consisten en.data, .index y.meta. Me gustaría volver a cargar este modelo y obtener predicciones para nuevas imágenes. Los datos ...

4 la respuesta

Cómo importar un tren modelo Tensorflow guardado usando tf.estimator y predecir datos de entrada

He guardado el modelo usando tf.estimator .method export_savedmodel de la siguiente manera: export_dir="exportModel/" feature_spec = tf.feature_column.make_parse_example_spec(feature_columns) input_receiver_fn ...

2 la respuesta

¿Cómo mantener las tablas de búsqueda inicializadas para la predicción (y no solo el entrenamiento)?

Creo una tabla de búsqueda detf.contrib.lookup [https://www.tensorflow.org/api_docs/python/tf/contrib/lookup], utilizando los datos de entrenamiento (como entrada). Luego, paso cada entrada a través de esa tabla de búsqueda, antes de pasarla por ...

3 la respuesta

Tensorflow classifier.export_savedmodel (Principiante)

Conozco la página "Sirviendo un modelo de Tensorflow" https://www.tensorflow.org/serving/serving_basic [https://www.tensorflow.org/serving/serving_basic] pero esas funciones suponen que está usando tf.Session () que el tutorial DNNClassifier no ...