Error con la cuantización de 8 bits en Tensorflow

He estado experimentando con el nuevoCaracterística de cuantificación de 8 bits disponible en TensorFlow. ¡Podría ejecutar el ejemplo dado en la publicación del blog (cuantización de googlenet) sin ningún problema y me funciona bien!

Ahora, me gustaría aplicar lo mismo para una red más simple. Entonces utilicé una red pre-entrenada para CIFAR-10 (que está entrenada en Caffe), extraje sus parámetros, creé el gráfico correspondiente en el flujo de tensor, inicialicé los pesos con estos pesos pre-entrenados y finalmente lo guardé como un objeto GraphDef. Mira estoPortátil IPython para el procedimiento completo

Ahora apliqué la cuantización de 8 bits con el script de tensorflow como se menciona en el blog de Pete Warden:

bazel-bin/tensorflow/contrib/quantization/tools/quantize_graph --input=cifar.pb  --output=qcifar.pb --mode=eightbit --bitdepth=8 --output_node_names="ArgMax"

Ahora quería ejecutar la clasificación en esta red cuantizada. Así que cargué el nuevoqcifar.pb a una sesión de tensorflow y pasé la imagen (de la misma manera que la pasé a la versión original). El código completo se puede encontrar en esteCuaderno IPython.

Pero como puede ver al final, recibo el siguiente error:

NotFoundError: Op type not registered 'QuantizeV2'

¿Alguien puede sugerir qué me estoy perdiendo aquí?

Respuestas a la pregunta(1)

Su respuesta a la pregunta