Superar Graphdef no puede ser mayor de 2GB en Tensorflow

Estoy usando tensorflowmodelo entrenado imageNet para extraer las características de la última capa de agrupación como vectores de representación para un nuevo conjunto de datos de imágenes.

El modelo como se predice en una nueva imagen de la siguiente manera:

python classify_image.py --image_file new_image.jpeg 

Edité la función principal para poder tomar una carpeta de imágenes y devolver la predicción de todas las imágenes a la vez y escribir los vectores de características en un archivo csv. Así es como hice eso:

def main(_):
  maybe_download_and_extract()
  #image = (FLAGS.image_file if FLAGS.image_file else
  #         os.path.join(FLAGS.model_dir, 'cropped_panda.jpg'))
  #edit to take a directory of image files instead of a one file
  if FLAGS.data_folder:
    images_folder=FLAGS.data_folder
    list_of_images = os.listdir(images_folder)
  else: 
    raise ValueError("Please specify image folder")

  with open("feature_data.csv", "wb") as f:
    feature_writer = csv.writer(f, delimiter='|')

    for image in list_of_images:
      print(image) 
      current_features = run_inference_on_image(images_folder+"/"+image)
      feature_writer.writerow([image]+current_features)

Funcionó bien para alrededor de 21 imágenes, pero luego se bloqueó con el siguiente error:

  File "/usr/local/lib/python2.7/dist-packages/tensorflow/python/framework/ops.py", line 1912, in as_graph_def
    raise ValueError("GraphDef cannot be larger than 2GB.")
ValueError: GraphDef cannot be larger than 2GB.

Pensé llamando al métodorun_inference_on_image(images_folder+"/"+image) los datos de la imagen anterior se sobrescribirán para considerar solo los nuevos datos de la imagen, lo que no parece ser el caso. Cómo resolver este problema?

Respuestas a la pregunta(1)

Su respuesta a la pregunta