попробуйте этот сценарий, который я написал, вы можете конвертировать модели keras в тензорные графы с тензорным потоком (я видел, что некоторые модели вызывают странное поведение, когда вы экспортируете их без замораживания переменных).

сейчас мы можем успешно обслуживать модели, используя Tensorflow Serving. Мы использовали следующий метод для экспорта модели и размещения ее с помощью Tensorflow Serving.

     ------------
      For exporting 
     ------------------
     from tensorflow.contrib.session_bundle import exporter

     K.set_learning_phase(0)
     export_path = ... # where to save the exported graph
     export_version = ... # version number (integer)

     saver = tf.train.Saver(sharded=True)
     model_exporter = exporter.Exporter(saver)
     signature = exporter.classification_signature(input_tensor=model.input,
                                          scores_tensor=model.output)
     model_exporter.init(sess.graph.as_graph_def(),
                default_graph_signature=signature)
     model_exporter.export(export_path, tf.constant(export_version), sess)

      --------------------------------------

      For hosting
      -----------------------------------------------

      bazel-bin/tensorflow_serving/model_servers/tensorflow_model_server --port=9000 --model_name=default --model_base_path=/serving/models

Однако наша проблема в том, что мы хотим, чтобы керасы были интегрированы с обслуживанием Tensorflow. Мы бы хотели обслуживать модель через обслуживание Tensorflow с использованием Keras. Причина, по которой мы хотели бы иметь это, заключается в том, что - в нашей архитектуре мы следуем нескольким различным способам обучения нашей модели, таким как deeplearning4j + Keras, Tensorflow + Keras, но для обслуживания мы хотели бы использовать только один обслуживаемый движок - Tensorflow Serving. Мы не видим прямого пути к этому. Любые комментарии ?

Спасибо.

Ответы на вопрос(2)

Ваш ответ на вопрос