У меня не было достаточно времени, чтобы просмотреть код, чтобы полностью понять, что происходит. Я думаю, что эта функция eval не вызывает ту часть кода, которую вы цитируете, потому что изображения на тензорной доске разные. Вместо того, чтобы пары левого / правого изображений отображали предсказание / ground_truth, показывается только предсказанная ограничивающая рамка.

овил до Tensorflow 1.9 & последний мастер API обнаружения объектов. При запуске сеанса обучения / оценки, который ранее работал нормально (я думаю, что версия 1.6), обучение, кажется, идет как ожидалось, но я получаю оценку и метрики только для одного изображения (первое).

В Tensorboard изображение помечено как 'Detections_Left_Groundtruth_Right'. Сам этап оценки также происходит чрезвычайно быстро, что заставляет меня поверить, что это не просто проблема Tensorboard.

Глядя в model_lib.py, я вижу некоторый подозрительный код (около строки 349):

  eval_images = (
      features[fields.InputDataFields.original_image] if use_original_images
      else features[fields.InputDataFields.image])
  eval_dict = eval_util.result_dict_for_single_example(
      eval_images[0:1],
      features[inputs.HASH_KEY][0],
      detections,
      groundtruth,
      class_agnostic=class_agnostic,
      scale_to_absolute=True)

Это читается мне так, будто оценщик всегда запускает одну оценку на первом изображении. Кто-нибудь видел и / или исправил это? Я буду обновлять, если изменение выше работает.

Ответы на вопрос(2)

Ваш ответ на вопрос