У меня не было достаточно времени, чтобы просмотреть код, чтобы полностью понять, что происходит. Я думаю, что эта функция eval не вызывает ту часть кода, которую вы цитируете, потому что изображения на тензорной доске разные. Вместо того, чтобы пары левого / правого изображений отображали предсказание / ground_truth, показывается только предсказанная ограничивающая рамка.
овил до Tensorflow 1.9 & последний мастер API обнаружения объектов. При запуске сеанса обучения / оценки, который ранее работал нормально (я думаю, что версия 1.6), обучение, кажется, идет как ожидалось, но я получаю оценку и метрики только для одного изображения (первое).
В Tensorboard изображение помечено как 'Detections_Left_Groundtruth_Right'. Сам этап оценки также происходит чрезвычайно быстро, что заставляет меня поверить, что это не просто проблема Tensorboard.
Глядя в model_lib.py, я вижу некоторый подозрительный код (около строки 349):
eval_images = (
features[fields.InputDataFields.original_image] if use_original_images
else features[fields.InputDataFields.image])
eval_dict = eval_util.result_dict_for_single_example(
eval_images[0:1],
features[inputs.HASH_KEY][0],
detections,
groundtruth,
class_agnostic=class_agnostic,
scale_to_absolute=True)
Это читается мне так, будто оценщик всегда запускает одну оценку на первом изображении. Кто-нибудь видел и / или исправил это? Я буду обновлять, если изменение выше работает.