@ blue-phoenox, добро пожаловать

ю, что можно заморозить отдельные слои в сети, например, чтобы обучить только последние слои предварительно обученной модели. То, что я ищу, - это способ применения определенных уровней обучения к различным слоям.

Так, например, очень низкая скорость обучения - 0,000001 для первого уровня, а затем постепенно увеличивается скорость обучения для каждого из следующих уровней. Так что последний уровень затем заканчивается с уровнем обучения 0,01 или около того.

Это возможно в pytorch? Есть идеи, как мне это заархивировать?

Ответы на вопрос(1)

Ваш ответ на вопрос