Может ли запретить весь сайт robots.txt иметь последствия после удаления?

Я опубликовал веб-сайт, и из-за недопонимания, не зависящего от меня, мне пришлось заблокировать все страницы перед индексацией. Некоторые из этих страниц уже были связаны в социальных сетях, поэтому, чтобы избежать плохого пользовательского опыта, я решил вставить следующий код в «robots.txt»

User-agent: *
Disallow: *

Я получил оповещение о «критической проблеме» в инструментах для веб-мастеров, и меня это немного беспокоит. По вашему опыту, будет ли достаточно (когда это возможно) восстановить оригинальный файл "robots.txt"? Может ли текущая ситуация оставить на веб-сайте последствия (штрафные санкции и т. П.), Если они сохраняются в течение длительного времени (и если да, то как я могу это исправить) ?. Извините, если вопрос может показаться немного общим, но я не могу найти конкретные ответы. Заранее спасибо.

Ответы на вопрос(2)

Ваш ответ на вопрос