Проверьте, доступен ли файл robots.txt на вашем сайте, не блокирует ли он важные страницы и содержит ли ссылку на карту сайта
Это проверка только robots.txt. Чтобы проверить страницу по всем параметрам — воспользуйтесь полной проверкой страницы.
Вы также можете проверить весь сайт. Дубли title и description, orphan-страницы, битые ссылки между разделами и другие системные проблемы можно найти только при проверке всего сайта.
Если у вас нет SEO-специалиста — мы поможем исправить найденные ошибки.
Файл robots.txt — это текстовый файл в корне сайта, который указывает поисковым роботам, какие страницы можно сканировать, а какие нельзя. Яндекс и Google обращаются к этому файлу перед тем, как начать обход сайта.
Минимальный корректный файл robots.txt:
User-agent: *Disallow:Sitemap: https://example.com/sitemap.xml
Пустое значение Disallow означает, что сканирование разрешено для всех страниц. Директива Sitemap помогает поисковикам быстрее найти карту сайта.
Disallow: / — весь сайт закрыт от индексации