Skip to content

Валидатор robots.txt и Sitemap

Проверьте синтаксис robots.txt, правила обхода и доступность карт сайта

Коротко:

Проверка robots.txt — парсер читает файл, показывает, какие User-agent разрешены/запрещены, выделяет типичные ошибки (неправильный синтаксис, блокировка важных путей, CSS/JS в Disallow). Проверяет правильность sitemap-ссылок и Clean-param директивы для Яндекса.

Проверка robots.txt

Инструмент анализирует файл robots.txt вашего сайта, который управляет доступом поисковых роботов к страницам. Проверяются правила для всех user-agent, директивы Allow/Disallow, Crawl-delay, ссылки на Sitemap. Некорректный robots.txt может привести к деиндексации важных страниц или открытию служебных разделов.

Частые ошибки в robots.txt: блокировка CSS/JS файлов (ломает рендеринг для Google), отсутствие директивы Sitemap, Allow/Disallow без начального слеша и конфликтующие правила для одного пути. Наш валидатор находит эти проблемы и показывает, какие URL заблокированы для каждого User-Agent.

Всегда тестируйте изменения robots.txt перед деплоем — одна опечатка может деиндексировать весь сайт. После валидации проверьте битые ссылки, чтобы заблокированные страницы не ссылались из активного контента. Проверьте заголовки безопасности для защиты чувствительных путей.

robots.txt парсингПолный разбор директив Allow/Disallow
URL тестРазрешён ли конкретный URL для бота
Sitemap-ссылкиВсе Sitemap: директивы в файле
AI-краулерыGPTBot, ClaudeBot и другие AI-боты

Почему нам доверяют

Live
проверка robots.txt
UA
любой User-Agent
Sitemap
ссылки на sitemap
Free
без регистрации

Как это работает

1

Введите URL сайта

2

Парсим robots.txt

3

Проверьте правила краулинга

Зачем проверять robots.txt?

robots.txt управляет тем, какие страницы видят поисковые боты. Неправильные директивы могут случайно закрыть весь сайт от индексации или, наоборот, открыть административные разделы.

Полный парсинг

Парсим robots.txt по RFC 9309: все User-agent, Allow/Disallow, Crawl-delay, Sitemap.

URL-тестер

Введите конкретный URL и User-agent — узнаете, разрешён ли он для этого бота.

AI-краулеры

Автоматически показываем статус для GPTBot, ClaudeBot, PerplexityBot, Googlebot.

Sitemap-список

Все Sitemap: директивы в одном месте с быстрыми ссылками для проверки.

Кому это нужно

SEO-специалисты

аудит краулинг-директив

Разработчики

проверка после деплоя

Маркетологи

контроль индексации

Владельцы сайтов

защита от нежелательных краулеров

Частые ошибки

Disallow: / для всего сайтаЭто закрывает весь сайт от индексации. Проверяйте robots.txt после каждого изменения.
Блокировать AI без пониманияБлокировка GPTBot лишает ваш сайт цитирований в ChatGPT и Perplexity.
Не указывать SitemapБез Sitemap: директивы боты должны угадывать URL ситемапа. Всегда указывайте явно.
Конфликтующие правилаAllow и Disallow на одни URL у разных User-agent создают непредсказуемое поведение.

Лучшие практики

Тестируйте после каждого измененияОдин неверный символ в robots.txt может закрыть весь раздел от индексации.
Используйте * осторожноUser-agent: * распространяется на всех ботов, включая AI-краулеров.
Всегда указывайте SitemapSitemap: https://example.com/sitemap.xml помогает ботам найти все страницы.
Проверяйте с помощью Google Search ConsoleGSC показывает, как Google видит ваш robots.txt, включая ошибки парсинга.

Получите больше с бесплатным аккаунтом

История проверок robots.txt и мониторинг его изменений на вашем сайте.

Зарегистрироваться (FREE)

Больше по теме

Часто задаваемые вопросы

Что такое robots.txt?

robots.txt — текстовый файл в корне сайта, указывающий поисковым роботам, какие страницы можно или нельзя индексировать. Это рекомендация, а не принудительная блокировка — недобросовестные боты могут его игнорировать.

Чем robots.txt отличается от meta robots?

robots.txt блокирует краулинг (робот не зайдёт на страницу). Meta robots (noindex) блокирует индексацию (робот зайдёт, но не добавит в индекс). Для полной блокировки нужны оба. Если robots.txt блокирует страницу, робот не увидит meta noindex.

Как правильно указать Sitemap в robots.txt?

Добавьте строку Sitemap: https://example.com/sitemap.xml в конец файла. URL должен быть абсолютным. Можно указать несколько sitemap. Это помогает роботам быстрее найти карту сайта.

Что такое Crawl-delay?

Crawl-delay — директива robots.txt, задающая паузу между запросами робота в секундах. Yandex и Bing поддерживают её. Google игнорирует Crawl-delay — скорость краулинга Google настраивается в Search Console.

Какие частые ошибки в robots.txt?

Типичные ошибки: блокировка CSS/JS файлов (мешает рендерингу), Disallow: / (блокирует весь сайт), отсутствие файла (робот считает всё разрешённым), блокировка /api/ без Allow для /api/docs, неправильный регистр User-agent.

Как проверить robots.txt?

Наш инструмент анализирует синтаксис, проверяет доступность файла, находит конфликтующие правила и предупреждает о потенциальных проблемах. Также можно использовать Google Search Console для проверки конкретных URL.

Сохраняйте и следите за URL Бесплатный аккаунт · проверки 24/7 · уведомления в Telegram, email, Slack — регистрация чтобы мониторить любой URL.
Бесплатная регистрация

Автоматизируйте эту проверку

Настройте continuous monitoring и получайте алерт, когда что-то сломается. Не нужно помнить запускать вручную.