sitemap.xml — XML-файл со списком всех канонических URL сайта для поисковиков. Содержит loc, lastmod, changefreq, priority. Лимит: 50 000 URL / 50 MB на файл. Для больших сайтов — sitemap-index с ссылками на partitioned sitemaps.
sitemap.xml — XML-файл со списком всех канонических URL сайта для поисковиков. Содержит loc, lastmod, changefreq, priority. Лимит: 50 000 URL / 50 MB на файл. Для больших сайтов — sitemap-index с ссылками на partitioned sitemaps.
robots.txt управляет тем, какие страницы видят поисковые боты. Неправильные директивы могут случайно закрыть весь сайт от индексации или, наоборот, открыть административные разделы.
Парсим robots.txt по RFC 9309: все User-agent, Allow/Disallow, Crawl-delay, Sitemap.
Введите конкретный URL и User-agent — узнаете, разрешён ли он для этого бота.
Автоматически показываем статус для GPTBot, ClaudeBot, PerplexityBot, Googlebot.
Все Sitemap: директивы в одном месте с быстрыми ссылками для проверки.
аудит краулинг-директив
проверка после деплоя
контроль индексации
защита от нежелательных краулеров
User-agent: * распространяется на всех ботов, включая AI-краулеров.Sitemap: https://example.com/sitemap.xml помогает ботам найти все страницы.История проверок robots.txt и мониторинг его изменений на вашем сайте.
Зарегистрироваться (FREE)Если работаете с веб-инфраструктурой — да. Смотрите описание выше.