Если сайт не индексируется, его страницы фактически не участвуют в поиске. Они могут быть опубликованы, красиво оформлены, заполнены текстами, добавлены в меню и даже отправлены в sitemap, но для поисковой системы их как будто нет. А если страницы не в поиске, они не получают органический трафик, не приводят пользователей и не помогают бизнесу.

Проблема может быть простой: сайт закрыт от индексации, стоит noindex, robots.txt запрещает обход, sitemap содержит не те URL, страницы отдают неправильный статус или canonical указывает на другой адрес. Но бывает сложнее: поисковик видит страницу, обходит её, но не добавляет в индекс из-за дублей, слабого качества, нехватки внутренней перелинковки, технических ошибок или низкой ценности контента.

Важно понимать разницу: поисковая система сначала должна найти URL, потом просканировать страницу, потом решить, стоит ли добавлять её в индекс. Google отдельно описывает crawling и indexing как процессы, связанные с тем, как поисковая система находит, обрабатывает и показывает контент в поиске. У Яндекса sitemap тоже используется как способ сообщить поисковому роботу о текущей структуре сайта.

Почему это важно

Индексация — это входной билет страницы в поиск. Если страницы нет в индексе, она не будет нормально ранжироваться по запросам. Можно улучшать текст, менять Title, ставить внутренние ссылки, покупать рекламу, писать статьи и радоваться красивым карточкам в WordPress, но органический поиск такую страницу всё равно не покажет.

Для владельца сайта проблема выглядит просто: «страницы не в поиске». Для SEO-специалиста это уже набор возможных причин: страница не найдена, запрещена к обходу, закрыта от индексации, имеет дубль, отдаёт ошибку, неправильно канонизирована, не попала в sitemap, не связана внутренними ссылками или не соответствует качеству, которое поисковик хочет хранить в индексе.

СимптомЧто это может означать
Новая страница долго не появляется в поискепоисковик ещё не нашёл или не проиндексировал URL
Страница есть в sitemap, но не в индексеsitemap не гарантирует индексацию
Страница закрыта в Search Console или Вебмастереесть технический запрет или проблема качества
В поиске отображается другой URLcanonical, дубль или выбранная поисковиком версия
В индексе только часть сайтаслабая структура, crawl budget, дубли, noindex, robots
Google индексирует, а Яндекс нетразные правила обхода, качество, региональность, robots, sitemap
Яндекс индексирует, а Google нетразные алгоритмы, технические сигналы, качество, canonical

Сама по себе sitemap не является кнопкой «проиндексировать всё». Она помогает поисковикам узнать о страницах, но не заставляет их добавлять каждый URL в индекс. Поэтому при проблемах нужно проверять не только наличие sitemap, а всю цепочку: доступность страницы, статус-код, robots.txt, noindex, canonical, внутренние ссылки, качество контента и техническое состояние сайта.

Типовые причины

Первая причина — страница закрыта от индексации через noindex. В Google noindex может быть задан через meta-тег или HTTP-заголовок, и такая страница не должна появляться в результатах поиска. При этом Google подчёркивает важную деталь: чтобы робот увидел noindex, страница должна быть доступна для обхода, то есть не заблокирована robots.txt.

Вторая причина — robots.txt запрещает обход. Google описывает robots.txt как файл, который говорит поисковым роботам, какие URL они могут запрашивать; при этом robots.txt не является надёжным способом убрать страницу из результатов поиска, для этого нужен noindex или защита доступа. У Яндекса robots.txt тоже используется для управления параметрами индексирования и ограничения обхода страниц роботами.

Третья причина — неправильный canonical. Если canonical указывает на другую страницу, поисковик может считать текущий URL дублем и выбрать другой адрес для индекса. Это нормально для дублей, но плохо, если canonical настроен случайно или шаблонно.

Четвёртая причина — дубли страниц. Один и тот же контент может быть доступен по нескольким URL: со слэшем и без, с параметрами, через категории, теги, пагинацию, фильтры, UTM, http/https, www/без www. Google рекомендует указывать канонический URL для дублей, но финальный выбор canonical может оставаться за поисковой системой.

Пятая причина — страница возвращает неправильный статус. Например, 404, 403, 500, бесконечный редирект, цепочка редиректов или временный 302 вместо постоянного 301. Для пользователя это может быть незаметно, а для поискового робота это уже сигнал, что страницу нельзя нормально обработать.

Шестая причина — страница не связана с сайтом. URL есть, но на него почти нет внутренних ссылок. Такая страница может оказаться «сиротой»: она опубликована, но поисковому роботу сложно её найти через структуру сайта. Sitemap помогает, но внутренняя перелинковка всё равно важна.

Седьмая причина — слабое качество или низкая уникальная ценность страницы. Поисковик может обойти страницу, но не добавить её в индекс, если считает её дублем, тонким контентом, технической страницей, пустой карточкой, архивом без пользы или страницей, которая не даёт самостоятельной ценности.

ПричинаГде искать
noindexHTML-код, HTTP-заголовки, SEO-плагин, настройки CMS
robots.txtфайл /robots.txt, Яндекс Вебмастер, Search Console
Ошибка sitemapsitemap.xml, отчёты поисковых систем
Неверный canonicalкод страницы, SEO-плагин, шаблон
Дублипараметры URL, теги, категории, фильтры
Ошибки статуса404, 403, 500, редиректы
Нет внутренних ссылокменю, статьи, категории, карточки
Слабый контенткачество страницы, интент, структура
Медленная загрузкаскорость, сервер, изображения, скрипты
Новый сайтпоисковики ещё не накопили сигналов

Как проверить

Проверять индексацию нужно по шагам. Не надо сразу менять robots.txt, sitemap, canonical и SEO-плагин одновременно. Так можно быстро превратить одну проблему в пять, зато с ощущением активной работы.

1. Проверить, есть ли страница в поиске

Начните с простого запроса:

site:example.com/page-url/

И отдельно проверьте домен:

site:example.com

Это не идеальный инструмент диагностики, но он быстро показывает, видит ли поисковик хотя бы часть сайта. Для точной проверки используйте Google Search Console и Яндекс Вебмастер.

Что проверитьГде смотреть
Есть ли страница в GoogleGoogle Search Console, оператор site
Есть ли страница в ЯндексеЯндекс Вебмастер, оператор site
Когда была последняя проверкаотчёты поисковых систем
Какой URL выбран основнымданные canonical и индексирования

Для отдельной инструкции можно использовать материал как проверить индексацию сайта.

2. Проверить статус страницы

Страница должна отдавать корректный 200 OK, если она должна индексироваться. Если URL отдаёт 404, 403, 500, редирект или цепочку редиректов, индексация может не произойти.

СтатусЧто означает
200страница доступна
301постоянный редирект
302временный редирект
403доступ запрещён
404страница не найдена
500ошибка сервера
503временная недоступность

3. Проверить robots.txt

Откройте /robots.txt и посмотрите, не закрыты ли важные разделы. Особенно часто проблемы появляются после разработки, тестового режима, переноса сайта или неаккуратной настройки SEO-плагинов.

Что искатьПочему важно
Disallow: /может закрыть весь сайт
закрытие /wp-content/может мешать ресурсам
закрытие важных разделовуслуги и статьи могут не обходиться
разные правила для Googlebot и Yandexпоисковики могут видеть сайт по-разному
отсутствие sitemap-директивыне критично, но лучше указать sitemap

Подробно эту тему лучше раскрывать отдельно через статью robots.txt простыми словами.

4. Проверить noindex

Проверьте HTML-код страницы и HTTP-заголовки. Иногда noindex появляется из-за настроек SEO-плагина, шаблона, закрытого типа записи, тестового режима или случайной галочки в админке.

Где может быть noindexЧто проверить
meta robotsкод страницы
X-Robots-TagHTTP-заголовки
SEO-плагиннастройки страницы и типа записей
WordPressнастройка «попросить поисковые системы не индексировать сайт»
шаблонусловный вывод meta-тегов

5. Проверить sitemap

Sitemap должен содержать только актуальные канонические URL, которые действительно должны индексироваться. Яндекс указывает, что sitemap сообщает поисковику о текущей структуре сайта и может быть передан через robots.txt или интерфейс Яндекс Вебмастера.

Что проверить в sitemapНорма
Страница есть в sitemapда, если она важна
URL отдаёт 200да
Нет noindexда
Нет редиректажелательно
Нет дублейда
URL каноническийда
Sitemap отправлен в панелижелательно

6. Проверить canonical

Если страница должна индексироваться сама, canonical должен указывать на неё же. Если canonical указывает на другую страницу, поисковик может не добавить текущий URL в индекс как самостоятельную страницу.

СитуацияЧто делать
canonical на себянормально
canonical на другую страницупроверить, действительно ли это дубль
canonical отсутствуетне всегда ошибка, но лучше контролировать
canonical ведёт на 404исправить
canonical ведёт на редиректисправить на конечный URL

7. Проверить качество страницы

Если технических запретов нет, но страница всё равно не индексируется, нужно смотреть содержание и ценность. Особенно это актуально для массовых страниц, тегов, фильтров, пустых категорий, похожих услуг, сгенерированных статей, дублей и слабых страниц без конкретики.

Что оценитьВопрос
Уникальностьстраница не дублирует другие?
Интентотвечает ли она запросу пользователя?
Полнотадостаточно ли информации?
Структураесть ли H1, H2, логика блоков?
Внутренние ссылкиесть ли переходы на страницу и с неё?
Коммерческие элементыесть ли CTA, контакты, доверие?
Техническая чистотанет ли ошибок загрузки и рендера?

Если проблема затрагивает много страниц, лучше не гадать по одной. В такой ситуации помогает SEO-аудит сайта: он позволяет проверить индексацию, структуру, семантику, технические ограничения, дубли и приоритеты исправлений.

Частые ошибки

Первая ошибка — думать, что добавление страницы в sitemap гарантирует индексацию. Sitemap помогает поисковику найти URL, но не заставляет его хранить страницу в индексе. Если страница закрыта, слабая, дублирующая или технически проблемная, sitemap её не спасёт.

Вторая ошибка — закрывать страницу в robots.txt и одновременно ставить noindex. Для Google это может работать не так, как ожидает владелец сайта: если робот не может обойти страницу из-за robots.txt, он может не увидеть noindex.

Третья ошибка — массово менять robots.txt без понимания. Одной строкой можно закрыть важный раздел, картинки, стили, скрипты или весь сайт. Потом сайт «почему-то» не индексируется. Конечно, почему-то. Просто роботу вежливо закрыли дверь и удивились, что он не зашёл.

Четвёртая ошибка — не проверять WordPress-настройки. В WordPress есть настройка видимости для поисковых систем. Плюс SEO-плагины могут ставить noindex для типов записей, архивов, тегов, категорий, медиа-страниц и отдельных материалов.

Пятая ошибка — путать отсутствие индексации с плохими позициями. Страница может быть в индексе, но ранжироваться низко. Это уже другая задача: контент, интент, конкуренты, ссылки, структура и качество страницы. Если страница не находится даже по site:, это один тип проблемы. Если она есть, но не в топе, другой.

Шестая ошибка — проверять только Google и забывать Яндекс, или наоборот. Для русскоязычных проектов часто важны обе системы. У них могут отличаться скорость обхода, реакция на robots.txt, качество страниц, региональность и выбранные версии URL.

ОшибкаЧто делать вместо этого
Полагаться только на sitemapпроверять всю цепочку индексации
Закрывать всё в robots.txtзакрывать только технически ненужное
Игнорировать noindexпроверять meta и HTTP-заголовки
Не смотреть canonicalпроверять выбранную основную страницу
Путать индексацию и позициисначала понять, есть ли страница в индексе
Менять всё сразуисправлять по шагам и фиксировать изменения
Не проверять Яндекссмотреть обе поисковые системы

Что исправлять в первую очередь

Если сайт не индексируется или часть страниц не в поиске, сначала нужно убрать технические запреты и ошибки. Потом уже улучшать контент, структуру и внутренние ссылки.

Блок приоритетов работ

ПриоритетЧто исправлятьПочему это важно
Критичносайт закрыт от индексации целикомпоисковики не видят важные страницы
Критичноважные страницы с noindexстраницы не попадут в поиск
Критичноrobots.txt закрывает нужные разделыробот не может обойти URL
Критичностраницы отдают 404, 403, 500индексация невозможна или нестабильна
Высокийcanonical указывает не тудапоисковик выбирает другой URL
Высокийsitemap содержит мусор или не содержит важные URLробот получает неправильную карту сайта
Высокийдубли и параметры создают хаоспоисковик не понимает основную версию
Среднийслабая внутренняя перелинковкастраницы труднее находить и оценивать
Среднийтонкий или дублирующий контентпоисковик может не добавить страницу
Низкиймелкие SEO-предупрежденияисправлять после критичных проблем

Если проблема массовая, например не индексируется весь сайт, услуги, статьи или новый раздел, лучше не ограничиваться одной правкой. Нужна связка: проверить robots.txt, noindex, sitemap, canonical, статусы, структуру, качество страниц и данные в панелях вебмастеров.

Если причина выглядит технической, есть смысл подключить технический аудит сайта. Он помогает найти проблемы с доступностью, статусами, редиректами, sitemap, robots.txt, скоростью, дублями, canonical и общей технической базой.

Мягкий переход к основной услуге здесь простой: когда страницы не в поиске, важно не просто «переотправить URL», а понять, почему поисковые системы их не берут. Для этого и нужен SEO-аудит: он показывает, где техническая проблема, где проблема структуры, а где страница просто не даёт поиску достаточной ценности.