Худший момент для технического аудита - когда команда уже сидит внутри падения, а у SEO-специалиста на руках только график с минусом и срочное требование «вернуть как было». Лучший момент - раньше, когда симптомы только копятся: бот ходит не туда, важные страницы уходят глубже, sitemap устаревает, а JS-шаблоны постепенно расщепляют индекс на то, что видит пользователь, и то, что видит Google. И главный смысл аудита здесь простой: не собрать 70 замечаний, а найти 3 точки роста или 3 точки падения, которые реально двигают результат.

Сигнал 01
1 сайт

Может одновременно выглядеть «нормально» по трафику и уже быть технически нестабильным по логам, индексу и глубине обхода.

Сигнал 02
3 слоя

Техаудит в 2026 году - это не только HTML. Нужно проверять серверное поведение, состав индекса и то, как сайт рендерится после JavaScript.

Сигнал 03
0 смысла

Чинить CWV или мета-теги бессмысленно, если бот тратит сканирование на мусорные URL, а коммерческие страницы висят в изоляции.

Хороший техаудит находит 3 точки роста или 3 точки падения

Это главный фильтр качества. Если после проверки вы получили длинный список без трёх ключевых узлов, аудит не собрал управляемую модель. Ниже формат, в котором это должно выглядеть.

3 точки падения
Index bloat мусорные URL -> слабый обход денег
Render gap пользователь видит больше, чем бот
Link decay важные URL висят глубоко и без веса
3 точки роста
Очистка индекса бот быстрее доходит до приоритетных сегментов
Стабильный SSR-слой ключевой контент становится предсказуемым для поиска
Пересборка перелинковки PageRank и кластерная видимость работают на деньги

Зачем техаудит нужен именно сейчас, а не «когда упадёт трафик»

Падение трафика почти никогда не начинается в тот день, когда вы его замечаете в аналитике. Обычно это финальная стадия длинной цепочки. Сначала сайт меняет шаблон, затем растёт число параметрических URL, потом sitemap продолжает отдавать уже неактуальные страницы, затем каноникал начинает конфликтовать с пагинацией, а в какой-то момент бот перестает регулярно доходить до тех страниц, которые должны приносить рост.

В 2026 году цикл деградации стал короче по двум причинам. Сайты чаще работают на тяжёлых JS-стеках, где индексируемость зависит не только от HTML, но и от того, что успело дорисоваться после гидрации. Плюс крупные проекты быстрее копят архитектурный долг: фильтры, сортировки, фасеты и сервисные страницы размывают фокус обхода быстрее, чем команда успевает это заметить.

До падения

Вы ещё видите приемлемый трафик, но Googlebot уже обходит много вторичных URL, а ключевые разделы сканируются реже, чем должны.

Во время падения

Команда лечит то, что легче увидеть: title, descriptions, мелкие 404 и единичные правки шаблона, хотя системный источник потери уже глубже.

После

Возврат стоит дороже, потому что нужно не просто исправить ошибку, а ещё и заново заслужить регулярный обход, ререндер и доверие к исправленным URL.

Практический смысл техаудита сейчас: он ловит не только баги, но и будущие потери. Хороший аудит должен отвечать на вопрос, где сайт копит технический долг быстрее, чем команда успевает его замечать.
Рабочий принцип: если после аудита у вас нет списка из 3 главных точек роста или 3 главных точек падения, значит аудит, скорее всего, остался на уровне описания симптомов, а не дошёл до управленческого решения.

Чек-лист техаудита: 6 зон контроля

1. Краулинг и индексация
  • Понять, какие типы URL бот обходит чаще всего и не уходит ли ресурс в мусорные сегменты.
  • Сопоставить логи, sitemap и реальные внутренние ссылки.
  • Найти orphan pages, изолированные разделы и страницы, живущие только за счёт карты сайта.
2. Robots.txt и sitemap.xml
  • Проверить, не режет ли robots.txt важные URL или новые шаблоны после релизов.
  • Убедиться, что в sitemap нет 404, 3xx, noindex и каноникализированных дублей.
  • Посмотреть, отражает ли структура sitemap текущую SEO-стратегию, а не архив CMS, и не конфликтуют ли `noindex` / `x-robots-tag` с индексируемым слоем.
3. Canonical, редиректы, дубли
  • Проверить, не конфликтует ли canonical с перелинковкой, sitemap и реальной ролью URL.
  • Найти цепочки редиректов, петли и исторические миграционные костыли.
  • Разделить дубли на три класса: оставить в индексе, оставить crawlable, убрать из фокуса.
4. JavaScript SEO и рендеринг
  • Сравнить `view-source`, rendered DOM и пользовательский экран.
  • Понять, не появляется ли ключевой контент, ссылки и FAQ только после гидрации.
  • Проверить, подходит ли текущий режим SSR / CSR / ISR для SEO-критичных шаблонов, особенно если у сайта 10 000+ JS-страниц.
5. Core Web Vitals
  • Выявить реальный LCP-элемент и причины CLS на мобильных шаблонах.
  • Проверить тяжёлые фильтры, формы и виджеты на предмет проблем с INP.
  • Свести полевые данные GSC и лабораторные данные в один вывод по шаблонам и не ставить CWV выше проблем индексации, дублей и рендеринга.
6. Перелинковка и архитектура
  • Измерить глубину залегания важных страниц и сравнить её с их бизнес-ролью.
  • Понять, какие кластеры получают внутренний вес, а какие изолированы, и доходят ли ссылки до money pages.
  • Собрать итог в 3 точки роста или 3 точки падения и уже от них строить бэклог.

Раздел 1. Краулинг и индексация

Это стартовый модуль. Если здесь все собрано плохо, остальные улучшения ослабевают. Я почти всегда начинаю с вопроса не «какие ошибки есть», а «на что бот тратит внимание и что из этого реально попадает в индекс».

Панели вебмастеров

Начинать лучше не со слепого краула, а с того, что уже видят сами поисковые системы.

  • Google Search Console: Crawl Stats и Page Indexing
  • Яндекс Вебмастер: Crawl statistics, Check URL Status, Reindex pages
  • Bing Webmaster Tools: URL Inspection
Логи

Без логов вы видите только потенциальную архитектуру, а не реальное поведение бота.

  • raw access logs сервера
  • Screaming Frog Log File Analyser
  • сопоставление логов с шаблонами URL и кодами ответа
Краулеры

Нужны, чтобы связать индексируемость с внутренней архитектурой.

  • Screaming Frog SEO Spider
  • сравнение crawl discovery и sitemap discovery
  • поиск orphan pages через crawl + XML + inlinks

Как Googlebot проходит сайт

Эта цепочка выглядит простой, но именно на переходах между узлами чаще всего и прячутся будущие потери.

robots.txtне режет ли важные сегменты
sitemapотдаёт ли только актуальные URL
crawlходит ли бот туда, где деньги
renderвидит ли он тот же контент
canonicalне ломает ли главный URL-сигнал
indexостаётся ли в поиске то, что нужно

Crawl budget: как понять, что Googlebot теряет страницы

У большинства сайтов проблема не в том, что crawl budget закончился как абстрактная квота, а в том, что он распределяется не в пользу ключевых сегментов. Бот может тратить сессии на фильтры, внутренний поиск, сортировки, дубль-страницы пагинации, устаревшие URL после миграций и технические хабы, которые не должны конкурировать за внимание с категориями или статьями.

Проверяйте частоту обхода по типам URL, а не только суммарное число запросов. Сравните, как часто бот заходит в денежные разделы, в справочные страницы, в фильтры и в URL с параметрами. Если коммерческие категории или свежие статьи сканируются реже, чем служебные ветки, это уже не «нормальная статистика», а сигнал о плохом распределении ресурса.

Что сравнить при анализе crawl budget
Коммерческие категории
Должны быть сверху
Статьи / хабы
Регулярный обход
Параметры / фильтры
Нужно снижать
Внутренний поиск
Лучше исключать

Файлы crawl-логов: что искать и как читать

Логи полезны тем, что убирают иллюзию. По ним видно не то, как вам кажется, а то, как робот действительно ходит по сайту. Ищите три вещи: какие сегменты получают больше всего запросов, какие страницы бот переобходит слишком часто и где есть URL, на которые робот возвращается, но они не дают ценности.

Смотрите user-agent, частоту обращений, коды ответа, глубину URL-паттернов и разрывы по времени. Если важный раздел обновлялся, а бот почти не пришёл, это один сценарий. Если бот сжигает тысячи запросов на бесконечные параметры и 301-цепочки, это другой сценарий. В обоих случаях лог нужен не для красивой таблицы, а чтобы найти ненормальное распределение обхода.

Что выгрузить

Сырые access-логи хотя бы за 7-14 дней и разметить URL по шаблонам.

  • Googlebot / Googlebot Smartphone
  • Коды ответа 200 / 3xx / 4xx / 5xx
  • Частота по типам URL
Что искать

Переобход мусорных сегментов и слабый обход приоритетных страниц.

  • частые обращения к фильтрам
  • заходы в внутренний поиск
  • 301-цепочки в логах
Что делать дальше

Связать логи с индексом, а не рассматривать их отдельно.

  • убрать лишние точки входа
  • усилить внутренние ссылки
  • актуализировать sitemap

Orphan pages и дыры в архитектуре

Orphan page - это не просто страница без внутренних ссылок в Screaming Frog. Это страница, которая существует для CMS, для sitemap или для случайного внешнего входа, но не встроена в живую архитектуру сайта. Такие URL легко теряются: бот может знать о них, но не считать их устойчиво важными.

Сопоставьте crawl, экспорт внутренних ссылок и sitemap. Если страница есть в карте сайта, но на неё нельзя нормально дойти из навигации, подборок, хлебных крошек, списков или контекстных ссылок, это архитектурная дыра. Особенно опасно, когда orphan становятся статьи под спрос, фильтрные посадочные или коммерческие URL после редизайна.

Раздел 2. Robots.txt и sitemap.xml

Этот блок часто недооценивают, потому что robots.txt и sitemap.xml кажутся базовой техничкой, которую уже кто-то однажды настроил. Но именно здесь живут самые неприятные ошибки: случайно закрытые папки, устаревшие директивы, битые URL в карте, расхождение между желаемым и реальным индексируемым слоем и просто неверный синтаксис правил. Частая ошибка: `*` ставят машинально, хотя в конце он обычно не нужен, а корректное правило должно начинаться с `/`.

Для robots.txt
  • Яндекс Вебмастер: инструменты проверки robots и доступности страниц
  • Google Search Console: robots.txt report
  • ручная проверка live-версии файла в браузере
Для sitemap.xml
  • Google Search Console: Sitemaps report
  • Яндекс Вебмастер: Sitemap files
  • Screaming Frog: загрузка sitemap и проверка URL из карты сайта
Для валидации
  • проверка XML-синтаксиса любым XML validator
  • проверка URL из sitemap на 200/3xx/4xx
  • сравнение sitemap с noindex и canonical-слоем

Типичные ошибки в robots.txt, которые режут индексацию

Классическая ошибка - блокировка не того паттерна. Один неосторожный `Disallow`, и вы режете не только служебные URL, но и часть продуктовых страниц. Часто это происходит после доработок на шаблонах, когда новые URL подпадают под старые правила, написанные под другую структуру сайта.

Вторая проблема - вера в то, что robots.txt умеет всё. Он регулирует обход, но не заменяет мета-директивы, canonical и нормальную архитектуру индекса. Если дубли уже внешне доступны и на них ведут внутренние ссылки, только robots.txt редко решает вопрос системно. Он может даже скрыть проблему от краулера, но не убрать ее причину.

Ошибка Как выглядит Чем опасна Что проверить
Слишком широкий `Disallow` Закрыт шаблон, под который попали и важные URL Проседает обход и индексация нужных разделов Тест rules по типовым URL вручную и в инструментах
Нет `Sitemap:` Карта существует, но не объявлена явно Поиск медленнее получает сигнал о составе важных URL Наличие актуальной ссылки на карту
Старые техправила Файл не обновлялся после редизайна или миграции Блокируются уже другие разделы и паттерны Сопоставить с текущей архитектурой
Логика вместо архитектуры Через robots.txt пытаются скрыть дубли, которые сами создают Проблема остаётся и проявляется в других точках Canonical, редиректы, параметры, перелинковку

Sitemap: структура, частота, актуальность URL

Хорошая карта сайта - это не dump всех URL из базы, а curated-слой того, что вы хотите видеть в индексе. В sitemap не должно быть 404, временных редиректов, noindex-страниц, каноникализированных дублей и URL, которые уже не играют роли в росте. Карта должна отражать текущую стратегию сайта, а не архив CMS.

Если сайт крупный, разделяйте sitemap по логике: категории, статьи, карточки, регионы. Так проще ловить рассинхрон. Если новости обновляются часто, а коммерческие разделы редко, лучше видеть это в модульной структуре, а не в одном большом файле. Самая частая проблема проста: карта есть, но её состав давно никто не ревизировал.

Noindex, X-Robots-Tag и soft 404: забытый слой индексации

Между `robots.txt` и `canonical` есть ещё один критичный слой: meta robots, `x-robots-tag` в HTTP-заголовках и soft 404. Именно здесь часто возникают тихие конфликты. Страница может быть доступна для обхода, попадать в sitemap, получать внутренние ссылки и при этом не индексироваться из-за `noindex`, заголовочного `x-robots-tag` или потому, что для Google она выглядит как низкоценная и фактически пустая.

Soft 404 особенно опасны на шаблонных и фильтрных страницах. Формально сервер отдаёт `200`, но поисковик видит тонкий, повторяющийся или бессмысленный слой контента и перестаёт воспринимать URL как полноценную страницу. Поэтому в техаудите важно проверять не только код ответа, но и реальную ценность шаблона.

Проблема Как выглядит Что проверить
`noindex` в HTML Страница доступна и связана, но исключается из индекса Screaming Frog Directives, URL Inspection, raw HTML
`x-robots-tag` в заголовках Директива не видна на странице, но приходит с сервера `curl -I`, DevTools Network, серверные конфиги
Soft 404 Есть `200`, но страница пустая, шаблонная или малоценная GSC Page Indexing, шаблонный анализ, контент и intent

Раздел 3. Canonical, редиректы, дубли

Это сердце технической чистоты сайта. Если canonical, редиректы и дубли живут в конфликте, вы получаете размытый сигнал о том, какой URL считать главным. А когда поисковик сам начинает принимать это решение за вас, контроль над индексом резко падает.

Для canonical
  • Google Search Console URL Inspection
  • Screaming Frog: Canonicals, Directives, Indexability
  • ручная сверка HTML, sitemap и внутренних ссылок
Для редиректов
  • Redirect Path extension by Ayima
  • `curl -I` или DevTools Network
  • Screaming Frog: Redirect Chains report
Для дублей
  • Screaming Frog: duplicate URLs, near-duplicates, parameters
  • выгрузка индексации по шаблонам из GSC
  • сопоставление фильтров, пагинации и search-intent вручную

Canonical: когда помогает, когда игнорируется

Canonical - это подсказка, а не приказ. Он помогает, когда страница-донор действительно похожа на основную, когда контент и роль URL понятны, а внутренняя логика сайта не противоречит этому сигналу. Если же вы ставите canonical с фильтра на категорию, но при этом активно ссылаетесь на фильтр, держите его в sitemap и даете ему отдельный title, поисковик получает смешанное сообщение.

Canonical чаще всего игнорируют там, где сайт сам показывает, что дубликат для него важен: есть сильная перелинковка, внешние ссылки, отдельная навигационная роль, заметные различия в контенте или историческая индексация альтернативного URL. Поэтому canonical надо проверять не строкой в HTML, а в составе всей архитектуры.

Ситуация Canonical сработает Canonical проигнорируют
Почти идентичные URL Контент совпадает, внутренние ссылки ведут на основной адрес Дубль живёт своей жизнью и получает отдельные сигналы
Фильтр → категория Фильтр не продвигается и не усилен архитектурой Фильтр в sitemap, меню, хабах или имеет внешний спрос
Параметрический URL Параметр служебный и не меняет смысл страницы Параметр создаёт отдельную выборку и отдельный intent

Цепочки редиректов и петли

Один лишний редирект редко ломает проект, но массовые цепочки постоянно жгут краулинг и замедляют пересборку индекса. Особенно плохо, когда наслаиваются миграции, http/https-правила, слеши, языковые версии и временные костыли после релизов.

Проверьте не только факт 301, но и длину маршрута. Цель - короткий путь от старого URL к актуальному конечному адресу. Если видите 301 → 302 → 200 или циклический возврат через промежуточный паттерн, это уже задача в высокий приоритет. Такие штуки редко заметны пользователю, но отлично видны в логах и краулере.

Что считать нормой
  • 1 редирект до конечного URL
  • везде один канонический формат адреса
  • без скачков между 301 и 302
Что тревожит
  • `http -> https -> slash -> final`
  • возвраты на старые паттерны после релизов
  • перекрестные редиректы между шаблонами
Что делать
  • собирать правила в один маршрут
  • убирать временные костыли после релиза
  • проверять старые миграционные карты

Дублированный контент: параметры, фильтры, пагинация

Большинство дублей сегодня рождается не из копипаста, а из шаблонной логики. Параметры сортировки, фасеты, пагинация, псевдо-посадочные под фильтры и сервисные комбинации создают десятки похожих URL, которые конкурируют за обход и канонический статус. Важно не только найти дубли, но и решить, какой тип страницы вообще должен жить как индексируемый актив.

Начинать нужно с классификации URL: какие фильтры реально несут спрос, какие страницы пагинации помогают только обходу, какие параметры могут быть crawlable, но не должны индексироваться. Это полезнее, чем просто пометить список дублей в Excel.

Оставить в индексе
Только спрос
Фильтры и фасеты должны жить в индексе только если у них есть самостоятельный поисковый intent и поддержка архитектурой.
Оставить crawlable
Служебные
Пагинация и часть параметров могут быть полезны для обхода, но не обязаны становиться индексируемыми активами.
Убрать из фокуса
Мусор
Комбинации без спроса и ценности должны перестать забирать внутренний вес, карту сайта и внимание бота.

Раздел 4. JavaScript SEO и рендеринг

В 2026 году этот раздел уже нельзя считать нишевым. Даже «обычные» маркетинговые сайты часто работают на фреймворках, где часть контента появляется после загрузки JS. Визуально всё может быть хорошо, а для краулера страница окажется пустой, урезанной или собранной с задержкой, из-за которой критичные блоки не попадают в рендер-слой своевременно.

Google давно говорит, что умеет рендерить JavaScript. Формально это верно, но из этого часто делают неверный вывод, будто проблем уже нет. На деле рендеринг не мгновенный. В документации Google Search Central прямо сказано, что страницы ставятся в отдельную очередь и обрабатываются once Google’s resources allow. То есть сам Google подтверждает: всё упирается в доступные мощности.

Мой практический вывод: если у сайта нет сильного авторитета, явной популярности и при этом у вас 10 000+ страниц на тяжёлом JS-рендере, нельзя рассчитывать, что Google будет охотно тратить вычислительные ресурсы на полное понимание всех этих URL. Особенно если контент средний, шаблонный или слабо отличается между страницами. Это уже не вопрос “умеет ли Google рендерить”, а вопрос “зачем ему тратить на вас столько CPU”.

Это подтверждают и сильные специалисты. В AMA Sam Torres для Sitebulb прямо сказано, что у Google есть отдельные crawl queue и rendering queue. Исследования Onely показывают, что JS-зависимый контент требует кратно больше усилий для discovery и crawl. А в другом разборе Onely отдельно подчёркивает: Google учитывает CPU cost рендеринга, а тяжёлые скрипты могут приводить к partial indexing.

Если у вас 10 000+ JS-страниц
  • выносите SEO-критичные шаблоны в SSR или ISR
  • не плодите индексируемые URL без самостоятельной ценности
  • упрощайте HTML first layer для важных страниц
Что не делать
  • не рассчитывать, что Google доберётся до всего автоматически
  • не держать ключевой контент только за поздней гидрацией
  • не масштабировать тонкие JS-шаблоны без спроса и авторитета
Что считать хорошим исходом
  • поисковик видит важные блоки уже в базовом HTML
  • рендеринг нужен для улучшения UX, а не для появления смысла страницы
  • количество тяжёлых SEO-URL сознательно ограничено

Разрыв между тем, что видит пользователь, и тем, что видит бот

Одна из самых дорогих иллюзий в техаудите: интерфейс кажется полным, но индексируемый слой уже пустеет или приходит с задержкой.

User View
видит hero, карточки, фильтры, FAQ
получает интерактив после гидрации
не замечает, что часть блоков пришла поздно
Bot View
может получить урезанный HTML
может не дождаться критичных блоков
может увидеть меньше ссылок и контента, чем человек

Как понять, что Google видит не то, что видит пользователь

Сравнивайте исходный HTML, рендеренную DOM-версию и пользовательский экран. Если ключевой контент, ссылки, тексты, таблицы, блоки FAQ, товары или навигация появляются только после исполнения JS, задайте себе простой вопрос: успевают ли они стабильно доходить до поискового рендера и не завязаны ли они на пользовательские события.

Тревожный признак - когда важные элементы видны человеку, но отсутствуют в `view-source`, в статическом крауле или в инструментах проверки URL. Тогда нужно разбираться, что именно выполняется поздно: запросы к API, клиентские роуты, lazy-blocks, аккордеоны, подгрузка карточек, хлебные крошки или навигационные ссылки.

Слой проверки Что видите Что это значит
View Source Контента нет Критичный текст зависит от JS и требует отдельной проверки рендера
Rendered DOM Контент появляется поздно Есть риск, что бот получает его нестабильно или с задержкой
Пользовательский экран Всё выглядит нормально UI может маскировать пустой или слабый SEO-слой

SSR, CSR, ISR — что выбирать и почему это влияет на индексацию

Для SEO вопрос не в моде стека, а в предсказуемости доставки контента. SSR обычно дает самый понятный базовый HTML и быстрее снижает риск пустых страниц. CSR удобен в продуктовой разработке, но повышает требования к рендерингу и может скрывать контент за гидрацией. ISR занимает промежуточное положение: он полезен там, где страницы должны быть заранее доступны, но при этом регулярно обновляться.

Выбор зависит от типа сайта. Для крупных каталогов, хабов, региональных посадочных и статей, где индексируемый слой должен быть стабилен, лучше не заставлять Google лишний раз догадываться. Чем важнее SEO-страница для бизнеса, тем меньше в ней должно быть критичных зависимостей от позднего клиентского исполнения.

SSR

Лучший базовый вариант для важных SEO-страниц.

  • предсказуемый HTML на входе
  • меньше риска пустого шаблона
  • проще для диагностики
CSR

Хорош для продукта, но опаснее для индексации.

  • контент зависит от гидрации
  • сильнее риск разрыва между UI и SEO-слоем
  • требует больше проверок
ISR

Компромиссный вариант для масштабируемых SEO-шаблонов.

  • страницы доступны заранее
  • можно обновлять по расписанию
  • подходит для хабов и каталогов

Инструменты проверки рендеринга

Минимальный набор лучше собирать из реальных бесплатных инструментов. База такая: Google Search Console URL Inspection для live/indexed версии страницы, Google Rich Results Test для быстрого просмотра отрендеренного HTML и structured data, Bing Webmaster Tools URL Inspection для второго взгляда, бесплатный Screaming Frog SEO Spider с JS-rendering до 500 URL и DevTools в Chrome или Edge: `view-source`, DOM, Network, отключение JavaScript и проверка XHR/API. Важно не открыть один инструмент, а сравнить несколько слоёв одной страницы.

Бесплатный минимум
  • GSC URL Inspection
  • Google Rich Results Test
  • Bing Webmaster Tools URL Inspection
Для краулинга
  • Screaming Frog Free до 500 URL
  • JS rendering mode
  • сравнение rendered HTML и raw HTML
В браузере
  • `view-source` vs DOM
  • DevTools Network / XHR
  • отключение JavaScript и проверка, что осталось
View Source Rendered DOM GSC URL Inspection Screaming Frog JS Crawl Network/API Checks

Раздел 5. Core Web Vitals

CWV остаются важны, но вокруг них по-прежнему много шума. В аудите это не магический переключатель ранжирования, а индикатор реального UX и дисциплины фронтенда. Чаще сайт теряет не из-за разницы LCP в 0,2 секунды, а потому что слабая производительность идёт в связке с рендерингом, тяжёлыми шаблонами и нестабильной структурой страницы.

Полевые данные
  • Google Search Console: Core Web Vitals report
  • Chrome UX Report / CrUX
  • сравнение групп URL по шаблонам
Лаборатория
  • PageSpeed Insights
  • Chrome DevTools Lighthouse
  • Performance panel в DevTools
Для локализации причин
  • Web Vitals extension
  • DevTools Performance + Layout Shift track
  • проверка реального LCP-элемента на мобильном шаблоне

Технический долг копится слоями, а трафик падает последним

Трафик падает последним. До этого успевают сломаться архитектура, шаблоны, рендеринг и производительность, но команда часто замечает только верхний слой.

Архитектуралишние сегменты, дыры в перелинковке, перегруженные шаблоны
Индексацияканоникалы конфликтуют, индекс раздувается, sitemap устаревает
Рендерингпоисковик видит не тот слой контента, что пользователь
CWVшаблоны становятся тяжелее, UX деградирует на реальных пользователях
Трафикпросадка становится видимой слишком поздно, когда долг уже накоплен

LCP, CLS, INP — что реально влияет на ранжирование в 2026

Сильнее всего CWV работают как часть общей картины. Если страница релевантна, индексируется и получает хорошие сигналы качества, улучшение LCP, CLS и INP помогает убрать трение. Но если архитектура сломана, одни только метрики не вытянут проект. Поэтому CWV должны проверяться после краулинга и индексации, а не вместо них.

Особое внимание сейчас стоит уделять LCP-элементу на мобильных шаблонах, сдвигам интерфейса из-за поздних баннеров, consent-слоев и нестабильных медиа-блоков, а также INP на страницах с тяжелыми фильтрами и виджетами. Это те места, где SEO и фронтенд уже давно сходятся в одной задаче.

LCP
Главный экран
Смотрите, что является реальным LCP-элементом на мобильном шаблоне: баннер, hero, изображение, заголовок или блок с товарами.
CLS
Стабильность
Поздние баннеры, cookie-слои, медиа без размеров и встраиваемые виджеты часто ломают визуальную устойчивость страницы.
INP
Интерактив
Особенно важен на фильтрах, калькуляторах, сложных формах и страницах, где фронтенд держит много тяжёлой логики.

Как читать отчёт GSC по CWV и не запутаться в лабораторных vs. полевых данных

GSC показывает полевые данные, то есть опыт реальных пользователей, агрегированный по группам похожих URL. Lighthouse и PageSpeed дают лабораторную модель в контролируемых условиях. Они нужны вместе, но отвечают на разные вопросы. Лаборатория помогает быстро локализовать проблему. Поле показывает, страдают ли реальные пользователи массово и стабильно.

Ошибка здесь типовая: команда гоняется за зелёной лабораторной картинкой, не проверяя, изменилась ли группа URL в GSC. Или наоборот: видит плохую группу в Search Console и не может локализовать причину на конкретном шаблоне. Поэтому в аудите CWV нужно сводить три слоя в один вывод: какая группа URL страдает, какой шаблон общий и какой элемент реально ломает метрику.

Правило приоритета: если страница плохо обходится, дублируется, каноникализируется не туда или ломается на рендеринге, CWV почти никогда не должны открывать бэклог первыми. Сначала индекс и доставка контента, потом тонкая полировка скорости.
Источник Что даёт Где ошибаются чаще всего
GSC CWV Полевую картину по группам URL Смотрят только статус, но не ищут общий шаблон проблемы
Lighthouse Локализацию узкого места на конкретной странице Путают лабораторную оценку с реальным пользовательским опытом
PageSpeed / DevTools Технические детали и источники задержек Чинят метрику в вакууме, без связи с приоритетом шаблона

Раздел 6. Внутренняя перелинковка и архитектура

Если технический аудит не доходит до архитектуры внутренних ссылок, он остается неполным. Поисковик читает сайт не как набор URL, а как граф. И в этом графе всегда есть страницы, которым вы даете слишком мало веса, слишком мало входов и слишком длинный путь от точек силы.

Для глубины и inlinks
  • Screaming Frog: Crawl Depth, Inlinks, Link Position
  • экспорт внутренних ссылок из GSC Links report
  • сравнение важных URL с их реальной глубиной
Для графа сайта
  • Sitebulb Crawl Maps
  • Gephi для визуализации внутреннего графа
  • ручная кластеризация хабов и money pages
Для orphan pages
  • сопоставление crawl + sitemap + экспорт CMS
  • поиск URL с 0 inlinks
  • проверка, не живут ли разделы только через XML или поиск по сайту

Как архитектура сайта влияет на PageRank и видимость кластеров

Каждый важный кластер должен иметь понятный путь от главной, хабов, категорий и релевантных материалов. Когда разделы изолированы, их сложнее и найти пользователю, и стабильно считать важными для краулера. Плохая архитектура почти всегда даёт два эффекта: полезные URL лежат слишком глубоко, а вторичные - наоборот получают непропорционально много внутренних ссылок.

Для кластера важно не только количество ссылок, но и их контекст. Хлебные крошки, навигационные блоки, подборки, блоки «см. также», связи между статьями и коммерческими страницами дают разную силу сигнала. Техаудит должен смотреть на перелинковку как на управляемый PageRank, а не как на декоративный слой интерфейса.

Отдельно стоит смотреть на money pages. Хорошая архитектура не оставляет коммерческие URL жить только в меню или в breadcrumbs. Если страница должна приносить лиды или выручку, она должна получать подтверждение не только от навигации, но и от хабов, статей, соседних коммерческих страниц, блоков сравнения и релевантных кластерных связок.

Сильный сигнал
  • путь от главной и хабов понятен
  • есть контекстные ссылки между кластерами
  • на важные URL ведут не только меню
Слабый сигнал
  • страница жива только в футере
  • внутри кластера нет связей между материалами
  • вес уходит на вторичные фильтры и шумные разделы
Что проверять
  • click depth
  • internal inlinks по шаблонам
  • контекст перелинковки на денежных URL

Orphan pages, изолированные разделы, дыры в перелинковке

Orphan pages уже были в первом разделе, но на уровне архитектуры их стоит посмотреть отдельно. Здесь важен не просто факт отсутствия ссылок, а карта изоляции. Бывает, что раздел формально связан, но только через одну страницу или только через футер. Для бота это слабая интеграция, а не полноценное место в структуре.

Проверьте, не живут ли важные страницы только за счёт sitemap, XML-фида, поиска по сайту или исторических внешних ссылок. Если да, значит архитектура не подтверждает их приоритет. Это одна из самых частых причин, почему хорошие по смыслу URL получают слабую видимость.

Как проверить глубину залегания важных страниц

Сначала определите список страниц, которые действительно должны быть видимыми: категории, региональные посадочные, статьи под спрос, страницы услуг, фильтрные URL с подтвержденным спросом. Потом измерьте click depth и сравните его с реальной ролью страницы. Если денежный URL лежит на глубине 5-6 кликов, а шумный фильтр - на глубине 2, структура уже говорит поиску не то, что вы хотите сказать бизнесу.

Не пытайтесь всем страницам дать одинаковую глубину. Важнее выстроить иерархию. Верхние уровни должны подтверждать стратегические страницы. Тогда перелинковка начинает работать как инструмент усиления, а не как случайный набор меню и карточек.

Тип страницы Желательная глубина Комментарий
Главные коммерческие категории 1-2 клика Должны быть подтверждены навигацией и внутренними хабами
Статьи и хабы под спрос 2-3 клика Нельзя оставлять их жить только через архив или sitemap
Вторичные фильтры и служебные страницы Глубже и слабее Не должны конкурировать с основными SEO-активами за внутренний вес

Что приоритизировать первым: матрица «влияние vs. трудозатраты»

Вот здесь и появляется авторский голос, которого обычно не хватает типовым чек-листам. Проверить можно почти всё. Но не всё нужно чинить первым. Сильный техаудит заканчивается не стопкой задач, а матрицей решений: что влияет на индексацию и доход прямо сейчас, что требует архитектурной переработки, а что пока можно оставить во втором эшелоне. И именно здесь вы должны собрать итоговый фокус: какие 3 точки роста усиливать или какие 3 точки падения тушить в первую очередь.

Аудит как приборная панель, а не файл “на потом”

Последний тест полезности аудита: можно ли по нему быстро понять, где зелёная зона, а где реальная авария.

Crawl

Бот заходит в приоритетные разделы чаще мусорных сегментов.

вопрос: кто получает обход?
Index

В индексе остаются страницы со спросом и ролью, а не архив CMS.

вопрос: что реально живёт в поиске?
Robots / Sitemap

Служебные правила и карта сайта не конфликтуют со стратегией.

вопрос: что вы показываете поиску?
Canonical / Redirects

Главный URL-сигнал не размывается дублями и цепочками.

вопрос: есть ли один главный адрес?
Render / JS

Поисковик видит тот же смысловой слой, что пользователь.

вопрос: одинаков ли экран для бота и человека?
Links / Depth

Внутренний вес и глубина работают на кластеры, а не на шум.

вопрос: кому сайт отдаёт силу?
Высокое влияние / Низкие трудозатраты

Чинить сразу

Это самый недооценённый квадрат. Здесь обычно лежат ошибки, которые команда может закрыть быстро, но они уже блокируют индекс и обход.

  • битые или неактуальные URL в sitemap.xml
  • случайные блокировки в robots.txt
  • короткие редиректные цепочки после релиза
  • неправильные canonical на шаблонных страницах
Высокое влияние / Высокие трудозатраты

Планировать как проект

Это уже не багфикс, а архитектурная работа. Но именно она часто даёт настоящий рост после стабилизации базы.

  • пересборка фасетной логики и параметров
  • переход на более предсказуемый SSR/ISR для SEO-страниц
  • реформа внутренней перелинковки по кластерам
  • чистка раздутого индекса и orphan pages
Низкое влияние / Низкие трудозатраты

Делать фоном

Полезные, но вторичные задачи. Их стоит брать, когда базовая архитектура уже под контролем.

  • локальные улучшения веса медиа
  • точечные доработки микроразметки
  • косметическая правка единичных метрик CWV
Низкое влияние / Высокие трудозатраты

Не трогать первыми

Самая опасная зона. Сюда команда любит уходить, когда не хочется трогать настоящую архитектурную проблему.

  • тотальный рефакторинг без влияния на индекс
  • массовая полировка вторичных страниц
  • перфекционизм в лабораторных баллах без полевого эффекта
Мой практический принцип: если задача не меняет состав индекса, частоту обхода, рендеринг ключевых блоков или силу важных внутренних URL, она редко должна открывать бэклог первой.

FAQ: короткие ответы по техаудиту

С чего начать технический SEO-аудит?

С краулинга, индексации и состава индексируемых URL. Если бот тратит ресурс не туда, остальные улучшения слабеют.

Что проверять первым: индексацию, рендеринг или CWV?

Сначала индекс и доставку контента. Если URL плохо обходятся, дублируются или ломаются на рендеринге, скорость не должна открывать бэклог.

Когда robots.txt реально вредит?

Когда правила написаны слишком широко, режут важные шаблоны или подменяют собой работу с canonical, noindex и дублями.

Почему Google не всегда дорендеривает JS полностью?

Потому что рендеринг стоит ресурсов и идёт через отдельную очередь. На тяжёлых сайтах нельзя рассчитывать, что все URL получат одинаковое внимание.

Как понять, что проблема в архитектуре, а не в мета-тегах?

Если важные страницы глубоко лежат, слабо связаны, теряются среди фильтров и дублей или живут только через sitemap, проблема архитектурная.

Каким должен быть итог хорошего техаудита?

Не каталог замечаний, а 3 точки роста или 3 точки падения, вокруг которых уже строится бэклог внедрения.

Итог: чек-лист — это старт, а не результат

Сам по себе чек-лист не поднимает трафик. Он только помогает не забыть ключевые слои проверки. Результат появляется, когда найденные дефекты связаны с архитектурой сайта, логикой индекса и реальной приоритизацией внедрения. Поэтому сильный техаудит всегда заканчивается тремя вещами: ясной картиной потерь, коротким списком критических задач и пониманием, какие правки дадут эффект первыми. Итог должен звучать жёстко: вот 3 точки роста или вот 3 точки падения, с которых и начинается работа.

Если смотреть на техаудит именно так, он перестает быть файлом «на потом» и превращается в рабочий инструмент роста. И это особенно важно сейчас, когда сайты становятся сложнее, рендеринг тяжелее, а цена архитектурной ошибки выше, чем несколько лет назад.

Формула техаудита, который работает

Не искать «все ошибки вообще», а собрать причинно-следственную модель: где бот теряет время, какие URL не подтверждены архитектурой, что ломается в рендере и какие правки двинут индекс первыми. Хороший аудит сводит это к короткому управляемому выводу: 3 точки роста или 3 точки падения.

Краулинг + Индекс + Рендеринг + Перелинковка + Приоритеты = техаудит, который работает

Нужен техаудит без воды и декоративных советов

Разбираю сайт через логи, индекс, JS-рендеринг, шаблонные конфликты и архитектуру внутренних ссылок. Если нужен second opinion или аудит под рост, можно обсудить проект напрямую.

Обсудить аудит