Худший момент для технического аудита - когда команда уже сидит внутри падения, а у SEO-специалиста на руках только график с минусом и срочное требование «вернуть как было». Лучший момент - раньше, когда симптомы только копятся: бот ходит не туда, важные страницы уходят глубже, sitemap устаревает, а JS-шаблоны постепенно расщепляют индекс на то, что видит пользователь, и то, что видит Google. И главный смысл аудита здесь простой: не собрать 70 замечаний, а найти 3 точки роста или 3 точки падения, которые реально двигают результат.
Может одновременно выглядеть «нормально» по трафику и уже быть технически нестабильным по логам, индексу и глубине обхода.
Техаудит в 2026 году - это не только HTML. Нужно проверять серверное поведение, состав индекса и то, как сайт рендерится после JavaScript.
Чинить CWV или мета-теги бессмысленно, если бот тратит сканирование на мусорные URL, а коммерческие страницы висят в изоляции.
Хороший техаудит находит 3 точки роста или 3 точки падения
Это главный фильтр качества. Если после проверки вы получили длинный список без трёх ключевых узлов, аудит не собрал управляемую модель. Ниже формат, в котором это должно выглядеть.
Зачем техаудит нужен именно сейчас, а не «когда упадёт трафик»
Падение трафика почти никогда не начинается в тот день, когда вы его замечаете в аналитике. Обычно это финальная стадия длинной цепочки. Сначала сайт меняет шаблон, затем растёт число параметрических URL, потом sitemap продолжает отдавать уже неактуальные страницы, затем каноникал начинает конфликтовать с пагинацией, а в какой-то момент бот перестает регулярно доходить до тех страниц, которые должны приносить рост.
В 2026 году цикл деградации стал короче по двум причинам. Сайты чаще работают на тяжёлых JS-стеках, где индексируемость зависит не только от HTML, но и от того, что успело дорисоваться после гидрации. Плюс крупные проекты быстрее копят архитектурный долг: фильтры, сортировки, фасеты и сервисные страницы размывают фокус обхода быстрее, чем команда успевает это заметить.
Вы ещё видите приемлемый трафик, но Googlebot уже обходит много вторичных URL, а ключевые разделы сканируются реже, чем должны.
Команда лечит то, что легче увидеть: title, descriptions, мелкие 404 и единичные правки шаблона, хотя системный источник потери уже глубже.
Возврат стоит дороже, потому что нужно не просто исправить ошибку, а ещё и заново заслужить регулярный обход, ререндер и доверие к исправленным URL.
Чек-лист техаудита: 6 зон контроля
- Понять, какие типы URL бот обходит чаще всего и не уходит ли ресурс в мусорные сегменты.
- Сопоставить логи, sitemap и реальные внутренние ссылки.
- Найти orphan pages, изолированные разделы и страницы, живущие только за счёт карты сайта.
- Проверить, не режет ли robots.txt важные URL или новые шаблоны после релизов.
- Убедиться, что в sitemap нет 404, 3xx, noindex и каноникализированных дублей.
- Посмотреть, отражает ли структура sitemap текущую SEO-стратегию, а не архив CMS, и не конфликтуют ли `noindex` / `x-robots-tag` с индексируемым слоем.
- Проверить, не конфликтует ли canonical с перелинковкой, sitemap и реальной ролью URL.
- Найти цепочки редиректов, петли и исторические миграционные костыли.
- Разделить дубли на три класса: оставить в индексе, оставить crawlable, убрать из фокуса.
- Сравнить `view-source`, rendered DOM и пользовательский экран.
- Понять, не появляется ли ключевой контент, ссылки и FAQ только после гидрации.
- Проверить, подходит ли текущий режим SSR / CSR / ISR для SEO-критичных шаблонов, особенно если у сайта 10 000+ JS-страниц.
- Выявить реальный LCP-элемент и причины CLS на мобильных шаблонах.
- Проверить тяжёлые фильтры, формы и виджеты на предмет проблем с INP.
- Свести полевые данные GSC и лабораторные данные в один вывод по шаблонам и не ставить CWV выше проблем индексации, дублей и рендеринга.
- Измерить глубину залегания важных страниц и сравнить её с их бизнес-ролью.
- Понять, какие кластеры получают внутренний вес, а какие изолированы, и доходят ли ссылки до money pages.
- Собрать итог в 3 точки роста или 3 точки падения и уже от них строить бэклог.
Раздел 1. Краулинг и индексация
Это стартовый модуль. Если здесь все собрано плохо, остальные улучшения ослабевают. Я почти всегда начинаю с вопроса не «какие ошибки есть», а «на что бот тратит внимание и что из этого реально попадает в индекс».
Начинать лучше не со слепого краула, а с того, что уже видят сами поисковые системы.
- Google Search Console: Crawl Stats и Page Indexing
- Яндекс Вебмастер: Crawl statistics, Check URL Status, Reindex pages
- Bing Webmaster Tools: URL Inspection
Без логов вы видите только потенциальную архитектуру, а не реальное поведение бота.
- raw access logs сервера
- Screaming Frog Log File Analyser
- сопоставление логов с шаблонами URL и кодами ответа
Нужны, чтобы связать индексируемость с внутренней архитектурой.
- Screaming Frog SEO Spider
- сравнение crawl discovery и sitemap discovery
- поиск orphan pages через crawl + XML + inlinks
Как Googlebot проходит сайт
Эта цепочка выглядит простой, но именно на переходах между узлами чаще всего и прячутся будущие потери.
Crawl budget: как понять, что Googlebot теряет страницы
У большинства сайтов проблема не в том, что crawl budget закончился как абстрактная квота, а в том, что он распределяется не в пользу ключевых сегментов. Бот может тратить сессии на фильтры, внутренний поиск, сортировки, дубль-страницы пагинации, устаревшие URL после миграций и технические хабы, которые не должны конкурировать за внимание с категориями или статьями.
Проверяйте частоту обхода по типам URL, а не только суммарное число запросов. Сравните, как часто бот заходит в денежные разделы, в справочные страницы, в фильтры и в URL с параметрами. Если коммерческие категории или свежие статьи сканируются реже, чем служебные ветки, это уже не «нормальная статистика», а сигнал о плохом распределении ресурса.
Файлы crawl-логов: что искать и как читать
Логи полезны тем, что убирают иллюзию. По ним видно не то, как вам кажется, а то, как робот действительно ходит по сайту. Ищите три вещи: какие сегменты получают больше всего запросов, какие страницы бот переобходит слишком часто и где есть URL, на которые робот возвращается, но они не дают ценности.
Смотрите user-agent, частоту обращений, коды ответа, глубину URL-паттернов и разрывы по времени. Если важный раздел обновлялся, а бот почти не пришёл, это один сценарий. Если бот сжигает тысячи запросов на бесконечные параметры и 301-цепочки, это другой сценарий. В обоих случаях лог нужен не для красивой таблицы, а чтобы найти ненормальное распределение обхода.
Сырые access-логи хотя бы за 7-14 дней и разметить URL по шаблонам.
- Googlebot / Googlebot Smartphone
- Коды ответа 200 / 3xx / 4xx / 5xx
- Частота по типам URL
Переобход мусорных сегментов и слабый обход приоритетных страниц.
- частые обращения к фильтрам
- заходы в внутренний поиск
- 301-цепочки в логах
Связать логи с индексом, а не рассматривать их отдельно.
- убрать лишние точки входа
- усилить внутренние ссылки
- актуализировать sitemap
Orphan pages и дыры в архитектуре
Orphan page - это не просто страница без внутренних ссылок в Screaming Frog. Это страница, которая существует для CMS, для sitemap или для случайного внешнего входа, но не встроена в живую архитектуру сайта. Такие URL легко теряются: бот может знать о них, но не считать их устойчиво важными.
Сопоставьте crawl, экспорт внутренних ссылок и sitemap. Если страница есть в карте сайта, но на неё нельзя нормально дойти из навигации, подборок, хлебных крошек, списков или контекстных ссылок, это архитектурная дыра. Особенно опасно, когда orphan становятся статьи под спрос, фильтрные посадочные или коммерческие URL после редизайна.
Раздел 2. Robots.txt и sitemap.xml
Этот блок часто недооценивают, потому что robots.txt и sitemap.xml кажутся базовой техничкой, которую уже кто-то однажды настроил. Но именно здесь живут самые неприятные ошибки: случайно закрытые папки, устаревшие директивы, битые URL в карте, расхождение между желаемым и реальным индексируемым слоем и просто неверный синтаксис правил. Частая ошибка: `*` ставят машинально, хотя в конце он обычно не нужен, а корректное правило должно начинаться с `/`.
- Яндекс Вебмастер: инструменты проверки robots и доступности страниц
- Google Search Console: robots.txt report
- ручная проверка live-версии файла в браузере
- Google Search Console: Sitemaps report
- Яндекс Вебмастер: Sitemap files
- Screaming Frog: загрузка sitemap и проверка URL из карты сайта
- проверка XML-синтаксиса любым XML validator
- проверка URL из sitemap на 200/3xx/4xx
- сравнение sitemap с noindex и canonical-слоем
Типичные ошибки в robots.txt, которые режут индексацию
Классическая ошибка - блокировка не того паттерна. Один неосторожный `Disallow`, и вы режете не только служебные URL, но и часть продуктовых страниц. Часто это происходит после доработок на шаблонах, когда новые URL подпадают под старые правила, написанные под другую структуру сайта.
Вторая проблема - вера в то, что robots.txt умеет всё. Он регулирует обход, но не заменяет мета-директивы, canonical и нормальную архитектуру индекса. Если дубли уже внешне доступны и на них ведут внутренние ссылки, только robots.txt редко решает вопрос системно. Он может даже скрыть проблему от краулера, но не убрать ее причину.
| Ошибка | Как выглядит | Чем опасна | Что проверить |
|---|---|---|---|
| Слишком широкий `Disallow` | Закрыт шаблон, под который попали и важные URL | Проседает обход и индексация нужных разделов | Тест rules по типовым URL вручную и в инструментах |
| Нет `Sitemap:` | Карта существует, но не объявлена явно | Поиск медленнее получает сигнал о составе важных URL | Наличие актуальной ссылки на карту |
| Старые техправила | Файл не обновлялся после редизайна или миграции | Блокируются уже другие разделы и паттерны | Сопоставить с текущей архитектурой |
| Логика вместо архитектуры | Через robots.txt пытаются скрыть дубли, которые сами создают | Проблема остаётся и проявляется в других точках | Canonical, редиректы, параметры, перелинковку |
Sitemap: структура, частота, актуальность URL
Хорошая карта сайта - это не dump всех URL из базы, а curated-слой того, что вы хотите видеть в индексе. В sitemap не должно быть 404, временных редиректов, noindex-страниц, каноникализированных дублей и URL, которые уже не играют роли в росте. Карта должна отражать текущую стратегию сайта, а не архив CMS.
Если сайт крупный, разделяйте sitemap по логике: категории, статьи, карточки, регионы. Так проще ловить рассинхрон. Если новости обновляются часто, а коммерческие разделы редко, лучше видеть это в модульной структуре, а не в одном большом файле. Самая частая проблема проста: карта есть, но её состав давно никто не ревизировал.
Noindex, X-Robots-Tag и soft 404: забытый слой индексации
Между `robots.txt` и `canonical` есть ещё один критичный слой: meta robots, `x-robots-tag` в HTTP-заголовках и soft 404. Именно здесь часто возникают тихие конфликты. Страница может быть доступна для обхода, попадать в sitemap, получать внутренние ссылки и при этом не индексироваться из-за `noindex`, заголовочного `x-robots-tag` или потому, что для Google она выглядит как низкоценная и фактически пустая.
Soft 404 особенно опасны на шаблонных и фильтрных страницах. Формально сервер отдаёт `200`, но поисковик видит тонкий, повторяющийся или бессмысленный слой контента и перестаёт воспринимать URL как полноценную страницу. Поэтому в техаудите важно проверять не только код ответа, но и реальную ценность шаблона.
| Проблема | Как выглядит | Что проверить |
|---|---|---|
| `noindex` в HTML | Страница доступна и связана, но исключается из индекса | Screaming Frog Directives, URL Inspection, raw HTML |
| `x-robots-tag` в заголовках | Директива не видна на странице, но приходит с сервера | `curl -I`, DevTools Network, серверные конфиги |
| Soft 404 | Есть `200`, но страница пустая, шаблонная или малоценная | GSC Page Indexing, шаблонный анализ, контент и intent |
Раздел 3. Canonical, редиректы, дубли
Это сердце технической чистоты сайта. Если canonical, редиректы и дубли живут в конфликте, вы получаете размытый сигнал о том, какой URL считать главным. А когда поисковик сам начинает принимать это решение за вас, контроль над индексом резко падает.
- Google Search Console URL Inspection
- Screaming Frog: Canonicals, Directives, Indexability
- ручная сверка HTML, sitemap и внутренних ссылок
- Redirect Path extension by Ayima
- `curl -I` или DevTools Network
- Screaming Frog: Redirect Chains report
- Screaming Frog: duplicate URLs, near-duplicates, parameters
- выгрузка индексации по шаблонам из GSC
- сопоставление фильтров, пагинации и search-intent вручную
Canonical: когда помогает, когда игнорируется
Canonical - это подсказка, а не приказ. Он помогает, когда страница-донор действительно похожа на основную, когда контент и роль URL понятны, а внутренняя логика сайта не противоречит этому сигналу. Если же вы ставите canonical с фильтра на категорию, но при этом активно ссылаетесь на фильтр, держите его в sitemap и даете ему отдельный title, поисковик получает смешанное сообщение.
Canonical чаще всего игнорируют там, где сайт сам показывает, что дубликат для него важен: есть сильная перелинковка, внешние ссылки, отдельная навигационная роль, заметные различия в контенте или историческая индексация альтернативного URL. Поэтому canonical надо проверять не строкой в HTML, а в составе всей архитектуры.
| Ситуация | Canonical сработает | Canonical проигнорируют |
|---|---|---|
| Почти идентичные URL | Контент совпадает, внутренние ссылки ведут на основной адрес | Дубль живёт своей жизнью и получает отдельные сигналы |
| Фильтр → категория | Фильтр не продвигается и не усилен архитектурой | Фильтр в sitemap, меню, хабах или имеет внешний спрос |
| Параметрический URL | Параметр служебный и не меняет смысл страницы | Параметр создаёт отдельную выборку и отдельный intent |
Цепочки редиректов и петли
Один лишний редирект редко ломает проект, но массовые цепочки постоянно жгут краулинг и замедляют пересборку индекса. Особенно плохо, когда наслаиваются миграции, http/https-правила, слеши, языковые версии и временные костыли после релизов.
Проверьте не только факт 301, но и длину маршрута. Цель - короткий путь от старого URL к актуальному конечному адресу. Если видите 301 → 302 → 200 или циклический возврат через промежуточный паттерн, это уже задача в высокий приоритет. Такие штуки редко заметны пользователю, но отлично видны в логах и краулере.
- 1 редирект до конечного URL
- везде один канонический формат адреса
- без скачков между 301 и 302
- `http -> https -> slash -> final`
- возвраты на старые паттерны после релизов
- перекрестные редиректы между шаблонами
- собирать правила в один маршрут
- убирать временные костыли после релиза
- проверять старые миграционные карты
Дублированный контент: параметры, фильтры, пагинация
Большинство дублей сегодня рождается не из копипаста, а из шаблонной логики. Параметры сортировки, фасеты, пагинация, псевдо-посадочные под фильтры и сервисные комбинации создают десятки похожих URL, которые конкурируют за обход и канонический статус. Важно не только найти дубли, но и решить, какой тип страницы вообще должен жить как индексируемый актив.
Начинать нужно с классификации URL: какие фильтры реально несут спрос, какие страницы пагинации помогают только обходу, какие параметры могут быть crawlable, но не должны индексироваться. Это полезнее, чем просто пометить список дублей в Excel.
Раздел 4. JavaScript SEO и рендеринг
В 2026 году этот раздел уже нельзя считать нишевым. Даже «обычные» маркетинговые сайты часто работают на фреймворках, где часть контента появляется после загрузки JS. Визуально всё может быть хорошо, а для краулера страница окажется пустой, урезанной или собранной с задержкой, из-за которой критичные блоки не попадают в рендер-слой своевременно.
Google давно говорит, что умеет рендерить JavaScript. Формально это верно, но из этого часто делают неверный вывод, будто проблем уже нет. На деле рендеринг не мгновенный. В документации Google Search Central прямо сказано, что страницы ставятся в отдельную очередь и обрабатываются once Google’s resources allow. То есть сам Google подтверждает: всё упирается в доступные мощности.
Это подтверждают и сильные специалисты. В AMA Sam Torres для Sitebulb прямо сказано, что у Google есть отдельные crawl queue и rendering queue. Исследования Onely показывают, что JS-зависимый контент требует кратно больше усилий для discovery и crawl. А в другом разборе Onely отдельно подчёркивает: Google учитывает CPU cost рендеринга, а тяжёлые скрипты могут приводить к partial indexing.
- выносите SEO-критичные шаблоны в SSR или ISR
- не плодите индексируемые URL без самостоятельной ценности
- упрощайте HTML first layer для важных страниц
- не рассчитывать, что Google доберётся до всего автоматически
- не держать ключевой контент только за поздней гидрацией
- не масштабировать тонкие JS-шаблоны без спроса и авторитета
- поисковик видит важные блоки уже в базовом HTML
- рендеринг нужен для улучшения UX, а не для появления смысла страницы
- количество тяжёлых SEO-URL сознательно ограничено
Разрыв между тем, что видит пользователь, и тем, что видит бот
Одна из самых дорогих иллюзий в техаудите: интерфейс кажется полным, но индексируемый слой уже пустеет или приходит с задержкой.
Как понять, что Google видит не то, что видит пользователь
Сравнивайте исходный HTML, рендеренную DOM-версию и пользовательский экран. Если ключевой контент, ссылки, тексты, таблицы, блоки FAQ, товары или навигация появляются только после исполнения JS, задайте себе простой вопрос: успевают ли они стабильно доходить до поискового рендера и не завязаны ли они на пользовательские события.
Тревожный признак - когда важные элементы видны человеку, но отсутствуют в `view-source`, в статическом крауле или в инструментах проверки URL. Тогда нужно разбираться, что именно выполняется поздно: запросы к API, клиентские роуты, lazy-blocks, аккордеоны, подгрузка карточек, хлебные крошки или навигационные ссылки.
| Слой проверки | Что видите | Что это значит |
|---|---|---|
| View Source | Контента нет | Критичный текст зависит от JS и требует отдельной проверки рендера |
| Rendered DOM | Контент появляется поздно | Есть риск, что бот получает его нестабильно или с задержкой |
| Пользовательский экран | Всё выглядит нормально | UI может маскировать пустой или слабый SEO-слой |
SSR, CSR, ISR — что выбирать и почему это влияет на индексацию
Для SEO вопрос не в моде стека, а в предсказуемости доставки контента. SSR обычно дает самый понятный базовый HTML и быстрее снижает риск пустых страниц. CSR удобен в продуктовой разработке, но повышает требования к рендерингу и может скрывать контент за гидрацией. ISR занимает промежуточное положение: он полезен там, где страницы должны быть заранее доступны, но при этом регулярно обновляться.
Выбор зависит от типа сайта. Для крупных каталогов, хабов, региональных посадочных и статей, где индексируемый слой должен быть стабилен, лучше не заставлять Google лишний раз догадываться. Чем важнее SEO-страница для бизнеса, тем меньше в ней должно быть критичных зависимостей от позднего клиентского исполнения.
Лучший базовый вариант для важных SEO-страниц.
- предсказуемый HTML на входе
- меньше риска пустого шаблона
- проще для диагностики
Хорош для продукта, но опаснее для индексации.
- контент зависит от гидрации
- сильнее риск разрыва между UI и SEO-слоем
- требует больше проверок
Компромиссный вариант для масштабируемых SEO-шаблонов.
- страницы доступны заранее
- можно обновлять по расписанию
- подходит для хабов и каталогов
Инструменты проверки рендеринга
Минимальный набор лучше собирать из реальных бесплатных инструментов. База такая: Google Search Console URL Inspection для live/indexed версии страницы, Google Rich Results Test для быстрого просмотра отрендеренного HTML и structured data, Bing Webmaster Tools URL Inspection для второго взгляда, бесплатный Screaming Frog SEO Spider с JS-rendering до 500 URL и DevTools в Chrome или Edge: `view-source`, DOM, Network, отключение JavaScript и проверка XHR/API. Важно не открыть один инструмент, а сравнить несколько слоёв одной страницы.
- GSC URL Inspection
- Google Rich Results Test
- Bing Webmaster Tools URL Inspection
- Screaming Frog Free до 500 URL
- JS rendering mode
- сравнение rendered HTML и raw HTML
- `view-source` vs DOM
- DevTools Network / XHR
- отключение JavaScript и проверка, что осталось
Раздел 5. Core Web Vitals
CWV остаются важны, но вокруг них по-прежнему много шума. В аудите это не магический переключатель ранжирования, а индикатор реального UX и дисциплины фронтенда. Чаще сайт теряет не из-за разницы LCP в 0,2 секунды, а потому что слабая производительность идёт в связке с рендерингом, тяжёлыми шаблонами и нестабильной структурой страницы.
- Google Search Console: Core Web Vitals report
- Chrome UX Report / CrUX
- сравнение групп URL по шаблонам
- PageSpeed Insights
- Chrome DevTools Lighthouse
- Performance panel в DevTools
- Web Vitals extension
- DevTools Performance + Layout Shift track
- проверка реального LCP-элемента на мобильном шаблоне
Технический долг копится слоями, а трафик падает последним
Трафик падает последним. До этого успевают сломаться архитектура, шаблоны, рендеринг и производительность, но команда часто замечает только верхний слой.
LCP, CLS, INP — что реально влияет на ранжирование в 2026
Сильнее всего CWV работают как часть общей картины. Если страница релевантна, индексируется и получает хорошие сигналы качества, улучшение LCP, CLS и INP помогает убрать трение. Но если архитектура сломана, одни только метрики не вытянут проект. Поэтому CWV должны проверяться после краулинга и индексации, а не вместо них.
Особое внимание сейчас стоит уделять LCP-элементу на мобильных шаблонах, сдвигам интерфейса из-за поздних баннеров, consent-слоев и нестабильных медиа-блоков, а также INP на страницах с тяжелыми фильтрами и виджетами. Это те места, где SEO и фронтенд уже давно сходятся в одной задаче.
Как читать отчёт GSC по CWV и не запутаться в лабораторных vs. полевых данных
GSC показывает полевые данные, то есть опыт реальных пользователей, агрегированный по группам похожих URL. Lighthouse и PageSpeed дают лабораторную модель в контролируемых условиях. Они нужны вместе, но отвечают на разные вопросы. Лаборатория помогает быстро локализовать проблему. Поле показывает, страдают ли реальные пользователи массово и стабильно.
Ошибка здесь типовая: команда гоняется за зелёной лабораторной картинкой, не проверяя, изменилась ли группа URL в GSC. Или наоборот: видит плохую группу в Search Console и не может локализовать причину на конкретном шаблоне. Поэтому в аудите CWV нужно сводить три слоя в один вывод: какая группа URL страдает, какой шаблон общий и какой элемент реально ломает метрику.
| Источник | Что даёт | Где ошибаются чаще всего |
|---|---|---|
| GSC CWV | Полевую картину по группам URL | Смотрят только статус, но не ищут общий шаблон проблемы |
| Lighthouse | Локализацию узкого места на конкретной странице | Путают лабораторную оценку с реальным пользовательским опытом |
| PageSpeed / DevTools | Технические детали и источники задержек | Чинят метрику в вакууме, без связи с приоритетом шаблона |
Раздел 6. Внутренняя перелинковка и архитектура
Если технический аудит не доходит до архитектуры внутренних ссылок, он остается неполным. Поисковик читает сайт не как набор URL, а как граф. И в этом графе всегда есть страницы, которым вы даете слишком мало веса, слишком мало входов и слишком длинный путь от точек силы.
- Screaming Frog: Crawl Depth, Inlinks, Link Position
- экспорт внутренних ссылок из GSC Links report
- сравнение важных URL с их реальной глубиной
- Sitebulb Crawl Maps
- Gephi для визуализации внутреннего графа
- ручная кластеризация хабов и money pages
- сопоставление crawl + sitemap + экспорт CMS
- поиск URL с 0 inlinks
- проверка, не живут ли разделы только через XML или поиск по сайту
Как архитектура сайта влияет на PageRank и видимость кластеров
Каждый важный кластер должен иметь понятный путь от главной, хабов, категорий и релевантных материалов. Когда разделы изолированы, их сложнее и найти пользователю, и стабильно считать важными для краулера. Плохая архитектура почти всегда даёт два эффекта: полезные URL лежат слишком глубоко, а вторичные - наоборот получают непропорционально много внутренних ссылок.
Для кластера важно не только количество ссылок, но и их контекст. Хлебные крошки, навигационные блоки, подборки, блоки «см. также», связи между статьями и коммерческими страницами дают разную силу сигнала. Техаудит должен смотреть на перелинковку как на управляемый PageRank, а не как на декоративный слой интерфейса.
Отдельно стоит смотреть на money pages. Хорошая архитектура не оставляет коммерческие URL жить только в меню или в breadcrumbs. Если страница должна приносить лиды или выручку, она должна получать подтверждение не только от навигации, но и от хабов, статей, соседних коммерческих страниц, блоков сравнения и релевантных кластерных связок.
- путь от главной и хабов понятен
- есть контекстные ссылки между кластерами
- на важные URL ведут не только меню
- страница жива только в футере
- внутри кластера нет связей между материалами
- вес уходит на вторичные фильтры и шумные разделы
- click depth
- internal inlinks по шаблонам
- контекст перелинковки на денежных URL
Orphan pages, изолированные разделы, дыры в перелинковке
Orphan pages уже были в первом разделе, но на уровне архитектуры их стоит посмотреть отдельно. Здесь важен не просто факт отсутствия ссылок, а карта изоляции. Бывает, что раздел формально связан, но только через одну страницу или только через футер. Для бота это слабая интеграция, а не полноценное место в структуре.
Проверьте, не живут ли важные страницы только за счёт sitemap, XML-фида, поиска по сайту или исторических внешних ссылок. Если да, значит архитектура не подтверждает их приоритет. Это одна из самых частых причин, почему хорошие по смыслу URL получают слабую видимость.
Как проверить глубину залегания важных страниц
Сначала определите список страниц, которые действительно должны быть видимыми: категории, региональные посадочные, статьи под спрос, страницы услуг, фильтрные URL с подтвержденным спросом. Потом измерьте click depth и сравните его с реальной ролью страницы. Если денежный URL лежит на глубине 5-6 кликов, а шумный фильтр - на глубине 2, структура уже говорит поиску не то, что вы хотите сказать бизнесу.
Не пытайтесь всем страницам дать одинаковую глубину. Важнее выстроить иерархию. Верхние уровни должны подтверждать стратегические страницы. Тогда перелинковка начинает работать как инструмент усиления, а не как случайный набор меню и карточек.
| Тип страницы | Желательная глубина | Комментарий |
|---|---|---|
| Главные коммерческие категории | 1-2 клика | Должны быть подтверждены навигацией и внутренними хабами |
| Статьи и хабы под спрос | 2-3 клика | Нельзя оставлять их жить только через архив или sitemap |
| Вторичные фильтры и служебные страницы | Глубже и слабее | Не должны конкурировать с основными SEO-активами за внутренний вес |
Что приоритизировать первым: матрица «влияние vs. трудозатраты»
Вот здесь и появляется авторский голос, которого обычно не хватает типовым чек-листам. Проверить можно почти всё. Но не всё нужно чинить первым. Сильный техаудит заканчивается не стопкой задач, а матрицей решений: что влияет на индексацию и доход прямо сейчас, что требует архитектурной переработки, а что пока можно оставить во втором эшелоне. И именно здесь вы должны собрать итоговый фокус: какие 3 точки роста усиливать или какие 3 точки падения тушить в первую очередь.
Аудит как приборная панель, а не файл “на потом”
Последний тест полезности аудита: можно ли по нему быстро понять, где зелёная зона, а где реальная авария.
Бот заходит в приоритетные разделы чаще мусорных сегментов.
вопрос: кто получает обход?В индексе остаются страницы со спросом и ролью, а не архив CMS.
вопрос: что реально живёт в поиске?Служебные правила и карта сайта не конфликтуют со стратегией.
вопрос: что вы показываете поиску?Главный URL-сигнал не размывается дублями и цепочками.
вопрос: есть ли один главный адрес?Поисковик видит тот же смысловой слой, что пользователь.
вопрос: одинаков ли экран для бота и человека?Внутренний вес и глубина работают на кластеры, а не на шум.
вопрос: кому сайт отдаёт силу?Чинить сразу
Это самый недооценённый квадрат. Здесь обычно лежат ошибки, которые команда может закрыть быстро, но они уже блокируют индекс и обход.
- битые или неактуальные URL в sitemap.xml
- случайные блокировки в robots.txt
- короткие редиректные цепочки после релиза
- неправильные canonical на шаблонных страницах
Планировать как проект
Это уже не багфикс, а архитектурная работа. Но именно она часто даёт настоящий рост после стабилизации базы.
- пересборка фасетной логики и параметров
- переход на более предсказуемый SSR/ISR для SEO-страниц
- реформа внутренней перелинковки по кластерам
- чистка раздутого индекса и orphan pages
Делать фоном
Полезные, но вторичные задачи. Их стоит брать, когда базовая архитектура уже под контролем.
- локальные улучшения веса медиа
- точечные доработки микроразметки
- косметическая правка единичных метрик CWV
Не трогать первыми
Самая опасная зона. Сюда команда любит уходить, когда не хочется трогать настоящую архитектурную проблему.
- тотальный рефакторинг без влияния на индекс
- массовая полировка вторичных страниц
- перфекционизм в лабораторных баллах без полевого эффекта
FAQ: короткие ответы по техаудиту
С краулинга, индексации и состава индексируемых URL. Если бот тратит ресурс не туда, остальные улучшения слабеют.
Сначала индекс и доставку контента. Если URL плохо обходятся, дублируются или ломаются на рендеринге, скорость не должна открывать бэклог.
Когда правила написаны слишком широко, режут важные шаблоны или подменяют собой работу с canonical, noindex и дублями.
Потому что рендеринг стоит ресурсов и идёт через отдельную очередь. На тяжёлых сайтах нельзя рассчитывать, что все URL получат одинаковое внимание.
Если важные страницы глубоко лежат, слабо связаны, теряются среди фильтров и дублей или живут только через sitemap, проблема архитектурная.
Не каталог замечаний, а 3 точки роста или 3 точки падения, вокруг которых уже строится бэклог внедрения.
Итог: чек-лист — это старт, а не результат
Сам по себе чек-лист не поднимает трафик. Он только помогает не забыть ключевые слои проверки. Результат появляется, когда найденные дефекты связаны с архитектурой сайта, логикой индекса и реальной приоритизацией внедрения. Поэтому сильный техаудит всегда заканчивается тремя вещами: ясной картиной потерь, коротким списком критических задач и пониманием, какие правки дадут эффект первыми. Итог должен звучать жёстко: вот 3 точки роста или вот 3 точки падения, с которых и начинается работа.
Если смотреть на техаудит именно так, он перестает быть файлом «на потом» и превращается в рабочий инструмент роста. И это особенно важно сейчас, когда сайты становятся сложнее, рендеринг тяжелее, а цена архитектурной ошибки выше, чем несколько лет назад.
Формула техаудита, который работает
Не искать «все ошибки вообще», а собрать причинно-следственную модель: где бот теряет время, какие URL не подтверждены архитектурой, что ломается в рендере и какие правки двинут индекс первыми. Хороший аудит сводит это к короткому управляемому выводу: 3 точки роста или 3 точки падения.
Нужен техаудит без воды и декоративных советов
Разбираю сайт через логи, индекс, JS-рендеринг, шаблонные конфликты и архитектуру внутренних ссылок. Если нужен second opinion или аудит под рост, можно обсудить проект напрямую.
Обсудить аудит