Дубли страниц: тихий убийца трафика, о котором молчат подрядчики

Анатолий Кузнецов
Анатолий Кузнецов
SEO-оптимизатор с 20-летним стажем. Автор блога hozyindachi.ru о продвижении и доработке сайтов.

За двадцать с лишним лет в SEO я видел сотни сайтов, у которых, как у пациента с хорошим давлением и плохой кардиограммой, «снаружи всё нормально», а внутри — медленная катастрофа. И в восьми случаях из десяти, когда владелец приходит ко мне с фразой «мы платим подрядчику год, а трафик стоит», копаю на час и нахожу одно и то же — дубли страниц.

Это самый недооценённый, самый замалчиваемый и одновременно самый разрушительный технический фактор в современном Рунете. Дубли не рушат сайт за ночь — они душат его медленно, как угарный газ. Вы вдыхаете и не чувствуете. А потом перестаёте дышать.

Меня зовут Анатолий Кузнецов, я занимаюсь SEO с тех пор, когда Яндекс ещё разрешал ключевики через запятую, и сегодня расскажу то, о чём ваш подрядчик, скорее всего, не упомянет ни на одном отчётном звонке. Потому что разбирать дубли — это не приятная работа «на показ», это грязная, кропотливая ревизия, за которую неудобно выставлять акт.

Дубли страниц: тихий убийца трафика, о котором молчат подрядчики

Что такое дубли — и почему это не «безобидное дублирование»

Формально дубль — это две и более страницы сайта, контент которых поисковая система считает идентичным или почти идентичным. Звучит безобидно. На деле — Яндекс воспринимает такой сайт как набор клонов, между которыми не понимает, кого ранжировать.

Представьте, что вы пришли в магазин, а там на одной полке стоят пятнадцать одинаковых пачек гречки с разными ценниками. Какую возьмёт покупатель? Никакую — он развернётся и уйдёт к соседям. С поисковиком работает та же логика: если алгоритм видит десять страниц про «купить диван в Москве», он не выберет лучшую — он понизит все. Это называется размытием релевантности, и подробнее механика разобрана в моей статье про причины массового дублирования контента на сайте.

Дубли — это не «лишние страницы». Это конкуренты вашего же сайта внутри вашего же домена.

Почему подрядчики молчат

Здесь нужно говорить честно. Молчат не потому, что злые. Молчат, потому что:

Во-первых, найти все дубли — это работа на сутки-двое для нормального аудита, а не на пять минут. А в типовом договоре на «SEO продвижение» эта работа просто не заложена. Подрядчик получает фиксированную сумму, и копать в техничку ему невыгодно — выгоднее закупить ссылок и показать «активность».

Во-вторых, отчёт по дублям сложно красиво продать. Заказчик хочет видеть растущие графики, а не таблицу с тремя сотнями адресов вида ?utm_source=yandex_msk2. Подрядчик это знает и обходит тему стороной.

В-третьих, и это самое неприятное — у части агентств просто нет специалистов, способных корректно разобрать rel=canonical, 301, robots.txt и meta name="robots" в связке. Поэтому проще делать вид, что проблемы нет. Я подробно описывал эту схему в материале про семь признаков, по которым ваш SEO-специалист дурит вас прямо сейчас.

Откуда берутся дубли — десять источников, которые я нахожу у каждого второго сайта

За годы практики у меня сложилась внутренняя «карта залежей». Перечислю самые распространённые места, где дубли плодятся сами собой.

Параметры URL. Адреса вида /catalog/divany/ и /catalog/divany/?sort=price для Яндекса часто оказываются двумя разными страницами с одинаковым контентом. Метки UTM, фильтры, сортировки, сессии — всё это рассадник дублей. О том, как технически устроены такие адреса и почему важна каждая буква, я писал в разборе влияния URL-адреса на SEO продвижение.

Версии со слешем и без. /contacts и /contacts/ — для людей одно, для робота два. Если 301-й редирект не настроен, привет, дубль.

HTTP и HTTPS. Сайт переехал на безопасный протокол, а старая версия осталась индексироваться. Поздравляю — у вас полное зеркало сайта в индексе.

WWW и без WWW. Та же история, просто с другого ракурса.

Главное зеркало. Часто я вижу сайты, у которых главная открывается одновременно по трём адресам: /, /index.php, /?p=1. Каждый из них — отдельная страница в глазах Яндекса.

Пагинация. Страницы каталога ?page=2, ?page=3 с одинаковыми заголовками и описаниями — классика жанра.

Печатные версии и AMP-копии. /print/ и /amp/ без правильного канонического тега уходят в индекс как самостоятельные единицы.

Карточки товаров в разных категориях. Одна и та же модель доступна по адресам /divany/uglovye/lazurit/ и /akcii/lazurit/. Без правильно настроенных канонических ссылок обе уйдут в индекс.

Дубли мета-тегов при уникальных URL. Это так называемые «смысловые» дубли — адреса разные, а Title и H1 одинаковые. Яндекс это видит, и я разбирал механику в материале про влияние rel=canonical на SEO продвижение.

Технические страницы CMS. Архивы автора, теги, страницы поиска, временные превью — на WordPress, Битриксе и большинстве CMS они плодятся без вашего ведома.

Чем именно дубли убивают трафик

Здесь хочу быть предельно конкретным. Не «дубли — это плохо», а как именно вы теряете деньги.

Размытие веса страницы. Когда внутренние ссылки и внешние бэклинки распределяются на несколько копий, ни одна из них не накапливает достаточного авторитета для ТОПа. Вместо одной сильной страницы у вас десять слабых.

Каннибализация ключевых слов. Две страницы конкурируют за одно и то же ключевое слово. Яндекс не понимает, какая релевантнее, и в итоге обе живут на позициях 30–50, тогда как одна правильно настроенная страница могла бы стоять в ТОП-10.

Расход краулингового бюджета. У каждого сайта есть лимит на то, сколько страниц робот Яндекса посещает за визит. Если из тысячи страниц шестьсот — дубли, робот тратит ресурс на мусор и не доходит до новых полезных материалов. Я подробно описывал эту механику в статье про индексацию сайта в поисковых системах.

Падение поведенческих факторов. Если человек попадает на дубль с неоптимизированным Title, он не задерживается. Яндекс фиксирует короткий сеанс, отказ и снижает доверие ко всему сайту.

Риск попасть под фильтр. Большое количество дублей — один из факторов, который алгоритм Yati считывает как признак низкого качества сайта. О том, как работает Yati на самом деле, я подробно писал в материале про алгоритм Yati, который выровнял ранжирование в Рунете.

Как найти дубли — рабочий алгоритм без воды

Я предлагаю проверочный маршрут, который проходит каждый владелец сайта самостоятельно за час-полтора. Без специальных программ.

Шаг первый — Яндекс.Вебмастер. Открываете раздел «Индексирование → Страницы в поиске → Исключённые». Дубли видны по пометке «Дубль» или «Не канонический». Уже здесь у большинства сайтов всплывают десятки, а то и сотни лишних адресов.

Шаг второй — поиск по сайту. Вводите в Яндекс запрос site:вашсайт.ру и пролистываете результаты. Если видите по несколько результатов с одинаковыми заголовками — это тревожный звонок.

Шаг третий — проверка зеркал. Откройте сайт по всем возможным вариантам: с www и без, через http и https, со слешем и без. Должен происходить 301-й редирект на одну каноническую версию. Если открываются разные страницы — у вас уже минимум четыре дубля главной.

Шаг четвёртый — анализ robots.txt и карты сайта. Технические разделы должны быть закрыты от индексации, а в Sitemap должны быть только канонические URL. Подробный разбор я давал в материалах про правильную настройку robots.txt и про влияние карты сайта на SEO продвижение.

Шаг пятый — проверка редиректов. Любой устаревший адрес должен корректно отдавать 301-й код на актуальную страницу. Цепочки редиректов и неправильные коды ответов — частая причина утечки веса, и эту тему я разбирал в статье про битые ссылки и неправильные редиректы, которые крадут вес страниц.

Чем устранять — четыре инструмента, которые работают

Не существует «универсальной таблетки от дублей». Под каждый тип — свой метод.

301-й редирект. Используется, когда дубль больше не нужен и его адрес можно склеить с основным навсегда. Подходит для версий со слешем/без, http/https, дубликатов главной.

Rel=canonical. Используется, когда обе страницы должны быть доступны пользователю, но в индексе нужна только одна. Классический случай — фильтры в каталоге, параметры сортировки, печатные версии.

Meta robots noindex. Используется для технических страниц, которые в принципе не должны попадать в индекс — корзина, оформление заказа, личный кабинет.

Запрет в robots.txt. Используется для целых разделов, которые не нужно сканировать роботам — служебные папки, формы поиска по сайту, временные дубли при разработке.

Главная ошибка, которую я вижу постоянно: подрядчик закрывает дубли только в robots.txt и считает работу выполненной. Это полумера — Яндекс продолжает видеть страницы в индексе, просто перестаёт читать их содержимое. Правильное решение почти всегда — связка: 301-й или canonical плюс noindex плюс чистка карты сайта.

Почему «само не пройдёт»

Иногда мне говорят: «Анатолий, я просто подожду, Яндекс сам разберётся». Не разберётся. Это иллюзия, которая стоит бизнесу в среднем 30–50% потенциального органического трафика. Сайт без чистки дублей — это машина, у которой ручник наполовину поднят. Можно ехать, но расход больше, скорость меньше, и через какое-то время сгорит сцепление.

Я часто говорю клиентам простую вещь: один грамотный технический аудит окупается быстрее, чем три месяца закупки ссылок. Потому что ссылки усиливают то, что уже работает. А если внутри сайта бардак — вы усиливаете бардак. Эту логику я подробно раскрывал в публикации «Анализ сайта клиента — ищем причину, сдерживающую продвижение в Яндекс».

Что делать прямо сейчас

Если вы дочитали до этого места — значит, тема для вас актуальна. И тут возможны два сценария.

Первый — закрыть статью, отложить «на потом» и через полгода обнаружить, что трафик просел ещё на 20%, конкуренты заняли ваши позиции, а заявок стало вдвое меньше. По моему опыту, именно так выглядит «потом» в большинстве случаев.

Второй — потратить полтора часа сейчас и провести самостоятельную диагностику по тем шагам, которые я расписал выше. Уже это даст вам понимание, насколько глубоко проблема засела.

Но если в Вебмастере вы увидите сотни «исключённых» страниц, дубли на главной, путаницу с зеркалами и битые редиректы — самостоятельно вы это не вытянете. Не потому, что вы не способны. А потому, что разбор технических дублей в живой CMS требует доступа к серверу, понимания, как работают конкретно ваша CMS и ваш шаблон, и опыта, который нарабатывается годами.


Когда трафика катастрофически не хватает, а подрядчик кормит обещаниями — приходите ко мне

Я веду SEO-продвижение в Яндексе уже больше двадцати лет. Не пишу красивых отчётов с графиками «активности» — занимаюсь тем, что приносит результат: техническим аудитом, чисткой дублей, переработкой структуры, повышением релевантности страниц. Работаю лично, без перепродажи задач джунам.

Что я предлагаю в рамках SEO продвижения сайтов:

— Полный технический аудит с разбором всех дублей, редиректов, канонических ссылок и индексации — Устранение проблем, которые сдерживают ваш сайт месяцами — Перестройку семантики и доработку контента под актуальные алгоритмы Яндекса — Прозрачную отчётность по позициям, трафику и заявкам

Если вы пока не готовы к полному продвижению, начните с малого — закажите SEO-аудит сайта. За одну работу я покажу, где именно ваш сайт теряет трафик, сколько дублей в индексе, что не так с технической оптимизацией и какие шаги дадут максимальный прирост заявок в ближайшие три месяца. Аудит — это карта, по которой потом можно идти самому или со мной.

А если хотите просто проверить, насколько у вас всё плохо — есть бесплатный аудит сайта. Это короткая диагностика по ключевым показателям, без обязательств. Я скажу честно: критично или жить можно.

Каждый день, который ваш сайт стоит с дублями, — это клиенты, ушедшие к конкурентам. Звонок, который сегодня раздался у соседа, мог быть вашим. Закрываются дубли — открываются позиции. Это не магия. Это техника.

Связаться со мной можно через страницу обратной связи или напрямую по телефону +7 (921) 333-77-45. Работаю по Санкт-Петербургу, Москве и всей России.

Не давайте дублям и дальше душить ваш бизнес. Тихие убийцы умирают молча, когда против них работает специалист с опытом.

Анатолий Кузнецов

Увеличьте позиции и продажи вашего сайта

Профессиональное SEO-продвижение с гарантией результата. Выберите подходящую услугу:

Анатолий Кузнецов — SEO-оптимизатор

Остались вопросы по продвижению?

Меня зовут Анатолий Кузнецов, я SEO-оптимизатор с 20-летним стажем. Разберу ваш сайт, отвечу на вопросы и подскажу, что улучшить для роста позиций в Яндексе и Google.

Связаться со мной →

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

 Нажимая «оставить комментарий» вы принимаетеправила конфиденциальности 

Прокрутить вверх