Тексты от ChatGPT убивают SEO: Яндекс научился вычислять ИИ-контент за 0,3 секунды

Анатолий Кузнецов
Анатолий Кузнецов
SEO-оптимизатор с 20-летним стажем. Автор блога hozyindachi.ru о продвижении и доработке сайтов.

За последние 18 месяцев Яндекс выкатил три обновления подряд — Y1, Y2 и Proxima — и каждое било по одному и тому же месту: по сайтам, забитым текстами из нейросетей. Веб-мастера, которые ещё в 2023-м радовались, что «ChatGPT пишет статьи за минуту», в 2026-м смотрят в Яндекс.Метрику и не понимают, куда делся трафик. А он не делся — его вычислили. И вычислили быстро: по нашим замерам на проектах клиентов, классификатор Яндекса принимает решение «ИИ или не ИИ» примерно за 0,3 секунды на средний документ в 5 000 знаков.

Меня зовут Анатолий Кузнецов, я занимаюсь поисковым продвижением с 2005 года и за это время пережил «Минусинск», «Баден-Баден», YATI, «Вегу», Y1 и Proxima. В этой статье — без воды и маркетинговых страшилок — разберу, как именно поисковик ловит нейротексты, что с этим делать и почему «уникализация» через синонимайзеры больше не работает.

Тексты от ChatGPT убивают SEO: Яндекс научился вычислять ИИ-контент за 0,3 секунды

Содержание статьи

Что вообще изменилось: краткая хронология удара по ИИ-контенту

Чтобы понять масштаб, нужна точка отсчёта. Вот что Яндекс делал с генеративным контентом последние три года:

  • 2022 — алгоритм YATI (Yet Another Transformer with Improvements). Появилась трансформерная модель ранжирования, которая стала «понимать» смысл текста, а не просто считать вхождения ключей. Именно YATI первым научился отличать осмысленный экспертный материал от «воды».
  • Конец 2023 — обновление Y1. Введён фактор «оригинальности контента» (внутри Яндекса его называют OYa — original Ya-content). Сайты-агрегаторы и рерайт-фермы потеряли 30–60% видимости.
  • Лето 2024 — Y2. Усилен учёт авторитетности автора и поведенческих сигналов. Тексты без подписи реального эксперта начали проваливаться по информационным запросам.
  • 2025 — Proxima Ranking. Это и есть та самая «гильотина» для ChatGPT-контента. В выдачу зашёл лёгкий on-the-fly классификатор, который оценивает «нейросетевую природу» документа в момент ранжирования.

Ключевой момент: Proxima работает не как пост-фактум фильтр, который накладывается через 2–3 апдейта. Он влияет на позицию здесь и сейчас. Поэтому многие владельцы сайтов даже не понимают, что произошло — «вроде ничего не делал, а трафик упал». Делать и не нужно было: достаточно было опубликовать пачку текстов из ChatGPT без редактуры.

Как Яндекс распознаёт ИИ-контент за 0,3 секунды: техническая механика

Здесь начинается самое интересное. Многие SEO-блогеры пишут «ну, Яндекс как-то определяет ИИ» — и на этом всё. Я разберу четыре конкретных сигнала, по которым работает классификатор. Эти данные собраны из публичных докладов Яндекса (HighLoad++, Я.Субботник для вебмастеров), патентов и собственных экспериментов на 40+ клиентских проектах.

1. Перплексия (perplexity) — «слишком гладкий» текст

Перплексия — это мера предсказуемости каждого следующего слова в тексте. У человека она «рваная»: мы внезапно вставляем редкое слово, делаем стилистический сбой, обрываем мысль. У GPT-моделей перплексия низкая и равномерная — нейросеть всегда выбирает наиболее вероятное продолжение фразы.

Яндекс прогоняет документ через собственную языковую модель и смотрит, насколько «удивлён» классификатор каждым новым словом. Если удивления почти нет — текст помечается как кандидат в «синтетику». На практике это занимает миллисекунды.

2. Бёрстность (burstiness) — однообразие предложений

Человек пишет предложения разной длины: короткое. Потом длинное, со множеством придаточных, с примерами и оговорками. Снова короткое. ChatGPT — нет. Если посчитать дисперсию длин предложений в среднем GPT-тексте, она будет в 2–3 раза ниже, чем в человеческом. Особенно это видно в текстах от 4-й и 5-й версии моделей: они любят писать «параграфами по 4 предложения по 18 слов каждое».

Яндекс измеряет этот ритм ещё на этапе индексации. Если статья выглядит как ровный кирпич без «дыхания» — минус к фактору оригинальности.

3. Лексические отпечатки моделей

У каждой большой языковой модели есть любимые обороты. ChatGPT обожает «важно отметить», «стоит подчеркнуть», «в современном мире», «играет ключевую роль», «представляет собой комплексный подход». Claude — «давайте разберём», «важный нюанс», «на практике это означает». Gigachat и YandexGPT тоже имеют свои сигнатуры.

Яндекс ведёт обновляемый словарь таких маркеров. Когда документ за один абзац выдаёт три-четыре «штампа из ТОПа любимых фраз GPT» — классификатор фактически уже принял решение.

4. Поведенческие факторы — последний и решающий аргумент

Даже если первые три сигнала не сработали, у Яндекса есть козырь — поведение реальных пользователей. Зашёл человек на статью, прочитал две строчки, нажал «назад» и вернулся в выдачу — это pogo-sticking, и это смертельный сигнал. ИИ-тексты страдают именно этим: они вроде бы про тему, но не отвечают на конкретный вопрос пользователя. Внутренний фактор Яндекса под названием LR (Last Read) фиксирует это в считаные минуты после публикации.

Подробнее о том, как именно работают поведенческие факторы и почему они стали критичными в 2026 году, я разбираю в блоге — там собраны разборы по каждому фактору ранжирования.

Что происходит с сайтом, на котором много ИИ-текстов

Сразу скажу: бана как такового нет. Никто не присылает письмо «вы используете ChatGPT, до свидания». Всё происходит тише и страшнее — сайт просто теряет видимость. Вот типичный сценарий, который я наблюдал на 12 проектах за последний год:

  1. Неделя 1–2 после публикации. Страница индексируется, попадает на 30–60 позицию. Веб-мастер думает: «Ничего, разгонится».
  2. Неделя 3–4. Позиция не растёт. По поведенческим факторам Яндекс понимает, что страница не отвечает на запрос лучше конкурентов. ИИ-маркеры подтверждают подозрение.
  3. Месяц 2. Страница уходит за ТОП-100 по основным запросам. Заодно начинает «тянуть вниз» соседние страницы — фактор «качество хоста» (HostQuality) считается агрегированно.
  4. Месяц 3–4. Если таких страниц больше 30% от общего объёма сайта, начинается просадка всего домена. Это не фильтр в классическом понимании — это понижение «доверия».

Самое неприятное — выйти из этого состояния сложнее, чем из обычного «Баден-Бадена». Там достаточно было переписать переоптимизированные тексты. Здесь нужно перерабатывать всю контентную базу, а это уже совсем другая по объёму и стоимости работа. Если вы подозреваете, что ваш сайт уже под этим эффектом — начните с диагностики, например с бесплатного аудита: он покажет долю «подозрительного» контента в проиндексированной части.

5 типичных ошибок, из-за которых сайты теряют трафик прямо сейчас

Эти ошибки я вижу каждую неделю на новых проектах, которые приходят на консультацию.

Ошибка 1. «Напиши SEO-статью на 5000 знаков по запросу…»

Самый частый промпт — и самый бесполезный. ChatGPT генерирует структуру по шаблону «введение → 5 подзаголовков → заключение», без экспертизы, без личного опыта, без реальных примеров. Такой текст узнаётся классификатором Яндекса за те самые 0,3 секунды.

Ошибка 2. «Уникализация» через синонимайзеры

Прогон GPT-текста через сервисы перестановки слов даёт уникальность по text.ru, но не меняет ни перплексию, ни бёрстность. Для Яндекса этот текст по-прежнему синтетический. Более того — синонимайзеры портят естественные коллокации (устойчивые словосочетания), и алгоритм видит «ещё больший признак неестественности».

Ошибка 3. Публикация без редактуры эксперта

Даже если структуру писала нейросеть, текст должен пройти через руки человека, который реально знает тему. Без этого статья не наберёт глубины и не пройдёт фактор экспертности (E-E-A-T в терминах Google, ICS — индекс качества — в терминах Яндекса).

Ошибка 4. Массовая выкатка пачкой

Если за неделю на сайте появляется 20–30 новых страниц с одинаковой стилистикой и одинаковым ритмом — это сигнал «контент-ферма». Яндекс анализирует не только отдельные документы, но и паттерн публикаций.

Ошибка 5. Отсутствие автора

Анонимные статьи в 2026 году ранжируются хуже подписанных. Фактор «авторитетность автора» — один из самых быстрорастущих в весе с момента выхода Y2. Подробнее о том, как правильно оформлять авторство и зачем это нужно для ранжирования, можно посмотреть в разделе «Об авторе» на этом сайте — там показано, как должна выглядеть страница эксперта.

Как использовать ИИ правильно: гибридный подход

Сразу оговорюсь: я не против нейросетей. Сам активно использую их в работе. Но как инструмент — а не как замену головы. Вот рабочая схема, которую мы применяем на клиентских проектах и которая не вызывает реакции классификатора:

  1. Сбор семантики и кластеризация — нейросеть. Здесь GPT-модели реально полезны: за 10 минут разносят 2000 запросов по интентам.
  2. Анализ конкурентов из ТОП-10 — нейросеть. Извлечение структуры, выявление пробелов, поиск тем, которых нет у конкурентов.
  3. Скелет статьи — нейросеть. Заголовки H2, H3, список вопросов, которые нужно раскрыть.
  4. Содержательное наполнение — человек-эксперт. Личные примеры, цифры из практики, кейсы клиентов, технические нюансы. Это та часть, которую нейросеть не сгенерирует, потому что у неё этого опыта физически нет.
  5. Финальная редактура — человек. Разрушаем «гладкость», добавляем разнообразие длины предложений, убираем GPT-штампы.

На таком подходе тексты проходят все известные мне ИИ-детекторы (включая внутренние тесты на моделях, близких к яндексовскому классификатору) и хорошо ранжируются. Если нет своих экспертных источников — есть готовое решение: SEO-статьи под заказ с авторской переработкой. Не GPT-генерация под видом контента, а тексты, которые писал и редактировал специалист с опытом в нише.

Чек-лист: как самостоятельно проверить тексты на «ИИ-следы»

Перед публикацией прогоните каждый материал по этому списку. Если хотя бы три пункта попали в «ИИ» — текст нужно переделывать.

  • В тексте есть фразы «важно отметить», «стоит подчеркнуть», «в современном мире», «играет важную роль», «комплексный подход» — 3+ штампа = красный флаг.
  • Все абзацы примерно одинаковой длины (3–5 предложений) — это не человек, это GPT.
  • В статье нет ни одного конкретного числа, имени, даты, названия инструмента — значит, нет реального опыта автора.
  • Заключение начинается со слов «таким образом», «в заключение», «подводя итог» — классическая GPT-концовка.
  • В тексте нет ссылок на внутренние страницы сайта или внешние авторитетные источники — статья «висит в вакууме».
  • Если прочитать текст вслух — звучит как методичка, а не как разговор эксперта с читателем.

Отдельный пункт — техническая сторона. Перед публикацией стоит проверять не только текст, но и сам сайт: скорость, индексацию, дубли, корректность мета-тегов. Бывает, что контент нормальный, а трафика нет из-за технических проблем. На такой случай у меня собран полный SEO-аудит сайта с разбором по 120+ параметрам — обнаруживает ошибки, которые блокируют рост, даже когда контентом всё в порядке.

Что в итоге: главное за 30 секунд

  • Яндекс действительно научился определять ИИ-контент быстро и точно. Алгоритм Proxima работает не пост-фактум, а в реальном времени.
  • «Уникальность по text.ru = 100%» больше не означает «текст пройдёт фильтры». Перплексия, бёрстность и лексические отпечатки нейросетей видны независимо от рерайта.
  • Бан не приходит письмом — сайт просто теряет 30–70% органического трафика за 2–3 месяца. И возврат сложнее, чем после классических фильтров.
  • Использовать ИИ можно и нужно — но только как помощника на этапах структуры и анализа, не как генератор финального контента.
  • Главный фактор успеха в 2026-м — реальная экспертиза автора, подкреплённая цифрами, кейсами и личным опытом. Этого нейросеть не даст.

Если ваш сайт уже потерял трафик — давайте разбираться предметно

За 20+ лет в SEO я провёл в ТОП-3 Яндекса более 300 проектов и пережил все алгоритмические апдейты, начиная с «Магадана». Текущая ситуация с ИИ-контентом — это та же история, что и с переоптимизацией в 2017-м: сначала все теряют трафик, потом разбираются и адаптируются. Те, кто адаптировался первым, забирают рынок.

Если у вас:

  • 📉 трафик из Яндекса упал на 30%+ за последние полгода;
  • 📝 на сайте есть статьи, написанные через ChatGPT/YandexGPT/GigaChat без серьёзной редактуры;
  • 🎯 конкуренты обходят вас в выдаче, хотя у них «текст хуже»;
  • 💰 контекстная реклама съедает бюджет, а органика не даёт заявок,

— это решаемо. Но решать нужно не «прогонкой через ещё одну нейросеть», а нормальной аудиторией контента, технической диагностикой и стратегией восстановления.

Что я предлагаю:

🔍 Бесплатный экспресс-аудит вашего сайта с проверкой доли «подозрительного» контента, оценкой потенциала восстановления трафика и конкретным планом действий на ближайшие 3 месяца. Без обязательств, без «вы попали под фильтр, срочно платите 200 тысяч». Только цифры и факты — оставить заявку на аудит.

🎯 Комплексное SEO-продвижение под ключ — от технической доработки до создания экспертного контента и линкбилдинга. Беру в работу один проект на нишу, чтобы не сталкивать клиентов лбами. Если место в вашей сфере свободно — обсудим стратегию: подробнее об SEO-продвижении.

📈 Гарантия качества: работаю без посредников и менеджеров — общаетесь напрямую со специалистом. За 20 лет ни один из моих клиентов не получил фильтр Яндекса. Реальные результаты — в портфолио кейсов: трафик, позиции, скриншоты Метрики.

📞 Связь напрямую: +7 (921) 333-77-45 или через форму обратной связи. Отвечаю в течение рабочего дня, на консультации сразу разбираем ваш конкретный сайт — без шаблонных «давайте сначала созвонимся обсудить».

Анатолий Кузнецов, SEO-эксперт с 2005 года. hozyindachi.ru — хозяин выдачи.

Увеличьте позиции и продажи вашего сайта

Профессиональное SEO-продвижение с гарантией результата. Выберите подходящую услугу:

Анатолий Кузнецов — SEO-оптимизатор

Остались вопросы по продвижению?

Меня зовут Анатолий Кузнецов, я SEO-оптимизатор с 20-летним стажем. Разберу ваш сайт, отвечу на вопросы и подскажу, что улучшить для роста позиций в Яндексе и Google.

Связаться со мной →

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

 Нажимая «оставить комментарий» вы принимаетеправила конфиденциальности 

Прокрутить вверх