Привет, я Иван Захаров. В этой статье разберу свежие данные бенчмарков, которые показали: новые модели ИИ неожиданно хуже справляются с SEO-задачами. Да, вы правильно поняли – обновления теперь не гарантируют улучшений. Более того, в ряде случаев точность падает почти на 10%.
Миф «новее = лучше» больше не работает
Еще год назад всё было просто: ждём новую версию модели – получаем прирост качества. Но эта логика сломалась.
Мы провели собственный SEO-бенчмарк, протестировав новые флагманы – Claude Opus 4.5, Gemini 3 Pro и ChatGPT-5.1 Thinking. Результаты оказались тревожными: впервые за всю эпоху генеративного ИИ новые модели показывают худшие результаты, чем предыдущие.
Среднее падение точности на SEO-задачах
- Claude Opus 4.5: 76% (против 84% у 4.1)
- Gemini 3 Pro: 73% (минус 9% по сравнению с 2.5 Pro)
- ChatGPT-5.1 Thinking: 77% (на 6% ниже стандартного GPT-5)
Важно понимать: это не ошибка и не случайность. Это следствие того, что новые модели были оптимизированы совсем под другие цели.
Диагноз: «агентный разрыв»
Почему компании выпускают модели, которые хуже справляются с SEO? Потому что теперь их обучают не под формат «задал вопрос – получил точный ответ», а под глубокое рассуждение и автономные агентные сценарии.
Что происходит внутри моделей:
- Глубокое рассуждение: модели начинают «переосмысливать» простые задачи и усложняют там, где не нужно.
- Огромные контексты: модели ждут, что им будут скармливать кодовые базы, а не один URL.
- Жёсткие правила безопасности: некоторые технические запросы ИИ теперь может ошибочно воспринимать как попытку взлома – особенно в Claude и Gemini.
Мы имеем дело с «агентным разрывом»: модели пытаются мыслить как агенты, а SEO-задачи в большинстве случаев требуют простой, структурной логики.
Что делать: перестать просто писать промпты и начать проектировать систему
Эра «сырых» промптов завершилась. Базовый интерфейс чата больше не справляется с критичными задачами. Чтобы вернуть прежнюю точность – а в идеале превзойти её – нужно менять подход.
1. Уходите от чата – переходите к рабочим процессам
Не используйте модели прямо «из коробки». Перенесите повторяющиеся задачи в так называемые «контекстные контейнеры».
Инструменты:
- Custom GPTs (OpenAI)
- Claude Projects (Anthropic)
- Gemini Gems (Google)
2. Жёстко задавайте контекст (облегчённый RAG)
Падение точности особенно заметно в стратегических вопросах. Без контекста модели начинают «дрейфовать» и выдавать абстрактные советы.
- Не просите модель «создать стратегию».
- Загрузите в среду бренд-гайд, исторические данные, правила компании, методологию.
Это заземляет выводы и снижает вероятность галлюцинаций.
3. Используйте старые стабильные модели для технического SEO
Для бинарных задач (статусы, схемы, каноникал и т.д.) новые «мыслящие» модели избыточны и часто ошибаются.
- Оставьте для таких задач предыдущие версии (GPT-4o, Claude 3.5 Sonnet).
- Либо обучите маленькую модель под свои правила аудита.
Главные выводы
- Иногда нужно откатиться назад: старшие модели часто точнее новых.
- Эра one-shot запросов закончилась: без контекста новые модели ошибаются чаще.
- Контейнеризация – обязательна: любые повторяющиеся процессы нужно упаковывать в GPT/Project/Gem.
- Стратегия и техаудит страдают сильнее всего: перепроверьте автоматические процессы, работающие на новых API.
Стратегический взгляд вперёд
С апреля мы повторяем одно и то же: больше нельзя использовать модели «как есть», особенно в критичных задачах.
Человеческое SEO важнее, чем когда-либо
Переход от «чатов» к «агентам» не уменьшает роль специалиста – он делает её фундаментальной. Модели стали инструментами, а не решениями.
Чтобы добиться высокого качества, нужны специалисты, которые умеют:
- архитектировать системы на основе ИИ;
- встраивать их в рабочие процессы;
- контролировать, корректировать и направлять выводы моделей.
Лучшие результаты в SEO будут у тех, кто не просто пишет промпты, а строит систему, задаёт правильные рамки и подаёт модели стратегический контекст.
Если система не выстроена правильно, модель провалится – независимо от версии.
