15 мая 2026 года Google опубликовал то, чего рынок SEO ждал два года: официальное руководство по оптимизации сайтов под AI-поиск. Документ называется «Optimizing your website for generative AI features on Google Search», лежит в разделе Search Central и впервые формализует позицию компании по поводу AI Overviews, AI Mode и всего, что в рунете последний год называли модным словом GEO.
Мы прочитали гайд от корки до корки и сравнили его с тем, что советуют большинство SEO-агентств в статьях про GEO и AEO. Расхождение получилось радикальное. Google говорит: не нужно делать половину того, что вам продают как «оптимизацию под AI». Не нужен llms.txt, не нужен специальный маркап, не нужно резать контент на «чанки» и переписывать каждую страницу под условный ChatGPT. А то, что работает, удивительным образом совпадает с базовыми принципами SEO, которые знакомы рынку с 2015 года.
В статье разберём гайд по разделам, переведём технические формулировки на русский, добавим контекст для Яндекса и покажем сравнительную таблицу «что советует Google vs что советуют агентства». В конце — чек-лист на 30 дней. Если вы управляете контентом, делаете SEO-продвижение или планируете идти в эту профессию через курсы по SEO, статья сэкономит вам недели чтения противоречивых материалов.
Что Google сказал 15 мая — коротко
Главное в трёх тезисах.
Первое. AI-функции Google (AI Overviews, AI Mode, query fan-out) работают поверх того же индекса, что и классический поиск. Технически это называется RAG (retrieval-augmented generation): модель ищет в вашем сайте через обычные алгоритмы Google, забирает релевантные куски, генерирует ответ. Никакого отдельного «AI-индекса» нет. Если страница не ранжируется в обычной выдаче, она не попадёт и в AI Overviews.
Второе. Google прямо говорит: «оптимизация под AI-поиск остаётся оптимизацией под поиск в целом». Никаких новых сущностей. Никаких «AEO» и «GEO» как отдельных дисциплин с собственными правилами. Это всё — SEO, который вы и так должны делать.
Третье. Есть раздел Mythbusting, где компания перечисляет, что делать НЕ нужно. Этот список бьёт ровно по тому, что сейчас продают агентства под видом GEO-аудитов. Об этом отдельно через два раздела.
Главный тезис гайда: SEO под AI — это просто SEO
Чтобы понять логику Google, надо разобраться с тем, как AI Overviews собирают ответ. Когда вы вбиваете в поиск запрос и видите наверху сгенерированный блок со ссылками на источники, под капотом происходит следующее.
- Языковая модель Google анализирует ваш запрос и при необходимости разворачивает его в несколько связанных подзапросов (это и называется query fan-out).
- По каждому подзапросу система обращается к индексу и тянет топ-выдачу — те же самые страницы, которые видны в обычном поиске.
- Модель берёт релевантные фрагменты из этих страниц, синтезирует ответ и показывает clickable-ссылки на источники.
Это значит две неприятные вещи для тех, кто пытался искать «секретные хаки» под AI. Первая: если страница не индексируется, у неё ноль шансов попасть в AI-ответ. Вторая: всё, что повышает вашу позицию в классической выдаче, одновременно повышает вероятность цитирования в AI Overviews.
В этом смысле гайд — документ-разочарование для тех, кто продавал клиентам «новую парадигму GEO» по 200 000 ₽ за аудит. Google говорит: займитесь техническим SEO, пишите хороший контент, не спамьте, и вы окажетесь в AI-выдаче. Всё.
Но дьявол в деталях. Гайд раскрывает три большие группы рекомендаций — контентные, технические, продуктовые. Разберём по порядку.
Что Google прямо запретил делать — раздел Mythbusting
Начнём с неприятной части для многих агентств. В гайде есть отдельная секция «Mythbusting generative AI search: what you don’t need to do». В ней Google перечисляет пять вещей, которые активно продаются на рынке, но по факту не дают эффекта. Пройдёмся по каждой.
Файл llms.txt и любой «AI-маркап»
Дословная цитата из гайда: «You don’t need to create new machine readable files, AI text files, markup, or Markdown to appear in generative AI search». То есть никакого llms.txt в корне сайта, никакой специальной разметки «для ИИ», никаких отдельных Markdown-версий страниц. Ничего этого не надо.
Это бьёт по двум популярным трендам. Первый — файл llms.txt, который продвигал стартап Answer.AI как «robots.txt для языковых моделей». Идея была в том, чтобы дать LLM-ам структурированную карту контента. Google прямо говорит: мы его не используем и использовать не планируем. OpenAI и Anthropic тоже не подтвердили, что читают его. Файл превратился в маркетинговый артефакт, и сейчас он есть только у 5–7 % сайтов, которые ставили его «на всякий случай».
Второй тренд — переизбыток structured data в надежде «накормить» AI. Google уточняет: разметка нужна для rich-сниппетов в классическом поиске, но никаких бонусов в AI-выдаче за неё нет. Если у вас уже есть FAQPage, Article, Product, оставляйте. Если нет, наличие FAQ-схемы само по себе вас в AI Overviews не вытащит.
Чанкинг контента под «удобство» AI
Ещё один популярный совет агентств — разбивать тексты на мелкие самостоятельные «чанки» по 100–200 слов, потому что языковые модели якобы так «удобнее парсят». Google пишет: системы понимают многоуровневую структуру страницы, заголовки и абзацы. Дополнительная нарезка под AI не требуется и никакого преимущества не даёт. Делайте нормальную человеческую структуру с H2 и H3, и этого достаточно.
Переписывание контента «специально для ИИ»
В гайде прямо сказано: системы понимают синонимы и семантику, отдельные «long-tail переформулировки» для LLM не нужны. Не надо вставлять в текст по десять вариантов одного и того же вопроса в разной формулировке: это не добавит вам видимости в ChatGPT-подобных ответах, зато сделает текст нечитаемым для человека.
Искусственные mentions и ссылочные манипуляции
В последний год появилась индустрия услуг типа «получите 50 упоминаний бренда на площадках, которые цитирует ChatGPT». Google по этому поводу высказывается с традиционной для себя жёсткостью: «Поиск искусственных упоминаний неэффективен; мы фокусируемся на качестве контента и блокируем спам». То есть оптовая закупка mentions попадает под политики о манипулировании ссылочными сигналами. Рискуете не получить эффекта и схватить санкции.
Scaled content abuse: куча страниц «под каждый запрос»
Гайд напоминает: создание десятков и сотен похожих страниц для манипуляции ранжированием по всем возможным длиннохвостным запросам: это нарушение политики scaled content abuse. AI-инструменты, которыми такие страницы массово генерируются, в этом смысле особенно опасны: они снижают порог входа, но штрафы за шаблонный AI-контент Google усилил ещё в марте 2024.
Что реально работает: создание non-commodity контента
Главная контентная рекомендация гайда — перестать клепать commodity-контент. В переводе на русский: ваша задача — не пересказывать своими словами то, что уже сказано в ТОП-10 выдачи. Google говорит дословно: «Не перерабатывайте то, что уже сказали другие».
Это критично именно для AI-эпохи. Когда модель собирает ответ, она выбирает источники, которые добавляют что-то уникальное к её внутреннему знанию. Десятая статья с пересказом Википедии не попадёт в AI Overview, потому что её содержание уже есть и в модели, и в других источниках. А вот свежий эксперимент, личный отзыв с фотографиями, ваше собственное исследование на 100 респондентов — это и есть та уникальная единица данных, которую модель захочет процитировать.
Google приводит три формата, которые точно работают:
- Личный опыт. Статьи в формате «я пользовался этим инструментом полгода, вот что выяснил». Не обзор по маркетинговому буклету, а реальное использование.
- Собственные данные. Опросы, эксперименты, аналитика на ваших клиентах. Любые цифры, которых нет на других сайтах.
- Экспертные взгляды. Текст от человека, который реально работает в теме, а не от копирайтера на бирже.
На checkroi мы давно следуем этому правилу: каждая статья проходит через эксперта-практика, а для технических тем подключаем людей, которые ежедневно работают с инструментом. Это, кстати, прямо коррелирует с концепцией E-E-A-T, к которой Google в гайде возвращается без использования самой аббревиатуры: через формулировки «unique point of view», «expert or experienced takes», «people-first content».
Качество визуала
Отдельный пункт в гайде — качество картинок и видео. В AI Mode и AI Overviews Google всё чаще подмешивает визуальные элементы прямо в ответ. Если ваши изображения — это размытые стоки или скриншоты в разрешении 600 пикселей по широкой стороне, вы проигрываете тем, у кого есть нормальные собственные снимки, схемы и инфографика. Делайте свои изображения, минимум 1200 пикселей по широкой стороне, с осмысленным alt-атрибутом.
Чего избегать
Гайд предостерегает от соблазна делать «отдельную версию контента для каждого запроса». Сейчас, когда генерация текста стоит копейки, это превращается в промышленный спам. Google это видит. Одна сильная страница на кластер запросов всегда выигрывает у двадцати слабых, заточенных под микроварианты.
Что реально работает: техническая чистота сайта
Второй большой блок гайда — техника. Здесь Google повторяет то, что говорил последние десять лет, но с нюансами для AI-эпохи.
Базовое условие — страница должна быть проиндексирована и технически пригодна для показа в обычной выдаче со сниппетом. Не индексируется — нет шансов в AI. Заблокирована robots.txt — нет шансов. Стоит noindex — нет шансов. Это звучит как трюизм, но в нашей практике аудитов мы регулярно видим сайты, где половина продуктовых страниц случайно закрыта от индексации после релиза.
Дальше идёт набор технических best practices:
- Семантический HTML. Заголовки H1–H6 в правильной иерархии, абзацы в
<p>, списки в<ul>и<ol>, таблицы в<table>. Google прямо пишет, что идеальный код не требуется, но осмысленная семантика помогает. - JavaScript SEO. Если контент рендерится через JS, проверьте, что Googlebot видит ту же версию, что и пользователь. Это особенно важно для SPA на React и Vue.
- Page experience. Мобильная адаптация, скорость загрузки, читаемость. Это влияет и на поведенческие факторы, и на шанс быть процитированным.
- Дублирование контента. Снижайте — через канонические URL, грамотную пагинацию, единый источник для одного и того же материала.
Здесь нет никакой сенсации. Но это и есть посыл Google: вы уже знаете, что делать. Делайте.
Что реально работает: локальный бизнес и e-commerce
Третий раздел гайда касается тех, у кого есть физическая точка или интернет-магазин. Google рекомендует:
- Подключить и поддерживать актуальный Google Business Profile — это базовый источник данных для AI-ответов про конкретные заведения.
- Использовать Merchant Center feeds — фид товаров с ценами, наличием, характеристиками. Это даёт видимость в шопинг-блоках AI Overviews.
- Рассмотреть подключение Business Agent — нового инструмента для разговорных взаимодействий с покупателями через AI-интерфейс.
Для Рунета прямая аналогия — Яндекс.Бизнес и Яндекс.Маркет фиды. Логика та же: чем структурированнее данные, тем выше шансы попасть в Алису, YandexGPT и аналогичные AI-функции.
Agentic experiences: формат, к которому стоит готовиться
Отдельная часть гайда — про AI-агентов. Это автономные системы, которые от имени пользователя выполняют задачи на сайтах: бронируют отели, сравнивают цены, добавляют товары в корзину. В 2026 это уже не фантастика: ChatGPT с функцией Operator, Perplexity Comet, агентский режим Gemini уже умеют взаимодействовать с сайтами через анализ DOM, скриншоты и accessibility tree.
Google рекомендует подумать о том, насколько ваш сайт «agent-friendly». Это означает:
- Понятная навигация, которую можно пройти без хитрых JS-эффектов
- Корректные ARIA-атрибуты и accessibility tree
- Чёткие формы с осмысленными названиями полей
- Отсутствие капч на ровном месте
Google также упоминает развитие протокола UCP (Universal Commerce Protocol) — стандарта, через который агенты будут общаться с интернет-магазинами. Если у вас e-commerce, имеет смысл следить за этой темой через 2026 год: когда стандарт устаканится, ранние подключившиеся получат фору.
Сравнительная таблица: Google vs SEO-агентства
Чтобы было нагляднее, мы собрали в одну таблицу самые громкие советы из популярных русскоязычных гайдов по GEO и сопоставили их с позицией Google из нового документа.
| Совет, который часто продают | Что говорит Google в гайде | Стоит делать? |
|---|---|---|
| Создайте файл llms.txt в корне сайта | Не нужно. Никаких новых machine-readable файлов для AI | Нет |
| Размечайте контент специальным AI-маркапом | Не нужно. Используйте обычную Schema.org для rich-сниппетов, и это всё | Нет |
| Разбивайте текст на «чанки» по 100–200 слов | Не нужно. Google понимает иерархию H2/H3 без нарезки | Нет |
| Переписывайте контент специально под ChatGPT | Не нужно. Системы понимают синонимы и семантику | Нет |
| Покупайте упоминания бренда на площадках, которые цитирует ChatGPT | Не работает. Подпадает под политики о манипуляциях | Нет |
| Делайте по отдельной странице на каждый длиннохвостный запрос | Нарушение политики scaled content abuse | Нет |
| Создавайте non-commodity контент с уникальной точкой зрения | Да, ключевая рекомендация | Да |
| Используйте FAQ-разметку Schema.org | Полезно для rich results, но не даёт буста в AI | Да (для SEO в целом) |
| Стройте E-E-A-T: эксперты, опыт, авторитет | Да, через формулировку «expert or experienced takes» | Да |
| Следите за Page Experience и Core Web Vitals | Да, прямо упомянуто как фактор | Да |
| Подключайте Google Business Profile и Merchant Center | Да, для локального бизнеса и e-commerce | Да |
| Готовьте сайт к agentic experiences | Да, отдельный раздел в гайде | Да |
Шесть из двенадцати популярных советов — это маркетинговый шум. Те деньги, которые вы собираетесь потратить на llms.txt-аудит и закупку mentions, можно вложить в один сильный кейс или собственное мини-исследование. Эффект будет выше.
Что с этим всем делать в Яндексе
Гайд Google прямо адресован Google Search и его AI-функциям. Но логика RAG и принципы качества контента работают одинаково и для YandexGPT, и для нейропоиска Алисы. У Яндекса своих публичных гайдов по оптимизации под AI пока нет, но косвенные сигналы из Я.Вебмастера и документации Search Console показывают ту же картину.
Что точно совпадает между Google и Яндексом:
- База — классический SEO. Без него ничего не работает.
- Качество контента и E-E-A-T-сигналы (у Яндекса аналог — «качественный сайт» в ИКС-формуле).
- Поведенческие сигналы. У Яндекса они исторически весят больше, чем у Google, и значит, чтение AI-выжимок не должно убивать вашу досмотриваемость страницы.
- Структурированные данные. Используются обоими движками для rich-сниппетов.
Что отличается:
- Яндекс активнее тестирует «нулевой клик»: случаи, когда ответ показывается прямо в SERP и пользователь не переходит на сайт. Это значит, что в Яндексе важнее иметь contextual hook, причину дочитать дальше первого ответа.
- Бренд-сигналы Яндекс учитывает агрессивнее. Если ваш бренд узнаваем, AI-функции Алисы цитируют вас охотнее.
Что в Яндексе работать не будет:
- Любые попытки прямого «программатического» воздействия на LLM: prompt injections в скрытых блоках, фейковые цитаты от якобы экспертов и т. п. Алгоритмы антиспама ловят это так же, как и Google.
Чек-лист на 30 дней: что сделать прямо сейчас
Если хотите перевести гайд в конкретные действия, вот план на месяц. Он подойдёт и маленькому проекту, и корпоративному сайту.
Неделя 1 — технический аудит
- Проверить, что все ключевые страницы индексируются (Search Console, Я.Вебмастер).
- Прогнать сайт через PageSpeed Insights и Лайтхаус, починить критичные Core Web Vitals.
- Проверить мобильную версию — и по вёрстке, и по функциональности.
- Снять noindex и ненужные блокировки в robots.txt с продуктовых разделов.
Неделя 2 — ревизия контента
- Выгрузить ТОП-30 страниц по органике из аналитики.
- Для каждой оценить: есть ли тут что-то уникальное, или это пересказ ТОП-10?
- Отметить страницы, где можно добавить личный опыт, кейс, цифры из своих данных.
- Список «commodity-страниц» отложить — их придётся переделывать или объединять.
Неделя 3 — люди и экспертиза
- Завести страницы авторов с реальными биографиями, фото, ссылками на соцсети и публикации.
- Подписывать статьи именами авторов и экспертов, а не «редакция».
- Подключить хотя бы 2–3 практикующих специалистов к проверке материалов — это та самая «experience» из E-E-A-T.
- Если есть лицензии, дипломы, награды — добавить на страницу «О компании».
Неделя 4 — визуал и agent-friendliness
- Заменить стоковые картинки на собственные фото, схемы, инфографику минимум 1200 пикселей.
- Проверить alt-атрибуты на осмысленность.
- Прогнать ключевые пользовательские сценарии (форма заявки, корзина) через accessibility-проверку.
- Убрать капчи на второстепенных формах — оставить только там, где реально много спама.
Через месяц у вас будет сайт, который не просто соответствует гайду Google, но и объективно лучше работает для пользователей. Что, по большому счёту, и есть смысл всех этих рекомендаций.
Где научиться SEO и работе с нейросетями
Если хочется не просто разово починить сайт, а разобраться в теме на уровне профессии, есть смысл пройти структурированный курс. Преимущество курса перед бесплатными статьями — живая обратная связь, разбор реальных кейсов и понятная карта развития на 6–12 месяцев. Мы собрали актуальные курсы по SEO в одном месте: с ценами, программами и отзывами выпускников.
Больше программ — в полном каталоге курсов по поисковой оптимизации (seo)
Для тех, кому интереснее работа с нейросетями как с инструментом производства контента, есть отдельный пласт курсов про нейросети и их применение в маркетинге. И отдельная история — осваивать профессию SEO-специалиста с нуля. Через 4–6 месяцев плотного обучения у человека без бэкграунда вырастает реальная зарплата в 100–150 тысяч рублей, и это профессия, которую AI не убьёт ближайшие 5 лет, а скорее усилит.
Главный вывод
Гайд Google от 15 мая 2026 — это сигнал отрасли. Бизнес-модель продажи «GEO-аудитов» по 200 тысяч закончилась, не успев толком начаться. Компания, которая контролирует 90 % поискового трафика в мире, ясно сказала: AI-поиск работает поверх классического индекса, никаких новых дисциплин и файлов вы для него заводить не должны.
Хорошая новость: всё, что вы уже умеете в SEO, работает и в AI-эпоху. Технический аудит, индексация, скорость, мобильная адаптация — это фундамент. На него ложится уникальный экспертный контент с личным опытом и собственными данными. Бренд и узнаваемые авторы ускоряют всё это.
Плохая новость для тех, кто пять лет клепал шаблонные обзоры по TZ от агрегатора: ваш контент в AI-выдаче не появится. Модель его проигнорирует в пользу того, у кого есть собственная точка зрения. Перестраивайтесь: либо в сторону глубокой экспертизы, либо в сторону собственных исследований и кейсов.
И да, llms.txt можно удалить.




![Статья: Кто такие AI-native люди: признаки, отличия от digital native и как стать одним из них в 2026 году Кто такие AI-native люди: признаки, отличия от digital native и как стать одним из них в [current_year] году](https://checkroi.ru/wp-content/uploads/2026/05/og-cover-57761-1778513139.jpg)