Как Google заменяет заголовки СМИ ИИ-кликбейтом.
Представьте: вы листаете ленту на смартфоне и видите заголовок «Видеокарта AMD превосходит Nvidia». Коротко, резко, почти как рекламный слоган. Но открываете материал — а там всего лишь новость о том, что один немецкий ретейлер за одну неделю продал чуть больше видеокарт AMD, чем Nvidia. Именно такую подмену смысла сейчас тестирует Google: компания автоматически заменяет оригинальные заголовки материалов в рекомендательной ленте на собственные, более короткие формулировки, сгенерированные алгоритмами. Формально это «эксперимент с интерфейсом», а по факту — вмешательство в редакционную работу чужих медиа.

Злобная улыбка робота. Изображение сгенерировано нейросетью.
Google Discover — это персонализированная лента рекомендаций в приложениях и на стартовых экранах Google, где пользователю показывают новости, статьи и материалы с сайтов по его интересам и истории поведения. Для многих изданий это важный источник трафика, особенно на мобильных устройствах, потому что публикации из Discover открываются в один тап, без отдельного поиска. Именно в этой ленте сейчас и происходят эксперименты с автоматической заменой заголовков, о которых пользователи узнают только по мелкой пометке о применении искусственного интеллекта в блоке «Подробнее».
Внешне подмена выглядит почти невинно: вместо длинного редакционного заголовка в ленту подставляется короткая фраза на три–четыре слова. Но алгоритм не чувствует редакционных нюансов и контекста, он работает с текстом как с набором статистик. В результате появляются формулировки, которые либо чрезмерно обобщают выводы статьи, либо обещают читателю то, чего в материале нет. Пользователь видит рядом логотип уважаемого издания и автоматически связывает кликбейт не с Google, а с журналистами, хотя их исходный заголовок мог быть аккуратным и строгим.
Эксперимент с Discover не возник на пустом месте. За последние годы Google шаг за шагом встраивает генеративные технологии в поиск: сначала появились расширенные сниппеты, затем бета-режим «Обзор от ИИ», который собирает ответы из разных источников и выводит их над привычными ссылками. Логика корпорации проста: пользователь должен получать «готовый ответ» и не утруждать себя переходами. Для медиа это означает постепенную потерю контроля над тем, как их контент показывается аудитории, а с появлением переписанных заголовков контроль начинает таять уже в самой верхней строке материала — в заголовке.
Почему ИИ-заголовки бьют по доверию к СМИ.
Заголовок — это не просто наживка для клика, а мини-контракт между редакцией и читателем: вот о чем будет текст, вот какой тон мы выбираем, вот насколько осторожно формулируем выводы. Когда над этим контрактом начинают экспериментировать платформы, доверие оказывается под ударом. Пользователь видит в ленте агрессивный, обрывочный или просто странный заголовок, ассоциирует его с брендом СМИ, а затем разочаровывается, обнаружив другое содержание. Для человека это один эпизод с неприятным осадком, а для редакции — медленное, но системное размывание репутации.
Ключевую роль здесь играет именно искусственный интеллект (ИИ), который Google использует для генерации и переформулирования заголовков. Алгоритму безразличны репутация издания, его стиль и накопленный годами кредит доверия аудитории: он оптимизирует поведение пользователей по набору метрик — клики, время просмотра, глубина взаимодействия. Там, где редакция старается не вводить аудиторию в заблуждение, ИИ легко «завинчивает» заголовок до состояния кликбейта, если это повышает вероятность того, что человек коснется экрана.
ИИ — это сокращение от «искусственный интеллект», общего названия для алгоритмов и моделей, которые имитируют человеческое мышление: анализируют большие массивы данных, распознают паттерны и на основе этого делают прогнозы или генерируют текст и изображения. В случае с новостями такие системы учатся на миллионах текстов и кликов, подстраиваясь под поведение пользователей. Однако, в отличие от живого редактора, ИИ не несет ни профессиональной, ни моральной ответственности за точность формулировок и за последствия, к которым они приводят.
Исследования Reuters Institute уже несколько лет подряд фиксируют падение доверия к новостям и рост доли аудитории, которая воспринимает информационную среду как шум, а не как ориентир. На этом фоне любые элементы кликбейта воспринимаются болезненнее, чем десять лет назад: уставший от информационной перегрузки человек быстрее вычеркивает из собственной повестки «подозрительные» бренды. Парадокс в том, что теперь в такой черный список может попасть вполне ответственное издание, которое вообще не писало скандального заголовка — за него это сделала платформа.
Еще одна проблема — тип потребления новостей, к которому подталкивают сверхкраткие ИИ-заголовки. Лента превращается в бегущую строку: взгляд цепляется только за самые простые и эмоциональные формулировки, а сложные темы — экономика, политика, наука — просто пролистываются. Пользователь постепенно привыкает к тому, что «нормальный» заголовок — это два-три слова и щепотка драматизма. В результате даже аккуратно написанные, но более обстоятельные заголовки классических СМИ начинают проигрывать в этой гонке внимания, а информационная диета аудитории беднеет.
К чему приводит постоянный ИИ-кликбейт в новостных лентах:
- Читатели начинают реже доверять брендам СМИ, даже если кликбейт порожден платформой, а не редакцией.
- Сложные и «некричащие» темы получают меньше внимания и вытесняются развлекательным и конфликтным контентом.
- Редакции оказываются заложниками чужих алгоритмов и теряют возможность выстраивать собственную стратегию заголовков.
- Растет цинизм аудитории: все новости воспринимаются как шум и манипуляция, а не как полезная информация.
В совокупности это приводит к тихому кризису: новостная экосистема формально жива, но качество связи между обществом и журналистикой снижается. Люди по-прежнему читают новости, но доверяют им меньше и реже готовы разбираться в деталях. В таком сценарии ИИ выступает не как помощник редакций, а как еще один посредник, который перехватывает управление вниманием и не отвечает перед читателем за честность формулировок.
Трафик, деньги и российский контекст: кто платит за эксперимент Google.
Для Google переписать заголовок — вопрос пары миллисекунд и дополнительных вычислений в дата-центре. Для издателя это может стоить падения трафика, рекламных доходов и части лояльной аудитории. В западных медиа уже появились коалиции, которые пытаются выстроить правила игры с ИИ-платформами: речь идет о форматах лицензирования контента, запрете на несанкционированный «скрапинг» материалов и ясных условиях использования текстов в обучении моделей. Российский медиарынок, как справедливо отмечают эксперты, оказался в более уязвимой позиции: многие глобальные сервисы либо уже ограничены, либо могут быть ограничены в любой момент, а переговорная позиция локальных редакций слабее, чем у крупных международных брендов.
Руководители аналитики крупных российских издательских домов справедливо замечают: на Западе медиа пытаются договариваться с ИИ-сервисами через коллективные структуры и лицензирование, в России же реальный инструмент воздействия — жалобы в регулятор и потенциальные санкции против зарубежных платформ. Это создает странный выбор: либо мириться с тем, как иностранные алгоритмы обращаются с контентом российских СМИ, либо требовать ограничений и тем самым отрезать часть источников трафика. В любом случае пользователь оказывается крайним: или он получает удобные, но искаженные ленты, или лишается части привычных сервисов.
С другой стороны, перераспределение трафика под давлением ИИ уже видно на конкретных примерах. Кулинарные блогеры в разных странах жалуются, что генерируемые Google ответы забирают к себе и запрос, и клики: пользователь читает «сводный рецепт» прямо на странице поиска и не переходит на сайты, где этот рецепт был разработан и проверен. Аналогичную ситуацию описывают авторы тревел-блогов и нишевых медиа: трафик падает на десятки процентов, а алгоритмы в поиске и Discover все чаще показывают не оригинальные материалы, а переработанные нейросетями пересказы. Фактически журналисты и авторы становятся бесплатным «сырьем» для сервисов, которые затем конкурируют с ними за ту же аудиторию.
Шеф-редактор технологического издания iXBT.com Илья Рубцов обращает внимание на еще один эффект. По его словам, некликбейтные, аккуратные заголовки — это часть конкурентного преимущества серьезных медиа наравне с оперативностью и точностью. Потеря контроля над тем, как материал выглядит в Discover, лишает редакции этого преимущества. Часть изданий, наоборот, может быть рада «автоматическому кликбейту» от Google, но тогда лента рискует превратиться в поток рерайтов рерайтов, где оригинальность и ответственность тонут в массе похожих обрывков текста. В такой среде особенно возрастает ценность проверенной, эксклюзивной информации и тех брендов, которым читатель доверяет лично.
Практические шаги, о которых российским медиа уже стоит задуматься:
- Снижать зависимость от платформенных лент: развивать прямые каналы связи с аудиторией — рассылки, приложения, сообщества, собственные рекомендательные механики.
- Четко проговаривать политику заголовков внутри редакции и в публичной коммуникации, чтобы читатель понимал: если он видит в ленте странный кликбейт, это, вероятнее всего, не авторская позиция издания.
- Следить за экспериментами Google и других платформ, фиксировать случаи искажения заголовков и, при необходимости, консолидировано обсуждать их с отраслевыми ассоциациями и регулятором.
- Инвестировать в собственные ИИ-инструменты, которые помогают журналистам, а не подменяют их — от анализа массивов документов до персональных рекомендаций без вмешательства в смысл заголовков.
Такая стратегия не отменит зависимости от больших платформ, но сделает редакции менее уязвимыми к их экспериментам. Чем крепче прямой канал между медиа и читателем, тем сложнее любому алгоритму — будь то ИИ или обычная рекомендательная система — испортить отношения одним неудачным заголовком. А осознанная работа с технологиями позволяет использовать искусственный интеллект как инструмент, а не как новую форму цензуры вниманием.
Заключение.
История с ИИ-кликбейтом в Google Discover — это не столько про заголовки, сколько про власть над точкой входа в новость. Сегодня несколько корпораций фактически контролируют, какие формулировки увидит человек, прежде чем попадет на сайт медиа, и могут менять эти формулировки без уведомления редакций. Формально эксперимент ограничен частью англоязычной аудитории и отдельной лентой рекомендаций, но по сути он демонстрирует, насколько легко алгоритмы могут вмешиваться в журналистскую работу — и как быстро последствия этого вмешательства перекидываются на доверие к СМИ в целом.
Для редакций это сигнал к пересборке стратегии: меньше полагаться на платформенный трафик, активнее строить собственные каналы и проговаривать с читателями, что именно они контролируют, а что — нет. Для пользователей — повод относиться к любому крикливому заголовку в ленте с осторожностью, проверять источник и, при необходимости, пользоваться инструментами жалоб и настройки интересов. Будущее новостей в эпоху ИИ во многом будет зависеть не от абстрактных «алгоритмов», а от того, насколько последовательно медиа и аудитория готовы защищать простую вещь: право автора на собственный заголовок и право читателя знать, кто за этим заголовком стоит на самом деле.
Источники.
- РБК Тренды. «Google тестирует замену заголовков СМИ на ИИ-кликбейт». https://trends.rbc.ru/trends/innovation/693061909a7947678a4d86b7
- The Verge. «Google is experimentally replacing news headlines with AI clickbait nonsense». https://www.theverge.com/ai-artificial-intelligence/835839/google-discover-ai-headlines-clickbait-nonsense
- Android Authority. «Google is replacing Discover news headlines with AI-generated titles that are either boring, too clickbaity, or simply incorrect». https://www.androidauthority.com/google-discover-ai-headlines-3621603/
- PCWorld. «Google Discover starts rewriting headlines using AI — with mixed results». https://www.pcworld.com/article/3000529/google-discover-starts-testing-ai-generated-headlines-with-mixed-results.html
- Reuters Institute for the Study of Journalism. «Digital News Report 2025». https://reutersinstitute.politics.ox.ac.uk/digital-news-report/2025
- Search Engine Land. «Google and AI slop are ruining Thanksgiving for food bloggers». https://searchengineland.com/google-ai-slop-thanksgiving-food-bloggers-465200
Комментарии
Правила комментирования