Google сделала шаг, одновременно логичный и тревожный: компания официально встроила контент с Reddit, форумов и социальных сетей в блоки AI Overviews и AI Mode — своих инструментов ИИ в поиске. Новый блок получил названия Expert Advice или Community Perspectives в зависимости от контекста запроса.
Логика понятна. Миллионы людей ежедневно ищут в Google ответы на вопросы вроде «как лечить простуду без антибиотиков» или «что делать, если работодатель не выплачивает зарплату». Реальный опыт реальных людей часто полезнее, чем SEO-оптимизированный корпоративный текст. Reddit давно стал де-факто базой знаний для подобных запросов — неслучайно Google еще в 2024 году заключила с ним многомиллионное партнерское соглашение на доступ к данным.
Проблема — в ярлыке. Когда система обозначает пост анонимного пользователя форума как Expert Advice, она стирает границу между верифицированной экспертизой и чьим-то личным мнением. Человек, задающий вопрос о взаимодействии лекарств или юридических правах, может не заметить разницы — особенно если ответ выглядит убедительно и получил много лайков.
Google пока не раскрыла детали о том, какие именно сигналы определяют, чей комментарий попадет в блок и получит статус «экспертного». Учитывается ли верификация аккаунта? Репутация в конкретном сообществе? Количество голосов? Ответов на эти вопросы нет — есть только продукт, который уже разворачивается для пользователей.
Это часть более широкой трансформации поиска. Google постепенно превращает его из каталога ссылок в систему ответов. ИИ синтезирует, суммирует, рекомендует — и теперь еще решает, чье мнение в интернете заслуживает статус экспертного. Издания и авторы, которые годами строили репутацию через редакционные стандарты, оказываются в одном блоке с анонимными описаниями чужого опыта.
Если Google не раскроет критерии отбора и механизм обозначения контента как «экспертного» — есть ли основания доверять этому ярлыку больше, чем любому другому рекомендательному алгоритму, который мы уже научились проверять?