Что произошло
Компания Superhuman временно отключила функцию Expert Review в своём инструменте для письма — решение, которое публично подтвердил генеральный директор Шишир Мехротра в публикации на LinkedIn. Функция использовала генеративный искусственный интеллект для создания комментариев и советов к текстам, якобы от имени известных писателей или экспертов.
Как работала функция
Инструмент анализировал текст пользователя и подбирал имена авторов или учёных в соответствии с темой материала. На их основе ИИ генерировал отзывы, опираясь на публично доступную информацию и языковые модели. По сообщениям, имена реальных авторов и учёных появлялись в сервисе без их разрешения, что вызвало резкую критику в профессиональном сообществе.
Реакция и правовые риски
Часть писателей и учёных резко раскритиковала практику. По имеющейся информации, против Superhuman уже готовят коллективный иск, а юристы по интеллектуальной собственности обращают внимание на вопросы согласия, авторства и возможного подрыва репутации. Для платформы это означает не только репутационные потери, но и реальные юридические обязательства.
"Expert Review отключили на время проверки функции. Мы хотели помочь пользователям находить новые идеи, но в настоящее время пересматриваем подход и процессы."
— Шишир Мехротра, генеральный директор Superhuman
Контекст продукта
В 2025 году Grammarly сменила название на Superhuman. Под новым брендом компания объединила четыре продукта: помощник для письма Grammarly, рабочее пространство Coda, Superhuman Mail и Superhuman Go. В последние годы компания также продвигала ИИ-агентов для проверки стиля и плагиата — что усиливает ставку на автоматизацию редакторских процессов.
Почему это важно для автора и читателя
Эта история касается не только технической ошибки: речь о доверии к инструментам, которыми пользуются миллионы авторов, журналистов и редакторов. Когда комментарии подписаны именами реальных экспертов без их согласия, это подрывает указание источника и усложняет проверку фактов. Для украинских авторов и медиа это напоминание — проверять инструменты и требовать прозрачности в том, как ИИ моделирует чужие голоса.
Что дальше
У Superhuman есть несколько путей: повысить прозрачность алгоритмов, ввести явное согласие экспертов и маркировку контента, созданного ИИ, или же рисковать длительными судебными спорами и потерей доверия. Регуляторы и профессиональные сообщества уже обращают внимание на такие случаи — от этого зависит, насколько быстро появятся отраслевые стандарты для подобных сервисов.
Вопрос к читателю: достаточно ли простого отключения, чтобы исправить проблему, или нужны системные изменения в подходе к авторству и прозрачности ИИ-инструментов?