Superhuman отключила «Expert Review»: когда ИИ подменяет голоса экспертов

Superhuman (бывший Grammarly) временно отключила функцию, которая генерировала «отзывы от известных авторов». Это сигнал о рисках для доверия к редакторским инструментам и о том, как ИИ может усложнить права авторов.

273
Поделиться:
Ілюстративне фото: Depositphotos

Что произошло

Компания Superhuman временно отключила функцию Expert Review в своём инструменте для письма — решение, которое публично подтвердил генеральный директор Шишир Мехротра в публикации на LinkedIn. Функция использовала генеративный искусственный интеллект для создания комментариев и советов к текстам, якобы от имени известных писателей или экспертов.

Как работала функция

Инструмент анализировал текст пользователя и подбирал имена авторов или учёных в соответствии с темой материала. На их основе ИИ генерировал отзывы, опираясь на публично доступную информацию и языковые модели. По сообщениям, имена реальных авторов и учёных появлялись в сервисе без их разрешения, что вызвало резкую критику в профессиональном сообществе.

Реакция и правовые риски

Часть писателей и учёных резко раскритиковала практику. По имеющейся информации, против Superhuman уже готовят коллективный иск, а юристы по интеллектуальной собственности обращают внимание на вопросы согласия, авторства и возможного подрыва репутации. Для платформы это означает не только репутационные потери, но и реальные юридические обязательства.

"Expert Review отключили на время проверки функции. Мы хотели помочь пользователям находить новые идеи, но в настоящее время пересматриваем подход и процессы."

— Шишир Мехротра, генеральный директор Superhuman

Контекст продукта

В 2025 году Grammarly сменила название на Superhuman. Под новым брендом компания объединила четыре продукта: помощник для письма Grammarly, рабочее пространство Coda, Superhuman Mail и Superhuman Go. В последние годы компания также продвигала ИИ-агентов для проверки стиля и плагиата — что усиливает ставку на автоматизацию редакторских процессов.

Почему это важно для автора и читателя

Эта история касается не только технической ошибки: речь о доверии к инструментам, которыми пользуются миллионы авторов, журналистов и редакторов. Когда комментарии подписаны именами реальных экспертов без их согласия, это подрывает указание источника и усложняет проверку фактов. Для украинских авторов и медиа это напоминание — проверять инструменты и требовать прозрачности в том, как ИИ моделирует чужие голоса.

Что дальше

У Superhuman есть несколько путей: повысить прозрачность алгоритмов, ввести явное согласие экспертов и маркировку контента, созданного ИИ, или же рисковать длительными судебными спорами и потерей доверия. Регуляторы и профессиональные сообщества уже обращают внимание на такие случаи — от этого зависит, насколько быстро появятся отраслевые стандарты для подобных сервисов.

Вопрос к читателю: достаточно ли простого отключения, чтобы исправить проблему, или нужны системные изменения в подходе к авторству и прозрачности ИИ-инструментов?

Новости мира

Бизнес

Bloomberg сообщает, что экипаж шёл с отключённым AIS — признак того, как региональная напряжённость и навигационные риски давят на мировые поставки энергоносителей и ощутимо влияют на цены на топливо, в том числе в Украине.

14 часов назад
Политика

По сообщению WSJ, Иран совершил неудачную атаку двумя баллистическими ракетами по совместной базе США и Великобритании в Индийском океане. Это не просто инцидент — это тест дальности и систем сдерживания, последствия которого почувствуют не только Вашингтон и Лондон, но и партнёры по альянсу.

14 часов назад
Бизнес

Reuters сообщает, что танкеры под индийским флагом могут пройти Ормузским проливом 21 марта. Это не просто региональное событие — его последствия почувствуют глобальные рынки энергоносителей и цены в Украине.

15 часов назад