Superhuman вимкнула «Expert Review»: коли ШІ підмінює голоси експертів

Superhuman (колишній Grammarly) тимчасово відключила функцію, яка генерувала «відгуки від відомих авторів». Це сигнал про ризики для довіри до редакторських інструментів і про те, як ІІ може ускладнити права авторів.

108
Поділиться:
Ілюстративне фото: Depositphotos

Що трапилося

Компанія Superhuman тимчасово вимкнула функцію Expert Review у своєму інструменті для письма — рішення, яке публічно підтвердив генеральний директор Шишир Мехротра у дописі на LinkedIn. Функція використовувала генеративний штучний інтелект, щоб створювати коментарі та поради до текстів, нібито від імені відомих письменників або експертів.

Як працювала функція

Інструмент аналізував текст користувача і підбирав імена авторів або науковців відповідно до теми матеріалу. На їхній основі ШІ генерував відгуки, покладаючись на публічно доступну інформацію та мовні моделі. За повідомленнями, імена реальних авторів і науковців з'являлися у сервісі без їхнього дозволу, що спричинило різку критику в професійній спільноті.

Реакція та правові ризики

Частина письменників і науковців різко розкритикувала практику. За наявною інформацією, проти Superhuman уже готують колективний позов, а юристи з інтелектуальної власності звертають увагу на питання дозволу, авторства та можливого брутфорсу репутації. Для платформи це означає не лише репутаційні втрати, а й реальні юридичні зобов'язання.

"Expert Review відключили на час перегляду функції. Ми хотіли допомогти користувачам знаходити нові ідеї, але наразі переглядаємо підхід і процеси."

— Шишир Мехротра, генеральний директор Superhuman

Контекст продукту

У 2025 році Grammarly змінила назву на Superhuman. Під новим брендом компанія об'єднала чотири продукти: помічник для письма Grammarly, робочий простір Coda, Superhuman Mail та Superhuman Go. Останніми роками компанія також просувала ШІ-агентів для перевірки стилю та плагіату — що підсилює ставку на автоматизацію редакторських процесів.

Чому це важливо для автора і читача

Ця історія стосується не лише технічної помилки: мова про довіру до інструментів, якими користуються мільйони авторів, журналістів і редакторів. Коли коментарі підписані іменами реальних експертів без їхньої згоди, це підриває індикацію джерела і ускладнює перевірку фактів. Для українських авторів і медіа це нагадування — перевіряти інструменти та вимагати прозорості у способі, яким ШІ моделює чужі голоси.

Що далі

Superhuman має кілька шляхів: підвищити прозорість алгоритмів, ввести явну згоду експертів і маркування контенту, створеного ІІ, або ж ризикувати тривалими судовими суперечками і втратою довіри. Регулятори та професійні спільноти вже звертають увагу на такі випадки — від цього залежить, наскільки швидко з'являться галузеві стандарти для подібних сервісів.

Питання до читача: чи достатньо простого вимкнення, щоб виправити проблему, чи потрібні системні зміни у підході до авторства та прозорості ШІ-інструментів?

Новини світу

Війна

Оператор БпЛА загинув 9 березня 2026 року під час виконання бойового завдання. Розповідаємо про його шлях, родину та чому роль БпЛА‑операторів сьогодні особливо важлива для оборони України.

30 хвилин тому
Бізнес

Гроші люблять тишу: через ескалацію між США та Іраном TotalEnergies тимчасово зупинила частину близькосхідних активів. Розбираємо, що саме призупинено, скільки це коштує компанії і чому це важливо для глобального ринку енергоносіїв — і для України.

31 хвилина тому
Політика

ФБР поширило бюлетень із неперевіреною інформацією про можливий удар дронів біля узбережжя. Губернатор заспокоює, але експерти вимагають уважності — пояснюємо, чому це не просто локальна тривога.

32 хвилини тому