Що трапилося
Компанія Superhuman тимчасово вимкнула функцію Expert Review у своєму інструменті для письма — рішення, яке публічно підтвердив генеральний директор Шишир Мехротра у дописі на LinkedIn. Функція використовувала генеративний штучний інтелект, щоб створювати коментарі та поради до текстів, нібито від імені відомих письменників або експертів.
Як працювала функція
Інструмент аналізував текст користувача і підбирав імена авторів або науковців відповідно до теми матеріалу. На їхній основі ШІ генерував відгуки, покладаючись на публічно доступну інформацію та мовні моделі. За повідомленнями, імена реальних авторів і науковців з'являлися у сервісі без їхнього дозволу, що спричинило різку критику в професійній спільноті.
Реакція та правові ризики
Частина письменників і науковців різко розкритикувала практику. За наявною інформацією, проти Superhuman уже готують колективний позов, а юристи з інтелектуальної власності звертають увагу на питання дозволу, авторства та можливого брутфорсу репутації. Для платформи це означає не лише репутаційні втрати, а й реальні юридичні зобов'язання.
"Expert Review відключили на час перегляду функції. Ми хотіли допомогти користувачам знаходити нові ідеї, але наразі переглядаємо підхід і процеси."
— Шишир Мехротра, генеральний директор Superhuman
Контекст продукту
У 2025 році Grammarly змінила назву на Superhuman. Під новим брендом компанія об'єднала чотири продукти: помічник для письма Grammarly, робочий простір Coda, Superhuman Mail та Superhuman Go. Останніми роками компанія також просувала ШІ-агентів для перевірки стилю та плагіату — що підсилює ставку на автоматизацію редакторських процесів.
Чому це важливо для автора і читача
Ця історія стосується не лише технічної помилки: мова про довіру до інструментів, якими користуються мільйони авторів, журналістів і редакторів. Коли коментарі підписані іменами реальних експертів без їхньої згоди, це підриває індикацію джерела і ускладнює перевірку фактів. Для українських авторів і медіа це нагадування — перевіряти інструменти та вимагати прозорості у способі, яким ШІ моделює чужі голоси.
Що далі
Superhuman має кілька шляхів: підвищити прозорість алгоритмів, ввести явну згоду експертів і маркування контенту, створеного ІІ, або ж ризикувати тривалими судовими суперечками і втратою довіри. Регулятори та професійні спільноти вже звертають увагу на такі випадки — від цього залежить, наскільки швидко з'являться галузеві стандарти для подібних сервісів.
Питання до читача: чи достатньо простого вимкнення, щоб виправити проблему, чи потрібні системні зміни у підході до авторства та прозорості ШІ-інструментів?