Ce qui s'est passé
La société Superhuman a temporairement désactivé la fonction Expert Review de son outil d'écriture — une décision confirmée publiquement par le directeur général Shishir Mehrotra dans un message sur LinkedIn. La fonctionnalité utilisait de l'intelligence artificielle générative pour produire des commentaires et des conseils sur des textes, prétendument au nom d'auteurs ou d'experts reconnus.
Comment fonctionnait la fonctionnalité
L'outil analysait le texte de l'utilisateur et sélectionnait des noms d'auteurs ou de chercheurs en fonction du sujet traité. Sur cette base, l'IA générait des retours en s'appuyant sur des informations publiques et des modèles linguistiques. Selon les rapports, des noms d'auteurs et de chercheurs réels apparaissaient dans le service sans leur consentement, ce qui a suscité de vives critiques au sein de la communauté professionnelle.
Réactions et risques juridiques
Une partie des écrivains et chercheurs a vivement critiqué la pratique. D'après les informations disponibles, une poursuite collective serait déjà en préparation contre Superhuman, et des avocats spécialisés en propriété intellectuelle attirent l'attention sur des questions de consentement, de paternité et d'éventuelle usurpation portant atteinte à la réputation. Pour la plateforme, cela représente non seulement des pertes en termes d'image, mais aussi de réelles obligations juridiques.
"Expert Review a été désactivé le temps de revoir la fonctionnalité. Nous voulions aider les utilisateurs à trouver de nouvelles idées, mais nous réexaminons actuellement l'approche et les processus."
— Shishir Mehrotra, directeur général de Superhuman
Contexte produit
En 2025, Grammarly a changé de nom pour devenir Superhuman. Sous cette nouvelle marque, la société a regroupé quatre produits : l'assistant d'écriture Grammarly, l'espace de travail Coda, Superhuman Mail et Superhuman Go. Ces dernières années, l'entreprise a également promu des agents d'IA de vérification du style et du plagiat — renforçant ainsi sa mise sur l'automatisation des processus éditoriaux.
Pourquoi c'est important pour l'auteur et le lecteur
Cette affaire ne concerne pas seulement une erreur technique : il s'agit de la confiance envers les outils utilisés par des millions d'auteurs, journalistes et éditeurs. Lorsque des commentaires sont signés au nom d'experts réels sans leur accord, cela sape l'indication de la source et complique la vérification des faits. Pour les auteurs et médias ukrainiens, c'est un rappel : vérifier les outils et exiger de la transparence sur la manière dont l'IA modélise les voix d'autrui.
Ce qui suit
Superhuman a plusieurs options : accroître la transparence des algorithmes, instaurer le consentement explicite des experts et marquer les contenus générés par l'IA, ou prendre le risque de longs litiges et d'une perte de confiance. Les régulateurs et les communautés professionnelles surveillent déjà ces cas — de leur réaction dépendra la vitesse d'apparition de normes sectorielles pour ce type de services.
Question au lecteur : la simple désactivation temporaire suffit-elle à résoudre le problème, ou des changements systémiques sont-ils nécessaires dans l'approche de la paternité et de la transparence des outils d'IA ?