Was passiert ist
Das Unternehmen Superhuman hat vorübergehend die Funktion Expert Review in seinem Schreibwerkzeug deaktiviert — eine Entscheidung, die der CEO Shishir Mehrotra in einem Beitrag auf LinkedIn öffentlich bestätigte. Die Funktion nutzte generative künstliche Intelligenz, um Kommentare und Ratschläge zu Texten zu erstellen, angeblich im Namen bekannter Autorinnen und Autoren oder Expertinnen und Experten.
Wie die Funktion arbeitete
Das Tool analysierte den Text der Nutzerinnen und Nutzer und wählte entsprechend dem Thema Namen von Autorinnen, Autoren oder Wissenschaftlerinnen und Wissenschaftlern aus. Auf deren Basis generierte die KI Bewertungen und Rückmeldungen, wobei sie sich auf öffentlich verfügbare Informationen und Sprachmodelle stützte. Berichten zufolge tauchten die Namen realer Autorinnen und Autoren im Dienst ohne deren Zustimmung auf, was in der Fachgemeinschaft scharfe Kritik auslöste.
Reaktionen und rechtliche Risiken
Einige Schriftstellerinnen, Schriftsteller und Wissenschaftlerinnen und Wissenschaftler kritisierten die Praxis scharf. Nach vorliegenden Informationen wird gegen Superhuman bereits eine Sammelklage vorbereitet, und Rechtsanwältinnen und Rechtsanwälte für geistiges Eigentum weisen auf Fragen der Einwilligung, der Urheberschaft und einer möglichen Rufschädigung hin. Für die Plattform bedeutet das nicht nur Reputationsverluste, sondern auch reale rechtliche Verpflichtungen.
„Expert Review wurde während der Überprüfung der Funktion deaktiviert. Wir wollten den Nutzern helfen, neue Ideen zu finden, prüfen aber derzeit unseren Ansatz und unsere Prozesse.“
— Shishir Mehrotra, CEO von Superhuman
Produktkontext
Im Jahr 2025 änderte Grammarly seinen Namen in Superhuman. Unter der neuen Marke vereinte das Unternehmen vier Produkte: den Schreibassistenten Grammarly, den Workspace Coda, Superhuman Mail und Superhuman Go. In den letzten Jahren hat das Unternehmen außerdem KI‑Agenten zur Überprüfung von Stil und Plagiaten vorangetrieben — was den Schwerpunkt auf die Automatisierung redaktioneller Prozesse verstärkt.
Warum das für Autorinnen, Autoren und Lesende wichtig ist
Diese Geschichte betrifft nicht nur einen technischen Fehler: Es geht um das Vertrauen in Werkzeuge, die von Millionen Autorinnen und Autoren, Journalistinnen und Journalisten sowie Redaktionen genutzt werden. Wenn Kommentare mit den Namen realer Expertinnen und Experten versehen sind, ohne dass diese eingewilligt haben, untergräbt das die Quellenangabe und erschwert die Überprüfung von Fakten. Für ukrainische Autorinnen, Autoren und Medien ist das eine Erinnerung — Werkzeuge zu prüfen und Transparenz darüber zu fordern, wie KI Stimmen anderer modelliert.
Wie es weitergeht
Superhuman hat mehrere Wege: die Transparenz der Algorithmen erhöhen, die ausdrückliche Zustimmung von Expertinnen und Experten einholen und Inhalte, die von KI erzeugt wurden, kennzeichnen — oder das Risiko langwieriger Gerichtsverfahren und eines Vertrauensverlusts eingehen. Regulierungsbehörden und Berufsverbände richten bereits ihre Aufmerksamkeit auf solche Fälle — davon hängt ab, wie schnell Branchenstandards für ähnliche Dienste entstehen werden.
Frage an die Lesenden: Reicht das einfache Abschalten, um das Problem zu beheben, oder sind systemische Änderungen im Umgang mit Urheberschaft und Transparenz von KI‑Werkzeugen nötig?