Was beschlossen wurde
Wikipedia hat Redakteuren offiziell verboten, große Sprachmodelle (LLM) zum Erstellen oder Umschreiben von Artikeln zu verwenden. Texte «von Grund auf» mit KI zu verfassen ist jetzt untersagt; erlaubt sind nur geringfügige stilistische Bearbeitungen eigener Inhalte, sofern die KI keine neuen Inhalte hinzufügt und alle Änderungen von einer Person überprüft werden.
Warum es dazu kam
Die Entscheidung wurde nach Diskussionen in der Redakteursgemeinschaft und einer Abstimmung getroffen. Wie 404 Media berichtet, lagen die Stimmen bei der Abstimmung bei 40 «dafür» und 2 «dagegen». Die Gründe sind einfach, haben aber tiefere Folgen: Große Modelle erzeugen häufig fehlerhafte oder unüberprüfte Informationen (sogenannte «Halluzinationen») und werfen zudem Fragen zur Lizenzierung von Inhalten auf, die zum Training der KI verwendet werden.
Was das für Leser und den Medienraum bedeutet
Kurzfristig zielt die Richtlinie darauf ab, das Vertrauen in enzyklopädische Inhalte zu bewahren. Für Länder, die unter Informationsdruck stehen – insbesondere für die Ukraine – ist das wichtig: Qualitativ hochwertige, überprüfte Quellen verringern das Risiko von Desinformation, die durch automatisierte Werkzeuge verstärkt wird.
Signal an KI‑Unternehmen und den Lizenzierungsmarkt
Wikipedia hat gleichzeitig KI‑Firmen aufgerufen, den offiziellen kostenpflichtigen Zugang zu ihren Inhalten zu nutzen. Das macht die Frage zu einer rechtlichen und kommerziellen Angelegenheit: Wenn Modelle auf offenen Artikeln trainiert werden, fordert der Inhaltseigentümer eine Gebühr oder zumindest transparente Nutzungsbedingungen – und das könnte das Geschäftsmodell mancher Dienste verändern.
"Ich bin mir nicht sicher, dass KI enzyklopädische Artikel fehlerfrei erstellen kann."
— Jimmy Wales, Mitbegründer von Wikipedia
"Bei der Abstimmung unterstützte die Mehrheit die neuen Beschränkungen — 40 Stimmen 'dafür' und 2 'dagegen'."
— 404 Media (Bericht über die Abstimmungsergebnisse)
Praxis: Was erlaubt ist und was nicht
Redakteuren ist es gestattet, KI für kleine stilistische Änderungen an eigenen Texten zu verwenden – vorausgesetzt, das Modell bringt keine neuen Fakten ein und die Änderungen werden zwingend von einer Person überprüft. Die Nutzung von LLM zur Erstellung vollständiger Artikel oder zum Umschreiben fremder Inhalte ist verboten.
Fazit
Diese Entscheidung geht nicht auf Angst vor Innovationen zurück, sondern auf die Festlegung von Vertrauensstandards in einer Situation, in der Automatisierung Informationsströme massenhafter und weniger kontrollierbar macht. Erwartungsgemäß wird dies kurzfristig den Zufluss KI‑generierter Inhalte in die Enzyklopädie verlangsamen; mittelfristig wird es Verhandlungen über Lizenzierung und transparentere Regeln der Zusammenarbeit zwischen Wissensplattformen und KI‑Entwicklern auslösen. Für den Nutzer bedeutet das eines: Wenn überprüfte Informationen wichtig sind, sollte man Quellen mit menschlicher Überprüfung den Vorzug geben, besonders in Zeiten eines Informationskriegs.