Wikipedia verbietet KI zum Verfassen von Artikeln — ein Schritt zur Wahrung der Glaubwürdigkeit und ein Signal an KI-Unternehmen

Wikipedia hat ein Verbot erlassen, Artikel mithilfe großer Sprachmodelle zu erstellen oder umzuschreiben. Diese Entscheidung dient dem Schutz des Vertrauens in Wissen und markiert eine neue Konfrontationslinie mit KI‑Giganten, die offene Inhalte nutzen.

36
Aktie:
Ілюстративне фото: Depositphotos

Was beschlossen wurde

Wikipedia hat Redakteuren offiziell verboten, große Sprachmodelle (LLM) zum Erstellen oder Umschreiben von Artikeln zu verwenden. Texte «von Grund auf» mit KI zu verfassen ist jetzt untersagt; erlaubt sind nur geringfügige stilistische Bearbeitungen eigener Inhalte, sofern die KI keine neuen Inhalte hinzufügt und alle Änderungen von einer Person überprüft werden.

Warum es dazu kam

Die Entscheidung wurde nach Diskussionen in der Redakteursgemeinschaft und einer Abstimmung getroffen. Wie 404 Media berichtet, lagen die Stimmen bei der Abstimmung bei 40 «dafür» und 2 «dagegen». Die Gründe sind einfach, haben aber tiefere Folgen: Große Modelle erzeugen häufig fehlerhafte oder unüberprüfte Informationen (sogenannte «Halluzinationen») und werfen zudem Fragen zur Lizenzierung von Inhalten auf, die zum Training der KI verwendet werden.

Was das für Leser und den Medienraum bedeutet

Kurzfristig zielt die Richtlinie darauf ab, das Vertrauen in enzyklopädische Inhalte zu bewahren. Für Länder, die unter Informationsdruck stehen – insbesondere für die Ukraine – ist das wichtig: Qualitativ hochwertige, überprüfte Quellen verringern das Risiko von Desinformation, die durch automatisierte Werkzeuge verstärkt wird.

Signal an KI‑Unternehmen und den Lizenzierungsmarkt

Wikipedia hat gleichzeitig KI‑Firmen aufgerufen, den offiziellen kostenpflichtigen Zugang zu ihren Inhalten zu nutzen. Das macht die Frage zu einer rechtlichen und kommerziellen Angelegenheit: Wenn Modelle auf offenen Artikeln trainiert werden, fordert der Inhaltseigentümer eine Gebühr oder zumindest transparente Nutzungsbedingungen – und das könnte das Geschäftsmodell mancher Dienste verändern.

"Ich bin mir nicht sicher, dass KI enzyklopädische Artikel fehlerfrei erstellen kann."

— Jimmy Wales, Mitbegründer von Wikipedia

"Bei der Abstimmung unterstützte die Mehrheit die neuen Beschränkungen — 40 Stimmen 'dafür' und 2 'dagegen'."

— 404 Media (Bericht über die Abstimmungsergebnisse)

Praxis: Was erlaubt ist und was nicht

Redakteuren ist es gestattet, KI für kleine stilistische Änderungen an eigenen Texten zu verwenden – vorausgesetzt, das Modell bringt keine neuen Fakten ein und die Änderungen werden zwingend von einer Person überprüft. Die Nutzung von LLM zur Erstellung vollständiger Artikel oder zum Umschreiben fremder Inhalte ist verboten.

Fazit

Diese Entscheidung geht nicht auf Angst vor Innovationen zurück, sondern auf die Festlegung von Vertrauensstandards in einer Situation, in der Automatisierung Informationsströme massenhafter und weniger kontrollierbar macht. Erwartungsgemäß wird dies kurzfristig den Zufluss KI‑generierter Inhalte in die Enzyklopädie verlangsamen; mittelfristig wird es Verhandlungen über Lizenzierung und transparentere Regeln der Zusammenarbeit zwischen Wissensplattformen und KI‑Entwicklern auslösen. Für den Nutzer bedeutet das eines: Wenn überprüfte Informationen wichtig sind, sollte man Quellen mit menschlicher Überprüfung den Vorzug geben, besonders in Zeiten eines Informationskriegs.

Weltnachrichten