Wikipédia interdit l'usage de l'IA pour rédiger des articles — un pas en faveur de la fiabilité et un signal aux entreprises d'IA

Wikipédia a interdit la création ou la réécriture d'articles à l'aide de grands modèles linguistiques. Cette décision vise à préserver la confiance dans le savoir et marque une nouvelle ligne de confrontation avec les géants de l'IA qui utilisent du contenu ouvert.

36
Partager:
Ілюстративне фото: Depositphotos

Ce qui a été décidé

Wikipédia a officiellement interdit aux rédacteurs d'utiliser les grands modèles de langue (LLM) pour créer ou réécrire des articles. Rédiger des textes «à partir de zéro» à l'aide de l'IA est désormais interdit ; seules de petites retouches stylistiques de leurs propres contenus sont autorisées à condition que l'IA n'ajoute aucun contenu nouveau et que toutes les modifications soient vérifiées par une personne.

Pourquoi cela s'est produit

La décision a été prise après des discussions au sein de la communauté des rédacteurs et un vote. Selon 404 Media, le vote a recueilli 40 voix pour contre 2 voix contre. Les raisons sont simples mais portent des conséquences plus larges : les grands modèles génèrent souvent des informations erronées ou non vérifiées (les «hallucinations»), et soulèvent en outre des questions de licence concernant le contenu utilisé pour entraîner l'IA.

Ce que cela signifie pour le lecteur et pour l'espace médiatique

À court terme, la politique vise à préserver la confiance dans le contenu encyclopédique. Pour les pays soumis à une pression informationnelle — en particulier l'Ukraine — cela est important : des sources fiables et vérifiées réduisent le risque de désinformation, qui peut être amplifiée par des outils automatisés.

Signal pour les entreprises d'IA et marché des licences

Wikipédia a parallèlement invité les entreprises d'IA à utiliser un accès payant officiel à son contenu. Cela transforme la question en un enjeu juridique et commercial : si les modèles sont entraînés sur des articles ouverts, le propriétaire du contenu peut exiger un paiement ou au moins des conditions d'utilisation transparentes — et cela peut modifier le modèle économique de certains services.

"Je ne suis pas sûr que l'IA puisse créer des articles encyclopédiques sans erreurs."

— Jimmy Wales, cofondateur de Wikipédia

"Lors du vote, la majorité a soutenu les nouvelles restrictions — 40 voix 'pour' et 2 'contre'."

— 404 Media (rapport sur les résultats du vote)

Pratique : ce qu'il est permis de faire et ce qui est interdit

Les rédacteurs sont autorisés à utiliser l'IA pour de petites retouches stylistiques de leurs propres textes — à condition que le modèle n'introduise pas de nouveaux faits et que toute modification fasse l'objet d'une vérification humaine obligatoire. L'utilisation des LLM pour générer des articles complets ou pour réécrire des contenus d'autrui est interdite.

Conclusion

Cette décision ne relève pas d'une peur de l'innovation, mais de l'établissement de normes de confiance dans un contexte où l'automatisation rend les flux d'information plus massifs et moins contrôlables. On peut s'attendre à ce qu'à court terme cela ralentisse l'afflux de contenu généré par l'IA dans l'encyclopédie ; à moyen terme, que cela entraîne des négociations sur les licences et des règles de coopération plus transparentes entre les plateformes de savoir et les développeurs d'IA. Pour l'utilisateur, cela signifie une chose : si l'on tient à une information vérifiée, il faut privilégier les sources soumises à une vérification humaine, surtout en temps de guerre de l'information.

Actualités du monde

Communauté

Lorsque les gens quittent leur domicile, ce ne sont pas les déclarations tonitruantes qui comptent, mais le travail systématique sur le terrain. La communauté d'Irpin, en collaboration avec l'ONU et des organisations caritatives, a distribué plus de 600 kits de première nécessité — nous expliquons qui est responsable de la logistique et pourquoi cela est important pour la stabilité de la région.

il y a 2 heures