Wikipédia, la plus grande encyclopédie collaborative au monde, a explicitement interdit l’utilisation d’outils d’intelligence artificielle (IA) comme ChatGPT et Google Gemini pour créer ou réécrire le contenu d’articles. Ce changement de politique souligne les inquiétudes croissantes concernant la fiabilité et l’exactitude du texte généré par l’IA dans une plate-forme construite sur des sources vérifiables.
Pourquoi cette interdiction ?
Le problème principal est que le contenu généré par l’IA viole fréquemment les normes fondamentales de Wikipédia. Les grands modèles linguistiques (LLM) sont sujets aux erreurs, au plagiat et à la fausse représentation des faits, ce qui contredit tous l’engagement de Wikipédia en matière d’exactitude. La plateforme s’appuie sur la surveillance humaine pour garantir la qualité, et l’IA contourne cette étape cruciale.
“Le texte généré par les LLM viole souvent plusieurs des politiques de contenu fondamentales de Wikipédia”, indique la politique.
Cette interdiction n’est pas inattendue, car Wikipédia a déjà été confronté à des problèmes avec des sociétés d’IA qui récupéraient ses données sans contribuer à la mission de l’organisation à but non lucratif. L’année dernière, la Fondation Wikimedia a exhorté les développeurs d’IA à utiliser plutôt son API d’entreprise, permettant un accès durable tout en soutenant le fonctionnement de l’encyclopédie.
Exceptions limitées
Malgré l’interdiction, Wikipédia autorise l’IA dans deux cas spécifiques :
- Édition de base : L’IA peut être utilisée pour des corrections mineures telles que des fautes de frappe ou du formatage après qu’un réviseur humain ou un administrateur ait vérifié les modifications. Cela garantit que l’IA ne modifie pas la signification du contenu.
- Traduction : La traduction basée sur l’IA à partir d’autres versions linguistiques de Wikipédia est autorisée, mais les traducteurs doivent parler couramment les deux langues pour garantir l’exactitude.
Application et implications plus larges
La manière dont cette politique sera appliquée reste incertaine. Il n’y a aucune mention de sanctions en cas de violation, mais étant donné le système de modération bénévole de la plateforme, la détection et le signalement par la communauté sont probablement essentiels.
L’interdiction reflète un débat plus large : la commodité du contenu généré par l’IA par rapport à la nécessité d’un jugement humain et d’informations fiables. Alors que les outils d’IA deviennent omniprésents dans la vie quotidienne – de l’Apple Intelligence à l’IA Galaxy – les questions sur l’exactitude et les « hallucinations » se multiplient. La position de Wikipédia indique une priorité aux connaissances vérifiables plutôt qu’à la vitesse et à l’automatisation, du moins pour le moment.
En fin de compte, la décision de Wikipédia est une déclaration claire sur sa position dans le paysage en évolution rapide de l’IA : la précision humaine reste primordiale.
