Wikipedia, die weltweit größte kollaborative Enzyklopädie, hat die Verwendung von Tools der künstlichen Intelligenz (KI) wie ChatGPT und Google Gemini zum Erstellen oder Umschreiben von Artikelinhalten ausdrücklich verboten. Diese Richtlinienänderung unterstreicht die wachsenden Bedenken hinsichtlich der Zuverlässigkeit und Genauigkeit von KI-generiertem Text auf einer Plattform, die auf überprüfbaren Quellen basiert.
Warum das Verbot?
Das Kernproblem besteht darin, dass KI-generierte Inhalte häufig gegen die grundlegenden Standards von Wikipedia verstoßen. Große Sprachmodelle (LLMs) sind anfällig für Fehler, Plagiate und falsche Darstellungen von Fakten – allesamt im Widerspruch zum Streben von Wikipedia nach Genauigkeit. Die Plattform ist auf die menschliche Aufsicht angewiesen, um die Qualität sicherzustellen, und KI umgeht diesen entscheidenden Schritt.
„Von LLMs generierter Text verstößt oft gegen mehrere der zentralen Inhaltsrichtlinien von Wikipedia“, heißt es in der Richtlinie.
Dieses Verbot kommt nicht unerwartet, da Wikipedia bereits Probleme mit KI-Unternehmen hatte, die ihre Daten missbrauchten, ohne einen Beitrag zur Mission der gemeinnützigen Organisation zu leisten. Letztes Jahr forderte die Wikimedia Foundation KI-Entwickler auf, stattdessen ihre Enterprise API zu verwenden, um einen nachhaltigen Zugriff zu ermöglichen und gleichzeitig den Betrieb der Enzyklopädie zu unterstützen.
Begrenzte Ausnahmen
Trotz des Verbots erlaubt Wikipedia KI in zwei spezifischen Fällen:
- Grundlegende Bearbeitung: KI kann für kleinere Korrekturen wie Tippfehler oder Formatierungen verwendet werden, nachdem ein menschlicher Prüfer oder Administrator die Änderungen überprüft hat. Dadurch wird sichergestellt, dass KI die Bedeutung von Inhalten nicht verändert.
- Übersetzung: KI-gestützte Übersetzungen aus anderen Sprachversionen von Wikipedia sind zulässig, aber Übersetzer müssen beide Sprachen fließend beherrschen, um die Genauigkeit zu gewährleisten.
Durchsetzung und umfassendere Auswirkungen
Wie diese Richtlinie durchgesetzt werden soll, bleibt unklar. Strafen für Verstöße werden nicht erwähnt, aber angesichts des ehrenamtlichen Moderationssystems der Plattform sind die Erkennung und Meldung durch die Community wahrscheinlich von entscheidender Bedeutung.
Das Verbot spiegelt eine breitere Debatte wider: die Zweckmäßigkeit von KI-generierten Inhalten im Gegensatz zum Bedarf an menschlichem Urteilsvermögen und zuverlässigen Informationen. Da KI-Tools im Alltag allgegenwärtig werden – von Apple Intelligence bis hin zu Galaxy AI – nehmen die Fragen zu Genauigkeit und „Halluzinationen“ zu. Die Haltung von Wikipedia signalisiert, dass überprüfbares Wissen Vorrang vor Geschwindigkeit und Automatisierung hat, zumindest vorerst.
Letztendlich ist die Entscheidung von Wikipedia eine klare Aussage darüber, wo das Unternehmen in der sich schnell entwickelnden KI-Landschaft steht: Von Menschen erstellte Genauigkeit bleibt von größter Bedeutung.
