Wikipedia, największa na świecie encyklopedia współpracująca, wyraźnie zakazała używania narzędzi sztucznej inteligencji (AI), takich jak ChatGPT i Google Gemini, do tworzenia lub przepisywania treści artykułów. Ta zmiana zasad podkreśla rosnące obawy dotyczące wiarygodności i dokładności tekstu generowanego przez sztuczną inteligencję na platformie zbudowanej na zaufanych źródłach.

Dlaczego zakaz?

Głównym problemem jest to, że treści generowane przez sztuczną inteligencję często naruszają podstawowe standardy Wikipedii. Modele wielkojęzykowe (LLM) są podatne na błędy, plagiat i wprowadzanie w błąd – a wszystko to jest sprzeczne z przywiązaniem Wikipedii do dokładności. Aby zapewnić jakość, platforma opiera się na nadzorze człowieka, a sztuczna inteligencja omija ten ważny krok.

„Tekst wygenerowany przez LLM często narusza kilka podstawowych zasad Wikipedii” – stwierdza polityka.

Zakaz ten nie jest zaskoczeniem, ponieważ Wikipedia już wcześniej borykała się z problemami związanymi z firmami zajmującymi się sztuczną inteligencją wydobywającymi jej dane bez wnoszenia wkładu w misję organizacji non-profit. W zeszłym roku Fundacja Wikimedia zachęcała twórców sztucznej inteligencji do korzystania zamiast tego z Enterprise API, zapewniając w ten sposób zrównoważony dostęp i funkcjonowanie encyklopedii.

Ograniczone wyjątki

Pomimo zakazu Wikipedia dopuszcza wykorzystanie sztucznej inteligencji w dwóch konkretnych przypadkach:

  • Edycja podstawowa: AI można używać do drobnych poprawek, takich jak literówki lub formatowanie, po sprawdzeniu zmiany przez człowieka (redaktora lub administratora). Dzięki temu mamy pewność, że sztuczna inteligencja nie zmieni znaczenia treści.
  • Tłumaczenie: Tłumaczenie AI z innych wersji językowych Wikipedii jest dozwolone, ale tłumacze muszą biegle posługiwać się obydwoma językami, aby zachować dokładność.

Egzekwowanie prawa i szersze konsekwencje

Nie jest jasne, w jaki sposób ta polityka będzie egzekwowana. Nie ma wzmianki o karach za naruszenia, ale biorąc pod uwagę system moderacji oparty na wolontariuszach platformy, wykrywanie i zgłaszanie przez społeczność prawdopodobnie będzie kluczowe.

Zakaz odzwierciedla szerszą debatę: wygoda treści generowanych przez sztuczną inteligencję kontra potrzeba ludzkiej oceny i wiarygodnych informacji. W miarę jak narzędzia AI stają się wszechobecne w życiu codziennym – od Apple Intelligence po Galaxy AI – kwestie dokładności i „halucynacji” stają się coraz bardziej istotne. Stanowisko Wikipedii sygnalizuje, przynajmniej na razie, priorytet potwierdzonej wiedzy nad szybkością i automatyzacją.

Ostatecznie decyzja Wikipedii jasno określa jej miejsce w szybko rozwijającym się krajobrazie sztucznej inteligencji: weryfikacja dokładności przez człowieka pozostaje najważniejsza.