A Wikipédia, a maior enciclopédia colaborativa do mundo, proibiu explicitamente o uso de ferramentas de inteligência artificial (IA), como ChatGPT e Google Gemini, para criar ou reescrever conteúdo de artigos. Esta mudança de política ressalta preocupações crescentes sobre a confiabilidade e precisão do texto gerado por IA em uma plataforma construída em fontes verificáveis.
Por que a proibição?
A questão central é que o conteúdo gerado pela IA viola frequentemente os padrões fundamentais da Wikipédia. Grandes modelos de linguagem (LLMs) são propensos a erros, plágio e deturpação de fatos – todos os quais contradizem o compromisso da Wikipédia com a precisão. A plataforma depende da supervisão humana para garantir a qualidade e a IA contorna esta etapa crucial.
“O texto gerado por LLMs frequentemente viola várias das principais políticas de conteúdo da Wikipédia”, afirma a política.
Esta proibição não é inesperada, uma vez que a Wikipedia já enfrentou problemas com empresas de IA que extraíam os seus dados sem contribuir para a missão da organização sem fins lucrativos. No ano passado, a Wikimedia Foundation instou os desenvolvedores de IA a usarem sua API empresarial, permitindo acesso sustentável e ao mesmo tempo apoiando a operação da enciclopédia.
Exceções limitadas
Apesar da proibição, a Wikipedia permite IA em dois casos específicos:
- Edição básica: A IA pode ser usada para pequenas correções, como erros de digitação ou formatação, após um revisor humano ou administrador verificar as alterações. Isso garante que a IA não altere o significado do conteúdo.
- Tradução: A tradução baseada em IA de versões da Wikipédia em outros idiomas é permitida, mas os tradutores devem ser fluentes em ambos os idiomas para manter a precisão.
Aplicação e implicações mais amplas
Ainda não está claro como esta política será aplicada. Não há menção a penalidades para violações, mas dado o sistema de moderação baseado em voluntários da plataforma, a detecção e denúncia pela comunidade são provavelmente fundamentais.
A proibição reflete um debate mais amplo: a conveniência do conteúdo gerado pela IA versus a necessidade de julgamento humano e de informações confiáveis. À medida que as ferramentas de IA se tornam omnipresentes na vida quotidiana – desde o Apple Intelligence até ao Galaxy AI – crescem as questões sobre precisão e “alucinações”. A posição da Wikipédia sinaliza uma priorização do conhecimento verificável em detrimento da velocidade e da automação, pelo menos por enquanto.
Em última análise, a decisão da Wikipédia é uma declaração clara sobre sua posição no cenário em rápida evolução da IA: a precisão com curadoria humana continua sendo fundamental.





























