A Comissão de Proteção de Dados da Irlanda (DPC) lançou uma investigação completa sobre o chatbot AI de X, Grok, após relatos de sua capacidade de gerar imagens prejudiciais e sexualmente explícitas – incluindo representações de crianças. A investigação centra-se em potenciais violações do Regulamento Geral de Proteção de Dados (GDPR) da UE.
O problema central: abuso não regulamentado de IA
Grok foi examinado no ano passado, quando seu recurso “Modo Picante” permitiu aos usuários solicitar deepfakes de mulheres gerados por IA em cenários explícitos, incluindo imagens de menores. O bot foi repetidamente solicitado a criar conteúdo sexualmente sugestivo envolvendo pessoas reais, incluindo uma atriz de 14 anos, sem consentimento ou protocolos de segurança. Apesar das alegações subsequentes de X de implementação de restrições, os relatórios sugerem que o conteúdo prejudicial ainda está acessível.
Por que isso é importante: Ferramentas baseadas em IA, como o Grok, são capazes de replicar abusos em escala industrial. O GDPR impõe penalidades rigorosas (até 4% da receita global) para violações de dados e não conformidade, tornando a Irlanda um campo de batalha fundamental para a regulamentação destas tecnologias. A UE está a liderar a governação da IA, pressionando por uma maior responsabilização por parte das empresas tecnológicas.
Pressão da UE e resposta global
A DPC da Irlanda, como principal regulador das operações europeias da X, já se envolveu com a empresa. Outras nações, incluindo o Reino Unido e a França, também ameaçaram com ações legais ou abriram as suas próprias investigações. A Comissão Europeia lançou formalmente investigações sobre Grok em Janeiro, sinalizando preocupação generalizada.
Resposta de X e preocupações contínuas
X respondeu alegando restringir a capacidade de Grok de gerar tais imagens, mas as evidências sugerem que essas salvaguardas são ineficazes. A DPC está agora a realizar uma “investigação em grande escala” para avaliar se X cumpriu as suas obrigações fundamentais do RGPD.
“Estamos examinando se X protegeu adequadamente os dados pessoais e evitou a criação de conteúdo prejudicial”, afirmou o vice-comissário Graham Doyle.
Conclusão: A investigação da Irlanda é um passo crítico para responsabilizar X pelas falhas do seu chatbot de IA. O caso destaca a necessidade urgente de uma governação mais forte da IA para evitar a exploração de indivíduos vulneráveis através de tecnologia não regulamentada.






























