As lojas de aplicativos da Apple e do Google hospedaram dezenas de aplicativos que usam inteligência artificial para remover digitalmente roupas de imagens, expondo pessoas sem seu consentimento. Um novo relatório do Tech Transparency Project (TTP) revela que esses aplicativos foram baixados mais de 705 milhões de vezes em todo o mundo, gerando uma receita estimada em US$ 117 milhões para os gigantes da tecnologia por meio de comissões nas lojas de aplicativos.

A escala do problema

A investigação da TTP identificou 55 aplicativos “nudificar” no Google Play e 47 na App Store da Apple, demonstrando uma ampla disponibilidade de ferramentas capazes de criar deepfakes não consensuais. Apesar de ambas as empresas terem políticas que proíbem esse tipo de conteúdo, os aplicativos permaneceram ativos por longos períodos, lucrando com imagens abusivas e sexualizadas.

“Ambas as empresas dizem que se dedicam à segurança dos usuários, mas hospedam uma coleção de aplicativos que podem transformar uma foto inócua de uma mulher em uma imagem abusiva e sexualizada.” – Relatório TTP.

Resposta do gigante da tecnologia

Seguindo o relatório TTP, a Apple afirmou que removeu 28 dos aplicativos identificados, enquanto o Google afirma ter “suspendido vários”. Contudo, o TTP insiste que estas ações são insuficientes. O principal problema não é apenas a remoção de aplicativos, mas a falha das plataformas em impedir proativamente que esses aplicativos apareçam.

A ameaça mais ampla de deepfake de IA

Essa proliferação de aplicativos “nudificar” faz parte de uma tendência maior. O xAI de Elon Musk e seu chatbot Grok também foram examinados por questões semelhantes: Grok supostamente criou mais de 3 milhões de imagens sexualizadas, incluindo milhares potencialmente representando crianças, com controles de segurança mínimos.

O rápido avanço da IA ​​torna inevitável a disseminação da tecnologia deepfake. As empresas de tecnologia enfrentam um desafio contínuo para equilibrar a inovação com a segurança do usuário, especialmente à medida que as ferramentas de IA se tornam mais acessíveis e poderosas.

A situação atual destaca uma lacuna crítica na regulamentação e aplicação, deixando os utilizadores vulneráveis ​​a deepfakes não consensuais. Até que medidas mais rigorosas sejam implementadas, estas plataformas continuarão a lucrar com conteúdos abusivos, ao mesmo tempo que afirmam dar prioridade à segurança dos utilizadores.