Les magasins d’applications d’Apple et de Google ont hébergé des dizaines d’applications qui utilisent l’intelligence artificielle pour retirer numériquement les vêtements des images, exposant ainsi les sujets sans leur consentement. Un nouveau rapport du Tech Transparency Project (TTP) révèle que ces applications ont été téléchargées plus de 705 millions de fois dans le monde, générant un revenu estimé à 117 millions de dollars pour les géants de la technologie grâce aux commissions des magasins d’applications.

L’ampleur du problème

L’enquête du TTP a identifié 55 applications « nudify » sur Google Play et 47 sur l’App Store d’Apple, démontrant une large disponibilité d’outils capables de créer des deepfakes non consensuels. Bien que les deux sociétés aient adopté des politiques interdisant ce type de contenu, les applications sont restées actives pendant de longues périodes, profitant d’images abusives et sexualisées.

“Les deux sociétés affirment se consacrer à la sûreté et à la sécurité des utilisateurs, mais elles hébergent une collection d’applications qui peuvent transformer une photo anodine d’une femme en une image abusive et sexualisée.” – Rapport TTP.

Réponse du géant de la technologie

À la suite du rapport TTP, Apple a déclaré avoir supprimé 28 des applications identifiées, tandis que Google affirme en avoir « suspendu plusieurs ». Cependant, le TTP insiste sur le fait que ces actions sont insuffisantes. Le problème principal n’est pas seulement la suppression d’applications, mais aussi l’incapacité des plates-formes à empêcher de manière proactive ces applications d’apparaître.

La menace plus large des Deepfakes de l’IA

Cette prolifération d’applications « nudify » s’inscrit dans une tendance plus large. Le xAI d’Elon Musk et son chatbot Grok ont ​​également fait l’objet d’un examen minutieux pour des problèmes similaires : Grok aurait créé plus de 3 millions d’images sexualisées, dont des milliers représentant potentiellement des enfants, avec des contrôles de sécurité minimes en place.

Les progrès rapides de l’IA rendent inévitable la diffusion de la technologie deepfake. Les entreprises technologiques sont confrontées à un défi permanent pour équilibrer innovation et sécurité des utilisateurs, d’autant plus que les outils d’IA deviennent plus accessibles et plus puissants.

La situation actuelle met en évidence une lacune critique en matière de réglementation et d’application, laissant les utilisateurs vulnérables aux deepfakes non consensuels. Jusqu’à ce que des mesures plus strictes soient mises en œuvre, ces plateformes continueront de profiter de contenus abusifs tout en prétendant donner la priorité à la sécurité des utilisateurs.