Die App-Stores von Apple und Google haben Dutzende Anwendungen gehostet, die künstliche Intelligenz nutzen, um Kleidung digital aus Bildern zu entfernen und so Motive ohne deren Zustimmung freizulegen. Ein neuer Bericht des Tech Transparency Project (TTP) zeigt, dass diese Apps weltweit über 705 Millionen Mal heruntergeladen wurden und den Technologiegiganten durch App-Store-Provisionen einen geschätzten Umsatz von 117 Millionen US-Dollar einbrachten.
Das Ausmaß des Problems
Die TTP-Untersuchung identifizierte 55 „nudify“-Apps bei Google Play und 47 im App Store von Apple, was zeigt, dass Tools weit verbreitet sind, mit denen nicht einvernehmliche Deepfakes erstellt werden können. Obwohl beide Unternehmen Richtlinien haben, die solche Inhalte verbieten, blieben die Apps über längere Zeiträume aktiv und profitierten von beleidigenden und sexualisierten Bildern.
„Beide Unternehmen geben an, dass ihnen die Sicherheit der Nutzer am Herzen liegt, sie hosten jedoch eine Sammlung von Apps, die ein harmloses Foto einer Frau in ein beleidigendes, sexualisiertes Bild verwandeln können.“ – TTP-Bericht.
Antwort des Tech Giant
Im Anschluss an den TTP-Bericht gab Apple an, 28 der identifizierten Apps entfernt zu haben, während Google behauptet, „mehrere gesperrt“ zu haben. Die TTP besteht jedoch darauf, dass diese Maßnahmen unzureichend sind. Das Kernproblem ist nicht nur die Entfernung von Apps, sondern das Versagen der Plattformen, proaktiv zu verhindern, dass diese Apps überhaupt erst auftauchen.
Die umfassendere KI-Deepfake-Bedrohung
Diese Verbreitung von „Nudify“-Apps ist Teil eines größeren Trends. Elon Musks xAI und sein Grok-Chatbot wurden ebenfalls wegen ähnlicher Probleme untersucht: Grok hat Berichten zufolge über 3 Millionen sexualisierte Bilder erstellt, darunter Tausende, auf denen möglicherweise Kinder abgebildet sind, wobei nur minimale Sicherheitskontrollen vorhanden sind.
Die rasante Weiterentwicklung der KI macht die Verbreitung der Deepfake-Technologie unvermeidlich. Technologieunternehmen stehen vor der ständigen Herausforderung, Innovation und Benutzersicherheit in Einklang zu bringen, insbesondere da KI-Tools immer zugänglicher und leistungsfähiger werden.
Die aktuelle Situation verdeutlicht eine kritische Lücke in der Regulierung und Durchsetzung, die Benutzer anfällig für nicht einvernehmliche Deepfakes macht. Bis strengere Maßnahmen umgesetzt werden, werden diese Plattformen weiterhin von missbräuchlichen Inhalten profitieren und gleichzeitig behaupten, dass die Sicherheit der Benutzer oberste Priorität hat.





























