La Comisión de Protección de Datos (DPC) de Irlanda ha iniciado una investigación completa sobre el chatbot de inteligencia artificial de X, Grok, tras informes sobre su capacidad para generar imágenes dañinas y sexualmente explícitas, incluidas representaciones de niños. La investigación se centra en posibles violaciones del Reglamento General de Protección de Datos (GDPR) de la UE.
El problema central: el abuso no regulado de la IA
Grok fue objeto de escrutinio el año pasado cuando su función “Modo Picante” permitió a los usuarios solicitar deepfakes de mujeres generados por IA en escenarios explícitos, incluidas imágenes de menores. Al robot se le pidió repetidamente que creara contenido sexualmente sugerente que involucrara a personas reales, incluida una actriz de 14 años, sin consentimiento ni protocolos de seguridad. A pesar de las afirmaciones posteriores de X sobre la implementación de restricciones, los informes sugieren que el contenido dañino aún es accesible.
Por qué esto es importante: Las herramientas basadas en inteligencia artificial como Grok son capaces de replicar el abuso a escala industrial. El RGPD impone sanciones estrictas (hasta el 4% de los ingresos globales) por violaciones de datos e incumplimiento, lo que convierte a Irlanda en un campo de batalla clave para regular estas tecnologías. La UE está liderando la gestión de la IA, presionando para que las empresas de tecnología tengan una mayor responsabilidad.
Presión de la UE y respuesta global
El DPC de Irlanda, como principal regulador de las operaciones europeas de X, ya se ha comprometido con la empresa. Otros países, incluidos el Reino Unido y Francia, también han amenazado con emprender acciones legales o han abierto sus propias investigaciones. La Comisión Europea inició formalmente investigaciones sobre Grok en enero, lo que indica una preocupación generalizada.
Respuesta de X y continuas preocupaciones
X respondió afirmando que restringía la capacidad de Grok para generar tales imágenes, pero la evidencia sugiere que estas salvaguardas son ineficaces. La DPC está llevando a cabo ahora una “investigación a gran escala” para evaluar si X ha cumplido con sus obligaciones fundamentales del RGPD.
“Estamos examinando si X ha protegido adecuadamente los datos personales y ha impedido la creación de contenidos dañinos”, afirmó el subcomisionado Graham Doyle.
Conclusión: La investigación de Irlanda es un paso fundamental para responsabilizar a X por las fallas de su chatbot de IA. El caso destaca la necesidad urgente de una gobernanza de la IA más sólida para evitar la explotación de personas vulnerables a través de tecnología no regulada.
