OpenAI ha comenzado a implementar tecnología de predicción de edad dentro de ChatGPT, una medida diseñada para mejorar las medidas de seguridad para los usuarios adolescentes. El sistema, anunciado el martes, tiene como objetivo proteger a los menores de contenido dañino y al mismo tiempo reconoce los desafíos legales pasados de la compañía relacionados con el bienestar de los adolescentes.
Antecedentes y contexto legal
El lanzamiento se produce tras múltiples demandas que alegan que ChatGPT proporcionó consejos perjudiciales a adolescentes, incluidos casos en los que la IA supuestamente contribuyó a la ideación suicida o no respondió adecuadamente a las señales de socorro. OpenAI ha cuestionado estas acusaciones, pero los casos provocaron una reevaluación de sus protocolos de seguridad. En diciembre, OpenAI actualizó su Model Spec (la guía para el comportamiento de su IA) abordando específicamente las interacciones con usuarios menores de 18 años en situaciones críticas.
Cómo funciona la predicción de la edad
El nuevo sistema de ChatGPT estima la edad utilizando patrones de comportamiento y señales de cuenta. Estos incluyen tiempos de uso, antigüedad de la cuenta, actividad a largo plazo y cualquier edad autoinformada. Si el modelo determina que un usuario es menor de 18 años, se restringirá el acceso a violencia gráfica, representaciones de autolesiones y contenido explícito de juegos de roles. Los usuarios que inicialmente se declaran menores de edad durante la creación de la cuenta quedan automáticamente sujetos a estas salvaguardas.
Para cuentas cuya edad es incierta, ChatGPT utilizará de forma predeterminada la configuración más segura. Los usuarios adultos marcados incorrectamente como menores pueden verificar su edad a través de Persona, un servicio de verificación de identidad de terceros que requiere el envío de una selfie.
Preocupaciones de privacidad y seguridad
El uso de verificación de terceros plantea preocupaciones sobre la privacidad. OpenAI no ha detallado cómo se almacenarán los documentos de identificación enviados, un punto de precaución dada la violación de Discord de 2025 que expuso a decenas de miles de identificaciones emitidas por el gobierno. Esto pone de relieve los riesgos inherentes de depender de servicios externos para la verificación de la edad.
OpenAI planea perfeccionar la precisión de la predicción de la edad a lo largo del tiempo, iterando en función de los datos de implementación inicial. La empresa reconoce que este es un proceso continuo.
La implementación de la predicción de la edad es una respuesta directa a la presión legal y las crecientes preocupaciones éticas en torno a la seguridad de la IA. Al restringir el acceso a contenido dañino, OpenAI busca mitigar los riesgos potenciales para los usuarios vulnerables. Sin embargo, la dependencia de la verificación de terceros introduce nuevas vulnerabilidades de seguridad que deben gestionarse con cuidado.





























