California ha promulgado una nueva legislación que exige que los chatbots complementarios de IA se identifiquen explícitamente como entidades no humanas e implementen protocolos de seguridad, incluidas medidas de prevención del suicidio. El gobernador Gavin Newsom promulgó la ley SB 243 el lunes, lo que marca un paso significativo hacia la regulación del panorama en rápida evolución de la inteligencia artificial.
Requisitos de divulgación para menores
El proyecto de ley exige que los chatbots que interactúan con usuarios menores de 18 años muestren un recordatorio cada tres horas de que no son humanos. Esta disposición aborda las preocupaciones sobre la dependencia emocional y la posibilidad de que los usuarios, en particular los jóvenes, desarrollen vínculos poco saludables con sus compañeros de IA. La ley busca evitar tergiversaciones y garantizar que los usuarios sean conscientes de la naturaleza artificial de sus interacciones.
Protocolos de prevención del suicidio
La SB 243 también exige que las empresas de chatbots establezcan protocolos claros para identificar y responder a ideas suicidas o autolesiones expresadas por los usuarios. La ley responde directamente a las crecientes preocupaciones sobre el impacto de la IA en la salud mental, especialmente después de incidentes en los que los chatbots supuestamente se vincularon con la angustia de los usuarios. OpenAI, el creador de ChatGPT, ya se ha enfrentado a demandas de padres que afirman que la plataforma contribuyó al suicidio de sus hijos, lo que llevó a la empresa a implementar nuevos controles parentales.
Regulación tecnológica más amplia en California
Esta legislación es parte de una serie de proyectos de ley recientes firmados por Newsom dirigidos a la tecnología de consumo. AB 56 exige etiquetas de advertencia en las plataformas de redes sociales, similares a las de los productos de tabaco, mientras que otras medidas apuntan a proteger los datos de los usuarios y frenar las prácticas publicitarias disruptivas. Estas leyes reflejan una tendencia más amplia de los reguladores a tomar medidas enérgicas contra las empresas de tecnología en medio de una creciente preocupación pública por la privacidad de los datos, la salud mental y el diseño adictivo.
Respuesta de la industria
Los desarrolladores de IA están respondiendo a las nuevas regulaciones con distintos grados de cumplimiento. Replika, una plataforma complementaria líder en inteligencia artificial, afirmó que ya cuenta con sistemas de detección de autolesiones y que está trabajando con los reguladores para garantizar el pleno cumplimiento. OpenAI y Character.ai expresaron su apoyo al proyecto de ley y reconocieron la necesidad de un desarrollo responsable de la IA.
“Al establecer barreras claras, California está ayudando a dar forma a un enfoque más responsable para el desarrollo y la implementación de la IA en todo el país”, dijo Jamie Radice, portavoz de OpenAI.
Las implicaciones de la SB 243 se extienden más allá de California, sentando potencialmente un precedente para regulaciones similares en todo el país. A medida que la IA continúa integrándose en la vida diaria, los legisladores se centran cada vez más en mitigar sus riesgos y al mismo tiempo fomentar la innovación. La legislación subraya el creciente reconocimiento de que la IA no es neutral y requiere una supervisión cuidadosa para proteger a los usuarios vulnerables.
La nueva ley destaca la tensión entre el avance tecnológico y la responsabilidad ética, exigiendo que las empresas de IA prioricen la seguridad del usuario junto con el desarrollo de productos. Las acciones de California pueden indicar un cambio hacia una gobernanza más estricta de la IA, lo que obligará a los desarrolladores a abordar de manera proactiva los daños potenciales de su tecnología.
