A Califórnia promulgou uma nova legislação que exige que os chatbots de IA se identifiquem explicitamente como entidades não humanas e implementem protocolos de segurança, incluindo medidas de prevenção de suicídio. O governador Gavin Newsom sancionou o SB 243 na segunda-feira, marcando um passo significativo na regulamentação do cenário em rápida evolução da inteligência artificial.

Requisitos de divulgação para menores

O projeto de lei determina que os chatbots que interagem com usuários menores de 18 anos exibam um lembrete a cada três horas de que não são humanos. Esta disposição aborda preocupações sobre a dependência emocional e o potencial dos utilizadores, especialmente os jovens, de desenvolverem ligações pouco saudáveis ​​com companheiros de IA. A lei procura evitar declarações falsas e garantir que os utilizadores permaneçam conscientes da natureza artificial das suas interações.

Protocolos de Prevenção ao Suicídio

O SB 243 também exige que as empresas de chatbot estabeleçam protocolos claros para identificar e responder à ideação suicida ou automutilação expressada pelos usuários. A lei responde diretamente às preocupações crescentes sobre o impacto da IA ​​na saúde mental, especialmente após incidentes em que os chatbots estavam alegadamente ligados ao sofrimento dos utilizadores. A OpenAI, criadora do ChatGPT, já enfrentou ações judiciais de pais alegando que a plataforma contribuiu para o suicídio de seus filhos, o que levou a empresa a implementar novos controles parentais.

Regulamentação tecnológica mais ampla na Califórnia

Esta legislação faz parte de uma série de projetos de lei recentes assinados por Newsom visando a tecnologia de consumo. O AB 56 exige rótulos de advertência nas plataformas de redes sociais, semelhantes aos dos produtos de tabaco, enquanto outras medidas visam proteger os dados dos utilizadores e coibir práticas publicitárias perturbadoras. Estas leis refletem uma tendência mais ampla de reguladores reprimirem as empresas de tecnologia em meio à crescente preocupação pública com a privacidade de dados, saúde mental e design viciante.

Resposta da Indústria

Os desenvolvedores de IA estão respondendo às novas regulamentações com diversos graus de conformidade. Replika, uma plataforma líder de IA, afirmou que já possui sistemas de detecção de automutilação e está trabalhando com reguladores para garantir conformidade total. OpenAI e Character.ai expressaram apoio ao projeto de lei, reconhecendo a necessidade de um desenvolvimento responsável de IA.

“Ao estabelecer barreiras claras, a Califórnia está ajudando a moldar uma abordagem mais responsável para o desenvolvimento e implantação de IA em todo o país”, disse Jamie Radice, porta-voz da OpenAI.

As implicações do SB 243 estendem-se para além da Califórnia, estabelecendo potencialmente um precedente para regulamentações semelhantes em todo o país. À medida que a IA continua a integrar-se na vida quotidiana, os legisladores estão cada vez mais concentrados em mitigar os seus riscos e, ao mesmo tempo, promover a inovação. A legislação sublinha o reconhecimento crescente de que a IA não é neutra e requer uma supervisão cuidadosa para proteger os utilizadores vulneráveis.

A nova lei destaca a tensão entre o avanço tecnológico e a responsabilidade ética, exigindo que as empresas de IA priorizem a segurança do utilizador juntamente com o desenvolvimento de produtos. As ações da Califórnia podem sinalizar uma mudança em direção a uma governação mais rigorosa da IA, forçando os programadores a abordar proativamente os potenciais danos da sua tecnologia.