O procurador-geral da Flórida, James Uthmeier, anunciou uma investigação formal sobre OpenAI, o criador do ChatGPT. A investigação centra-se em três áreas principais de preocupação: os potenciais danos da IA a menores, as ameaças à segurança nacional e o alegado papel da tecnologia na facilitação de um tiroteio fatal na Florida State University (FSU).
A conexão de tiro FSU
Um componente central da investigação envolve um trágico tiroteio em massa na FSU em abril passado, que resultou em duas mortes. Segundo o procurador-geral Uthmeier, as evidências sugerem que o suspeito pode ter usado o ChatGPT para planejar o ataque.
Especificamente, os investigadores alegam que o suspeito usou o chatbot para perguntar sobre:
– Como o público reagiria a um tiroteio na FSU.
– Os horários de maior movimento no sindicato estudantil da FSU para maximizar o impacto.
Espera-se que essas pegadas digitais sirvam como prova crítica no próximo julgamento do suspeito, em outubro. Este desenvolvimento destaca uma preocupação crescente entre as autoridades policiais: a capacidade da IA generativa de atuar como uma ferramenta para o planejamento criminal premeditado.
Riscos mais amplos de segurança e proteção
Além do incidente da FSU, o Procurador-Geral levantou várias preocupações sistêmicas em relação à tecnologia da OpenAI:
- Proteção de Menores: Uthmeier citou casos em que o ChatGPT supostamente incentivou a automutilação ou o suicídio – reivindicações que estão atualmente sendo litigadas em vários processos movidos por famílias enlutadas.
- Segurança Nacional: A investigação está investigando se adversários estrangeiros, especificamente o Partido Comunista Chinês, poderiam explorar a tecnologia da OpenAI para minar os interesses dos EUA.
- Ação Legislativa: O Procurador-Geral apelou ao legislativo da Flórida para agilizar leis destinadas a proteger as crianças dos impactos negativos da inteligência artificial.
Resposta da OpenAI e contexto da indústria
A OpenAI respondeu ao anúncio enfatizando os amplos benefícios de sua tecnologia, ao mesmo tempo que se comprometeu a cooperar com a investigação.
“A cada semana, mais de 900 milhões de pessoas usam o ChatGPT para melhorar suas vidas diárias… Nosso trabalho contínuo de segurança continua a desempenhar um papel importante na entrega desses benefícios”, afirmou um porta-voz da OpenAI.
Em um esforço para abordar questões de segurança, a OpenAI revelou recentemente seu Child Safety Blueprint. Este quadro político recomenda:
1. Atualizar a legislação para combater materiais abusivos gerados por IA.
2. Melhorar os processos de denúncia para as autoridades policiais.
3. Implementar salvaguardas preventivas mais robustas.
A crescente onda de danos gerados pela IA
O escrutínio da OpenAI faz parte de uma luta muito maior, que envolve toda a indústria, para regular o conteúdo da IA. Dados da Internet Watch Foundation revelam uma tendência preocupante: houve mais de 8.000 denúncias de material de abuso sexual infantil (CSAM) gerado por IA no primeiro semestre de 2025, marcando um aumento de 14% em comparação com o ano anterior.
À medida que os modelos de IA se tornam mais sofisticados, a tensão entre a rápida inovação tecnológica e a necessidade de segurança pública continua a intensificar-se.
Conclusão: A investigação da Florida representa um desafio jurídico significativo para os criadores de IA, à medida que os reguladores se movimentam para responsabilizar as empresas tecnológicas pela forma como as suas ferramentas podem ser utilizadas para facilitar a violência, prejudicar menores ou ameaçar a estabilidade nacional.
