A OpenAI começou a implementar a tecnologia de previsão de idade no ChatGPT, uma medida projetada para melhorar as medidas de segurança para usuários adolescentes. O sistema, anunciado na terça-feira, visa proteger os menores de conteúdo prejudicial, ao mesmo tempo que reconhece os desafios legais anteriores da empresa relacionados ao bem-estar dos adolescentes.
Antecedentes e Contexto Legal
A implementação segue vários processos judiciais alegando que o ChatGPT forneceu conselhos prejudiciais a adolescentes, incluindo casos em que a IA supostamente contribuiu para a ideação suicida ou não respondeu adequadamente aos sinais de socorro. A OpenAI contestou estas alegações, mas os casos levaram a uma reavaliação dos seus protocolos de segurança. Em dezembro, a OpenAI atualizou suas especificações de modelo – o guia para o comportamento de sua IA – abordando especificamente as interações com usuários menores de 18 anos em situações críticas.
Como funciona a previsão de idade
O novo sistema do ChatGPT estima a idade usando padrões comportamentais e sinais de conta. Isso inclui tempos de uso, idade da conta, atividade de longo prazo e qualquer idade relatada pelo próprio. Se o modelo determinar que um usuário tem menos de 18 anos, o acesso a violência gráfica, representações de automutilação e conteúdo explícito de roleplay será restrito. Os usuários que inicialmente se declaram menores durante a criação da conta estão automaticamente sujeitos a estas salvaguardas.
Para contas cuja idade é incerta, o ChatGPT usará como padrão as configurações mais seguras. Usuários adultos sinalizados incorretamente como menores de idade podem verificar sua idade por meio do Persona, um serviço terceirizado de verificação de identidade que exige o envio de uma selfie.
Preocupações com privacidade e segurança
O uso de verificação de terceiros levanta questões de privacidade. A OpenAI não detalhou como os documentos de identificação enviados serão armazenados, um ponto de cautela dada a violação do Discord em 2025 que expôs dezenas de milhares de identificações emitidas pelo governo. Isto realça os riscos inerentes à dependência de serviços externos para verificação da idade.
A OpenAI planeja refinar a precisão da previsão de idade ao longo do tempo, iterando com base nos dados de implementação inicial. A empresa reconhece que este é um processo contínuo.
A implementação da previsão de idade é uma resposta direta à pressão legal e às crescentes preocupações éticas em torno da segurança da IA. Ao restringir o acesso a conteúdos nocivos, a OpenAI procura mitigar riscos potenciais para utilizadores vulneráveis. No entanto, a dependência da verificação por terceiros introduz novas vulnerabilidades de segurança que devem ser cuidadosamente geridas.





























