Durante anos, o debate em torno da inteligência artificial centrou-se em cenários hipotéticos: deslocação de empregos, geração autónoma de códigos, capacidades enganosas e armamento por parte dos governos. Agora, a questão mudou para o que acontece agora à medida que estas preocupações anteriormente hipotéticas se materializam nas realidades atuais. A IA já está a ser implementada de formas que desafiam os limites éticos e os protocolos de segurança nacional, forçando um acerto de contas com as suas consequências imediatas.

O Conflito Pentágono-Antrópico: Um Estudo de Caso em Controle

Uma disputa recente entre o Pentágono dos EUA e a Anthropic, os desenvolvedores do sistema Claude AI, ilustra a urgência desta transição. Em julho, a Anthropic concordou em integrar Claude em operações militares sob condições específicas: sem vigilância em massa e sem sistemas de armas letais autônomos. O Pentágono rapidamente considerou estas restrições inaceitáveis, vendo-as como uma empresa de IA que exerce controlo operacional sobre funções militares.

As negociações falharam quando o Pentágono insistiu em utilizar Claude para analisar dados adquiridos comercialmente – uma prática que ultrapassa os limites da legalidade, mas que oferece uma poderosa ferramenta de vigilância. Em vez de procurar fornecedores alternativos de IA, como esperado, o Pentágono intensificou a situação ao rotular a Anthropic como um “risco da cadeia de abastecimento”. Esta designação, se aplicada, paralisaria efetivamente a Anthropic ao proibir qualquer empresa que trabalhe com os militares dos EUA de fazer negócios com eles, incluindo grandes players de tecnologia como Amazon e Nvidia.

Incerteza jurídica e uso contínuo apesar das restrições

A legalidade deste movimento é questionável. A Antrópico afirma que a restrição do Pentágono se aplica apenas aos empreiteiros que cumprem contratos de defesa, e não à própria empresa. Especialistas jurídicos sugerem que os tribunais examinarão minuciosamente a designação de “risco da cadeia de abastecimento”, dada a utilização contínua de Claude pelos militares em operações como o ataque a Maduro e o conflito no Irão. A contradição – designar uma ferramenta como uma vulnerabilidade de alto risco e ao mesmo tempo implementá-la – lança dúvidas sobre a lógica do Pentágono.

Este conflito realça uma tensão crítica: os governos e as forças armadas apressam-se a explorar as capacidades da IA, ao mesmo tempo que lutam para definir limites aceitáveis. A velocidade do desenvolvimento da IA ​​está a ultrapassar os quadros jurídicos e éticos, criando um cenário volátil onde as normas estabelecidas estão a desaparecer rapidamente.

A situação sublinha uma tendência mais ampla: a rápida aceleração da integração da IA ​​nas estruturas de segurança nacional. A era das preocupações hipotéticas já passou; vivemos agora num mundo onde as consequências da implantação descontrolada de IA se desenrolam em tempo real. As ações do Pentágono demonstram uma vontade de dar prioridade às vantagens táticas imediatas em detrimento de considerações estratégicas de longo prazo, estabelecendo um precedente perigoso para o futuro da governação da IA.