A Meta anunciou uma nova iniciativa para rastrear as atividades digitais de seus funcionários e contratados baseados nos EUA para acelerar o desenvolvimento de sua inteligência artificial. De acordo com memorandos internos relatados pela Reuters e pelo Business Insider, a empresa monitorará pressionamentos de teclas, cliques do mouse e capturas de tela para coletar dados para treinar seus modelos de IA.

A “Iniciativa de Capacidade do Modelo”

A empresa está implementando um novo programa de software chamado Model Capability Initiative. Esta ferramenta foi projetada para observar como os humanos navegam em ambientes digitais profissionais, capturando nuances específicas como:
– O uso de atalhos de teclado.
– Interações com menus suspensos.
– Navegação por aplicativos e sites relacionados ao trabalho (incluindo Gmail, GChat e o assistente interno de IA da Meta, Metamate).

O objetivo final, de acordo com Andrew Bosworth, CTO da Meta, é desenvolver agentes de IA capazes de executar tarefas de forma autônoma. Nesta visão de longo prazo, a IA “faria o trabalho” enquanto os funcionários humanos mudariam para funções focadas em dirigir e refinar estes agentes digitais.

Reação da força de trabalho e preocupações com privacidade

O anúncio gerou atritos significativos dentro da empresa. Os funcionários expressaram desconforto em relação ao nível de vigilância, com alguns questionando sobre opções de “exclusão”. No entanto, Bosworth confirmou que não há como cancelar ao usar um laptop da empresa.

Os defensores da privacidade e os especialistas em direitos digitais levantaram vários sinais de alerta em relação a esta medida:
* Invasividade: Eric Null, do Centro para Democracia e Tecnologia, descreveu o plano como uma das formas mais invasivas de vigilância no local de trabalho.
* Riscos de preconceito: Há preocupações de que o uso de dados de interação humana para treinar IA possa replicar e dimensionar inadvertidamente preconceitos estruturais.
* Impacto na acessibilidade: Especialistas alertam que esse rastreamento granular pode penalizar injustamente ou deturpar funcionários com deficiência que possam usar padrões de navegação diferentes.

Em resposta, Meta afirmou que os dados são usados ​​estritamente para treinamento de IA, não são usados ​​para avaliações de desempenho e que os gerentes não podem acessar os dados brutos. A empresa afirma que existem “salvaguardas” para proteger conteúdo confidencial.

O contexto mais amplo: investimento em IA versus redução da força de trabalho

Este impulso de vigilância surge num momento paradoxal para Meta. Embora a empresa esteja investindo agressivamente em IA – alocando mais de US$ 135 bilhões este ano – ela está simultaneamente passando por uma redução significativa.

“Funcionários de todo o mundo estão ajudando a treinar os sistemas que ocuparão seus empregos.” — Bill Howe, professor associado da Universidade de Washington

A Meta está atualmente em processo de demissão de aproximadamente 8.000 funcionários (10% de sua força de trabalho), seguindo uma tendência que viu a empresa cortar 25.000 empregos desde 2022. Isso cria uma tensão entre o impulso da empresa pela “superinteligência” tecnológica e o encolhimento do número de funcionários humanos.

Resumo

A Meta está a aproveitar a sua própria força de trabalho como campo de formação para construir agentes autónomos de IA, uma medida que promete um rápido avanço tecnológico, mas que levanta questões profundas relativamente à privacidade dos trabalhadores, à ética da vigilância e à estabilidade a longo prazo dos papéis humanos numa economia impulsionada pela IA.