Trump x Anthropic: os EUA querem robôs assassinos?
Em um momento em que as potências imperialistas buscam reafirmar seu domínio com sangue e sofrimento, conter a corrida pelas tecnologias de armas mais apavorantes é uma prioridade política
Foto: Drone do exército turco. (Wikimedia Commons/Reprodução)
“Eu os demiti como se fossem cães.” Essa é a fórmula que o presidente dos EUA, Donald Trump, com a elegância que o caracteriza, usou para resumir sua batalha contra a empresa americana Anthropic. Ele terá que esperar um pouco mais antes de se gabar: em uma primeira decisão proferida em 27 de março de 2026, o tribunal suspendeu a inclusão na lista de empresas proibidas da gigante da inteligência artificial (IA), cujas ferramentas podem, portanto, continuar sendo utilizadas pelas administrações, contrariando os desejos do presidente. Mas o cabo de guerra não acabou, e precisamos avaliar o que está em jogo: o uso da IA pelos Estados Unidos a serviço de um regime de terror.
Fundada por ex-funcionários da Open AI, a empresa que desenvolveu o famoso chatbot ChatGPT, a Anthropic é uma das principais concorrentes no campo dos grandes modelos de linguagem (LLMs). Seu modelo, o Claude, havia atingido 30 milhões de usuários em meados de 2025. Em sua comunicação, a empresa enfatiza a confiabilidade e a segurança e promove o conceito de “IA constitucional”, ou seja, uma IA treinada para agir de acordo com textos fundadores, como a Declaração Universal dos Direitos Humanos. Uma abordagem que se pretende ser sensata e razoável, mas que não impediu que ela se tornasse, em novembro de 2024, a fornecedora oficial de software de IA para o Departamento de Defesa dos EUA.
O Pentágono está utilizando o Claude, em particular, como parte de uma parceria que também envolve a polêmica empresa de big data Palantir, de propriedade do bilionário de extrema direita Peter Thiel. A Palantir fornece as ferramentas para coletar e processar grandes quantidades de dados, e a Anthropic possibilita usá-las para elaborar planos de ação. No contexto da guerra no Oriente Médio, essas ferramentas permitiram automatizar a busca por alvos, o que explica o ritmo excepcional dos ataques. O Wall Street Journal também revelou que o Claude havia sido usado para planejar o sequestro do presidente venezuelano Nicolás Maduro em janeiro.
No final de 2025, o Pentágono iniciou negociações para revisar os termos desses contratos. Em questão: restrições aos marcos de uso, que o secretário de Estado Pete Hegseth queria eliminar em favor da fórmula “qualquer uso legítimo”. A Anthropic se mostrou então aberta à discussão, mas estabeleceu dois limites inegociáveis: vigilância em massa de cidadãos americanos e armas totalmente autônomas. Embora alegasse que esses usos já fossem proibidos pela lei americana (o que é altamente questionável), o Pentágono se ofendeu, estabeleceu um ultimato e, em seguida, rompeu a colaboração com a empresa. Em 4 de março, a Anthropic recebeu uma carta informando-a da punição que Donald Trump havia escolhido para ela: agora seria considerada um “risco à cadeia de suprimentos”, um status geralmente reservado a empresas de países inimigos ou não confiáveis, o que proíbe qualquer administração de utilizar seus serviços. E foi essa decisão que, três semanas depois, foi suspensa pelos tribunais – um resgate bem-vindo para uma empresa agora em desgraça, designada como “esquerda radical woke” pelo presidente dos EUA.
Acerto de contas e clientelismo mesquinho
Enquanto isso, a concorrência esfregava as mãos. Com cinismo calculado, a OpenAI e o Google publicaram um amicus curiae no início do processo judicial, um parecer externo destinado a esclarecer o juiz: nele, defendem seu rival e afirmam a legitimidade das preocupações levantadas pela Anthropic. Ao mesmo tempo, a OpenAI negociava um contrato para assumir o lugar da Anthropic enquanto ainda estava quente; e embora afirme ter reafirmado as duas linhas vermelhas da Anthropic e ter feito com que fossem aceitas pelo governo dos EUA, o acordo efetivamente alcançado parece bastante flexível. Em uma mensagem interna aos seus funcionários, o CEO da Anthropic, Dario Amodei, acusa o CEO da OpenAI, Sam Altman (que também é seu ex-chefe), de ter se envolvido em uma encenação pura e simples para esconder seu oportunismo. Pouco depois, o sinistro Elon Musk entrou no jogo com sua empresa XAI, que concluiu outro acordo com o Pentágono cujos termos, desta vez, claramente não contêm mais nenhuma restrição.
A Anthropic é, portanto, uma empresa da “esquerda radical woke”, comprometida em resistir ao fascismo trumpista? As chances são mínimas. Em todos os espaços onde lhe é entregue um microfone, Dario Amodei reafirma seu compromisso com a “segurança nacional” e se preocupa com a possibilidade de o exército dos EUA perder eficiência por causa desse caso (imagine se, por vários dias, ele não pudesse bombardear nenhuma escola). Seus escrúpulos em relação à vigilância em massa parecem dizer respeito apenas aos cidadãos americanos; e no que diz respeito às armas totalmente autônomas, seu único argumento é que a IA ainda não é confiável o suficiente, sugerindo claramente que poderia se tornar assim amanhã. Na realidade, estabelecer limites a esses usos perigosos é, acima de tudo, uma forma de se proteger de possíveis escândalos, que poderiam fazer a cotação da Anthropic despencar, em um mercado de IA que ainda é muito especulativo.
Do ponto de vista do governo Trump, essa operação visa principalmente recompensar a lealdade e punir a deslealdade. Conhecemos a relação, por vezes tempestuosa, mas sempre muito real, entre Elon Musk e Donald Trump. O que é menos conhecido é que Sam Altman, CEO da OpenAI, também estava entre os doadores do republicano; e a Anthropic, por sua vez, cometeu o erro de apoiar Kamala Harris. Na mensagem interna já citada, o próprio Dario Amodei afirmou que essa foi a principal razão pela qual o Pentágono se mostrou tão inflexível nas negociações – dando a entender que ele próprio estaria disposto a fazer muitas concessões.
O assunto é, no entanto, sério e merece ser abordado pelo nosso campo social, sem deixar que os Trumps e os Amodeis definam os termos do debate. A ascensão da IA abre novas possibilidades para a vigilância em massa, que a extrema direita já transformou em dogma. A Palantir, antiga parceira da Anthropic em colaborações com o Pentágono, também se destacou nos últimos meses pela ajuda prestada ao ICE, a polícia de imigração dos EUA: seu software foi usado para identificar e rastrear migrantes, com as consequências que conhecemos. A Anistia Internacional também demonstrou que as IAs da Palantir foram utilizadas para identificar líderes do movimento de solidariedade à Palestina.
No amicus curiae da OpenAI e do Google, as duas multinacionais explicam que suas tecnologias têm o potencial de transformar completamente o tipo de vigilância que um Estado pode implementar: “Em 2018, havia cerca de 70 milhões de câmeras de vigilância em uso nos Estados Unidos, espalhadas por aeroportos, estações de metrô, estacionamentos, em frente a lojas e nas esquinas. Cada smartphone transmite continuamente dados de localização para operadoras e dezenas de aplicativos. Cartões de crédito e débito geram um histórico com data e hora de quase todas as transações comerciais realizadas pelos americanos. […] O que ainda não existe é a camada de IA que transforma esse panorama de dados disperso e fragmentado em um aparato de vigilância unificado e em tempo real.” Como os ativistas da mudança social vão lidar com isso?
Opor-se à implantação dessas ferramentas é, obviamente, o começo da resposta. Na União Europeia, a Lei de IA adotada em março de 2024 já proíbe os Estados de usar algumas das formas mais sórdidas de IA, como o reconhecimento facial em tempo real ou softwares que alegam prever a probabilidade de um indivíduo cometer crimes – duas salvaguardas que não existem nos Estados Unidos. Mas, embora essas disposições sejam conquistas a serem defendidas, seus limites são óbvios: na verdade, não há como garantir que, no sigilo dos serviços de inteligência, essas tecnologias nunca sejam realmente utilizadas. A Lei de IA também autoriza o uso do reconhecimento facial para casos específicos (busca por crianças desaparecidas, tráfico de pessoas, terrorismo), o que significa que a polícia dispõe dessas ferramentas – e pode, de fato, utilizá-las como quiser, desde que não o faça de maneira muito óbvia. A melhor maneira de evitar a repressão estatal impulsionada pelo reconhecimento facial continua sendo não ter câmeras nas ruas. E este é, sem dúvida, o raciocínio que agora terá de ser aplicado para combater esse “aparato de vigilância unificado” que assusta até mesmo o Google e a OpenAI: lutar passo a passo contra todas as alavancas que os Estados – ou as empresas – têm à sua disposição para coletar dados, desde restrições às mensagens criptografadas até a sistematização dos pagamentos com cartão.
Um tratado internacional contra robôs assassinos?
No que diz respeito a armamentos, este não é um bom momento para receber com entusiasmo as inovações neste setor. Nesta fase, armas totalmente autônomas, pilotadas por IA, ainda parecem ser usadas apenas em casos muito específicos, geralmente defensivos e sem vítimas humanas (a interceptação de um míssil, por exemplo). No entanto, o caso da Anthropic mostra que robôs assassinos não são mais ficção científica.
Caracterizar a situação atual é uma tarefa difícil, pois as armas autônomas são difíceis de caracterizar. Muitas armas já implantadas, em particular os drones usados em massa na guerra na Ucrânia, possuem um nível significativo de autonomia. Oficialmente, os exércitos das grandes potências, incluindo os dos Estados Unidos, todos defendem a doutrina do “man in the loop [‘humano no circuito’, NT]”. Mas essa expressão está sujeita a interpretação: qual é o papel do ser humano em questão? Definir um alvo? Validar o alvo proposto pelo sistema? Monitorar o sistema e retomar o controle caso ele cometa erros? Ativar o sistema e deixá-lo entrar em combate sem um alvo específico? E, é claro, afirmações dessa natureza nem sempre são verificáveis na prática. Em 2021, um relatório da ONU constatou que um drone turco na Líbia havia aberto fogo de forma totalmente autônoma.
Esses avanços suscitam preocupações em vários níveis. O primeiro nível é principalmente uma fantasia: a de máquinas com vontade própria, fora do controle de seus criadores. Alimentada abundantemente pela ficção científica, mas também por escolhas lexicais ambíguas (“robôs assassinos” ou mesmo o termo “autônomo”), essa figura apocalíptica permite desviar o debate e tranquilizar as populações a baixo custo – como disse o ministro das Forças Armadas da França: “O Exterminador do Futuro não desfilará na Champs-Élysées”. Nenhum exército, na realidade, tem interesse em desenvolver um sistema de armas que estabeleça seus próprios objetivos independentemente das estratégias e táticas do Estado: a autonomia em questão consiste sempre em seguir um programa escrito de antemão, com objetivos bem definidos, ao mesmo tempo em que introduz um certo grau de adaptabilidade às condições em mudança.
A linha vermelha mais comumente aceita é a capacidade de um sistema de armas escolher um alvo por conta própria – é para isso que a Anthropic se recusa a contribuir, com um argumento técnico: as IAs atuais não são (ainda) capazes de fazer tal escolha de forma confiável. Claramente, o risco de matar civis por engano é muito grande. Esse é um segundo nível de preocupação, amplamente legítimo; afinal, é por essa razão que as minas antipessoais, que podem ser consideradas uma primeira forma de arma autônoma, foram proibidas por um tratado internacional em 1997 (assinado por 161 Estados, mas não pelos Estados Unidos, pela Rússia ou pela China). Mas argumentos desse tipo também podem representar uma armadilha, pois abrem caminho para a implantação dessas tecnologias assim que elas se tornarem eficientes o suficiente para cometer tantos ou menos erros quanto soldados humanos, o que bem pode ser possível amanhã.
Nossa rejeição a esses sistemas deve mobilizar um terceiro nível: a automação da guerra, seja por meio de armas autônomas ou das aplicações da IA à inteligência, simplesmente confere poder excessivo aos Estados. A transição, no final do século XX, de exércitos de recrutas para exércitos profissionais, já foi um passo gigantesco em direção à concentração do poder de matar: enquanto os primeiros, profundamente ligados à população, eram frequentemente palco de protestos e motins que às vezes eram difíceis de conter, os segundos tornaram-se muito mais disciplinados – e muito mais capazes de cometer atrocidades sem pestanejar. Longe do imaginário do robô que se volta contra seu criador, as IAs militares são perigosas justamente porque são o soldado disciplinado por excelência. Acrescente-se a isso o fato de que o desenvolvimento dessas tecnologias em todo o seu potencial, o que requer recursos gigantescos, provavelmente só estará acessível a algumas grandes potências: temos um mundo em que elas poderão tomar a decisão de se envolver em conflitos totalmente assimétricos, devastando países com muito poucas perdas humanas.
A humanidade já possui tratados internacionais que limitam o uso de armas nucleares, químicas e bacteriológicas. Eles são amplamente insuficientes, e o horizonte deve continuar sendo o desmantelamento total dos arsenais nessas três áreas; mas têm o mérito de existir, e é razoável pensar que tenham permitido evitar alguns desastres.
Há alguns anos, a ONU iniciou negociações para um tratado semelhante sobre sistemas de armas autônomas letais, seguindo as posições assumidas por muitos países (especialmente do Sul Global), uma ampla coalizão de ONGs, grande parte da comunidade de pesquisa em IA, o Secretário-Geral da ONU e até mesmo a Igreja Católica. Elas não deram em nada. E a lista de países que bloquearam o processo não será nenhuma surpresa: principalmente o Reino Unido, a Austrália, a Índia, os Estados Unidos, a Rússia e Israel.
Em um momento em que as potências imperialistas buscam reafirmar seu domínio com sangue e sofrimento, conter a corrida pelas tecnologias de armas mais apavorantes é uma prioridade política. E, para isso, é melhor não confiar nas multinacionais privadas.