“Lavanda”, a máquina de IA que controla os bombardeios de Israel em Gaza
O exército israelense classificou dezenas de milhares de habitantes de Gaza como alvos para assassinato usando um sistema de mira de IA com pouca supervisão humana e uma política permissiva para vítimas
Foto: Abed Rahim Khatib/Flash90
Via +972
Em 2021, um livro intitulado “The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World” foi lançado em inglês sob o pseudônimo ‘Brigadier General Y.S.’. Nele, o autor – um homem que confirmamos ser o atual comandante da unidade de elite de inteligência israelense 8200 – defende a criação de uma máquina especial que possa processar rapidamente grandes quantidades de dados para gerar milhares de “alvos” em potencial para ataques militares no calor de uma guerra. Essa tecnologia, escreve ele, resolveria o que descreveu como “gargalo humano tanto para a localização de novos alvos quanto para a tomada de decisões para aprovar os alvos”.
Essa máquina, ao que parece, existe de fato. Uma nova investigação da +972 Magazine e da Local Call revela que o exército israelense desenvolveu um programa baseado em inteligência artificial conhecido como “Lavender” (Lavanda), revelado aqui pela primeira vez. De acordo com seis oficiais da inteligência israelense, que serviram no exército durante a atual guerra na Faixa de Gaza e tiveram envolvimento em primeira mão com o uso de IA para gerar alvos para assassinato, o Lavender desempenhou um papel central no bombardeio sem precedentes de palestinos, especialmente durante os estágios iniciais da guerra. De fato, de acordo com as fontes, sua influência nas operações militares foi tamanha que eles basicamente trataram os resultados da máquina de IA “como se fosse uma decisão humana”.
Formalmente, o sistema Lavender foi projetado para marcar todos os agentes suspeitos das alas militares do Hamas e da Jihad Islâmica Palestina (PIJ), inclusive os de baixo escalão, como alvos potenciais de bombardeio. As fontes disseram ao +972 e ao Local Call que, durante as primeiras semanas da guerra, o exército dependeu quase que totalmente do Lavender, que registrou até 37.000 palestinos como supostos militantes – e suas casas – para possíveis ataques aéreos.
Durante os estágios iniciais da guerra, o exército deu ampla aprovação para que os oficiais adotassem as listas de mortes de Lavender, sem nenhuma exigência de verificar minuciosamente por que a máquina fazia essas escolhas ou de examinar os dados brutos de inteligência nos quais elas se baseavam. Uma fonte afirmou que o pessoal humano muitas vezes servia apenas como um “carimbo” para as decisões da máquina, acrescentando que, normalmente, eles dedicavam pessoalmente apenas cerca de “20 segundos” a cada alvo antes de autorizar um bombardeio – apenas para garantir que o alvo marcado por Lavender fosse do sexo masculino. Isso apesar de saberem que o sistema comete o que é considerado um “erro” em aproximadamente 10% dos casos e é conhecido por ocasionalmente marcar indivíduos que têm apenas uma conexão frouxa com grupos militantes, ou nenhuma conexão.
Além disso, o exército israelense atacou sistematicamente os indivíduos visados enquanto eles estavam em suas casas – geralmente à noite, com a presença de toda a família – em vez de durante a atividade militar. De acordo com as fontes, isso acontecia porque, do ponto de vista da inteligência, era mais fácil localizar os indivíduos em suas casas particulares. Outros sistemas automatizados, incluindo um chamado “Where’s Daddy?” (Onde está o papai?), também revelado aqui pela primeira vez, foram usados especificamente para rastrear os indivíduos visados e executar os bombardeios quando eles entravam nas residências de suas famílias.
O resultado, conforme testemunharam as fontes, é que milhares de palestinos – a maioria mulheres e crianças ou pessoas que não estavam envolvidas nos combates – foram eliminados por ataques aéreos israelenses, especialmente durante as primeiras semanas da guerra, devido às decisões do programa de IA.
“Não estávamos interessados em matar agentes [do Hamas] somente quando eles estavam em um prédio militar ou envolvidos em uma atividade militar”, disse A., um oficial de inteligência, ao +972 e ao Local Call. “Pelo contrário, a IDF os bombardeou em suas casas sem hesitação, como primeira opção. É muito mais fácil bombardear a casa de uma família. O sistema foi criado para procurá-los nessas situações.”
A máquina Lavender se junta a outro sistema de IA, “The Gospel” (O Evangelho), sobre o qual foram reveladas informações em uma investigação anterior da +972 e da Local Call em novembro de 2023, bem como nas próprias publicações dos militares israelenses. Uma diferença fundamental entre os dois sistemas está na definição do alvo: enquanto o The Gospel marca prédios e estruturas de onde o exército alega que os militantes operam, o Lavender marca pessoas – e as coloca em uma lista de alvos.
Além disso, de acordo com as fontes, quando se tratava de alvejar supostos militantes iniciantes marcados por Lavender, o exército preferia usar apenas mísseis não guiados, comumente conhecidos como bombas “burras” (em contraste com as bombas de precisão “inteligentes”), que podem destruir prédios inteiros em cima de seus ocupantes e causar baixas significativas. “Você não quer desperdiçar bombas caras em pessoas sem importância – é muito caro para o país e há uma escassez [dessas bombas]”, disse C., um dos oficiais de inteligência. Outra fonte disse que eles haviam autorizado pessoalmente o bombardeio de “centenas” de residências particulares de supostos agentes menores marcados por Lavender, sendo que muitos desses ataques mataram civis e famílias inteiras como “dano colateral”.
Em uma ação sem precedentes, de acordo com duas das fontes, o exército também decidiu durante as primeiras semanas da guerra que, para cada agente júnior do Hamas marcado por Lavender, era permitido matar até 15 ou 20 civis; no passado, os militares não autorizavam nenhum “dano colateral” durante os assassinatos de militantes de baixo escalão. As fontes acrescentaram que, no caso de o alvo ser um oficial sênior do Hamas com a patente de comandante de batalhão ou brigada, o exército autorizou, em várias ocasiões, a morte de mais de 100 civis no assassinato de um único comandante.
A investigação a seguir está organizada de acordo com os seis estágios cronológicos da produção altamente automatizada de alvos do exército israelense nas primeiras semanas da guerra de Gaza. Primeiro, explicamos a própria máquina Lavender, que marcou dezenas de milhares de palestinos usando IA. Em segundo lugar, revelamos o sistema “Where’s Daddy?”, que rastreava esses alvos e sinalizava para o exército quando eles entravam nas casas de suas famílias. Em terceiro lugar, descrevemos como as bombas “burras” foram escolhidas para atingir essas casas.
Em quarto lugar, explicamos como o exército diminuiu o número permitido de civis que poderiam ser mortos durante o bombardeio de um alvo. Em quinto lugar, observamos como o software automatizado calculou de forma imprecisa a quantidade de não combatentes em cada residência. E, em sexto lugar, mostramos como, em várias ocasiões, quando uma casa era atingida, geralmente à noite, o alvo individual às vezes nem estava dentro dela, porque os oficiais militares não verificavam as informações em tempo real.
ETAPA 1: GERANDO ALVOS
“Quando você passa para o automático, a geração de alvos enlouquece”
No exército israelense, o termo “alvo humano” se referia no passado a um agente militar sênior que, de acordo com as regras do Departamento de Direito Internacional do exército, pode ser morto em sua residência particular, mesmo que haja civis por perto. Fontes da inteligência disseram ao +972 e ao Local Call que, durante as guerras anteriores de Israel, como essa era uma maneira “especialmente brutal” de matar alguém – muitas vezes matando uma família inteira ao lado do alvo – esses alvos humanos eram marcados com muito cuidado e apenas comandantes militares de alto escalão eram bombardeados em suas casas, para manter o princípio da proporcionalidade de acordo com o direito internacional.
Mas depois de 7 de outubro – quando militantes liderados pelo Hamas lançaram um ataque mortal contra as comunidades do sul de Israel, matando cerca de 1.200 pessoas e sequestrando 240 – o exército, segundo as fontes, adotou uma abordagem radicalmente diferente. Na “Operação Espadas de Ferro”, o exército decidiu designar todos os agentes da ala militar do Hamas como alvos humanos, independentemente de sua posição ou importância militar. E isso mudou tudo.
A nova política também representou um problema técnico para a inteligência israelense. Em guerras anteriores, para autorizar o assassinato de um único alvo humano, um oficial tinha que passar por um complexo e demorado processo de “incriminação”: verificar as evidências de que a pessoa era de fato um membro sênior da ala militar do Hamas, descobrir onde ele morava, suas informações de contato e, finalmente, saber quando ele estava em casa em tempo real. Quando a lista de alvos era composta por apenas algumas dezenas de agentes de alto escalão, a equipe de inteligência podia lidar individualmente com o trabalho envolvido na incriminação e localização deles.
No entanto, quando a lista foi ampliada para incluir dezenas de milhares de agentes de baixo escalão, o exército israelense achou que tinha que contar com software automatizado e inteligência artificial. O resultado, segundo as fontes, foi que o papel do pessoal humano em incriminar os palestinos como agentes militares foi deixado de lado, e a IA fez a maior parte do trabalho. De acordo com quatro das fontes que falaram com o +972 e o Local Call, o Lavender – que foi desenvolvido para criar alvos humanos na guerra atual – marcou cerca de 37.000 palestinos como suspeitos de serem “militantes do Hamas”, a maioria deles juniores, para serem assassinados (o porta-voz da IDF negou a existência de tal lista de mortes em uma declaração ao +972 e ao Local Call).
“Não sabíamos quem eram os agentes menores, porque Israel não os rastreava rotineiramente [antes da guerra]”, explicou o oficial sênior B. ao +972 e ao Local Call, esclarecendo o motivo por trás do desenvolvimento dessa máquina de alvos específica para a guerra atual. “Eles queriam nos permitir atacar [os agentes menores] automaticamente. Esse é o Santo Graal. Quando você passa a ser automático, a geração de alvos enlouquece.”
As fontes disseram que a aprovação para adotar automaticamente as listas de mortes do Lavender, que antes eram usadas apenas como uma ferramenta auxiliar, foi concedida cerca de duas semanas após o início da guerra, depois que o pessoal da inteligência verificou “manualmente” a precisão de uma amostra aleatória de várias centenas de alvos selecionados pelo sistema de IA. Quando essa amostra constatou que os resultados do Lavender haviam atingido 90% de precisão na identificação da afiliação de um indivíduo ao Hamas, o exército autorizou o uso generalizado do sistema. A partir desse momento, as fontes disseram que se o Lavender decidisse que um indivíduo era um militante do Hamas, eles eram essencialmente solicitados a tratar isso como uma ordem, sem nenhuma exigência de verificar independentemente por que a máquina fez essa escolha ou de examinar os dados brutos de inteligência nos quais ela se baseia.
Às 5h da manhã, [a força aérea] chegava e bombardeava todas as casas que havíamos marcado”, disse B.. “Eliminamos milhares de pessoas. Não as examinamos uma a uma – colocamos tudo em sistemas automatizados e, assim que um dos [indivíduos marcados] estava em casa, ele imediatamente se tornava um alvo. Nós o bombardeamos e a sua casa.
Foi muito surpreendente para mim que nos pedissem para bombardear uma casa para matar um soldado terrestre, cuja importância na luta era tão baixa”, disse uma fonte sobre o uso da IA para marcar supostos militantes de baixa patente. “Apelidei esses alvos de ‘alvos de lixo’. Ainda assim, eu os considerava mais éticos do que os alvos que bombardeávamos apenas para ‘dissuasão’ – arranha-céus que eram evacuados e derrubados apenas para causar destruição.
Os resultados mortais desse afrouxamento das restrições no estágio inicial da guerra foram surpreendentes. De acordo com os dados do Ministério da Saúde palestino em Gaza, nos quais o exército israelense se baseou quase que exclusivamente desde o início da guerra, Israel matou cerca de 15.000 palestinos – quase metade do número de mortos até agora – nas primeiras seis semanas da guerra, até o acordo de cessar-fogo de uma semana em 24 de novembro.
‘Quanto mais informações e variedade, melhor’
O software Lavender analisa as informações coletadas sobre a maioria dos 2,3 milhões de residentes da Faixa de Gaza por meio de um sistema de vigilância em massa e, em seguida, avalia e classifica a probabilidade de cada pessoa em particular ser ativa na ala militar do Hamas ou do PIJ. De acordo com fontes, a máquina atribui a quase todas as pessoas em Gaza uma classificação de 1 a 100, expressando a probabilidade de serem militantes.
O Lavender aprende a identificar as características de agentes conhecidos do Hamas e do PIJ, cujas informações foram fornecidas à máquina como dados de treinamento e, em seguida, a localizar essas mesmas características – também chamadas de “recursos” – entre a população em geral, explicaram as fontes. Um indivíduo que tenha várias características incriminatórias diferentes atingirá uma classificação alta e, portanto, se tornará automaticamente um alvo em potencial para assassinato.
Em “The Human-Machine Team”, o livro mencionado no início deste artigo, o atual comandante da Unidade 8200 defende esse sistema sem mencionar Lavender pelo nome. (O próprio comandante também não é citado, mas cinco fontes da 8200 confirmaram que o comandante é o autor, conforme relatado também pelo Haaretz). Ao descrever o pessoal humano como um “gargalo” que limita a capacidade do exército durante uma operação militar, o comandante lamenta: “Nós [humanos] não conseguimos processar tantas informações. Não importa quantas pessoas você tenha encarregado de produzir alvos durante a guerra – você ainda não consegue produzir alvos suficientes por dia.”
A solução para esse problema, segundo ele, é a inteligência artificial. O livro oferece um breve guia para a criação de uma “máquina de alvos”, cuja descrição é semelhante à do Lavender, com base em algoritmos de IA e de aprendizado de máquina. Incluídos nesse guia estão vários exemplos das “centenas e milhares” de recursos que podem aumentar a classificação de um indivíduo, como estar em um grupo do Whatsapp com um militante conhecido, mudar de celular a cada poucos meses e mudar de endereço com frequência.
“Quanto mais informações, e quanto mais variedade, melhor”, escreve o comandante. “Informações visuais, informações de celular, conexões de mídia social, informações do campo de batalha, contatos telefônicos, fotos.” Embora os seres humanos selecionem esses recursos no início, continua o comandante, com o tempo a máquina passará a identificar os recursos por conta própria.
Isso, segundo ele, pode permitir que os militares criem “dezenas de milhares de alvos”, enquanto a decisão real de atacá-los ou não continuará sendo humana. O livro não é a única vez que um comandante israelense sênior insinua a existência de máquinas de alvos humanos como o Lavender.O +972 e o Local Call obtiveram imagens de uma palestra particular dada pelo comandante do centro secreto de ciência de dados e IA da Unidade 8200, “Coronel Yoav”, na semana de IA da Universidade de Tel Aviv em 2023, que foi relatada na época pela mídia israelense.
Na palestra, o comandante fala sobre uma nova e sofisticada máquina de alvos usada pelo exército israelense que detecta “pessoas perigosas” com base em sua semelhança com as listas existentes de militantes conhecidos, com base nas quais foi treinada. “Usando o sistema, conseguimos identificar os comandantes do esquadrão de mísseis do Hamas”, disse o “coronel Yoav” na palestra, referindo-se à operação militar de Israel em maio de 2021 em Gaza, quando a máquina foi usada pela primeira vez.
Os slides da apresentação da palestra, também obtidos por +972 e Local Call, contêm ilustrações de como a máquina funciona: ela recebe dados sobre os agentes existentes do Hamas, aprende a perceber suas características e, em seguida, classifica outros palestinos com base em sua semelhança com os militantes.
Classificamos os resultados e determinamos o limite [no qual atacar um alvo]”, disse o ‘coronel Yoav’ na palestra, enfatizando que ‘eventualmente, pessoas de carne e osso tomam as decisões’. No âmbito da defesa, eticamente falando, damos muita ênfase a isso. Essas ferramentas têm o objetivo de ajudar [os oficiais de inteligência] a romper suas barreiras”.
Na prática, entretanto, as fontes que usaram o Lavender nos últimos meses dizem que o controle humano e a precisão foram substituídos pela criação de alvos em massa e pela letalidade.
“Não havia uma política de ‘erro zero'”
B., um oficial sênior que usou o Lavender, disse ao +972 e ao Local Call que, na guerra atual, os oficiais não precisavam revisar independentemente as avaliações do sistema de IA para economizar tempo e permitir a produção em massa de alvos humanos sem obstáculos.
“Tudo era estatístico, tudo era organizado – era muito seco”, disse B.. Ele observou que essa falta de supervisão foi permitida apesar das verificações internas que mostravam que os cálculos do Lavender eram considerados precisos em apenas 90% das vezes; em outras palavras, sabia-se de antemão que 10% dos alvos humanos marcados para serem assassinados não eram membros da ala militar do Hamas.
Por exemplo, as fontes explicaram que a máquina Lavender às vezes sinalizava erroneamente indivíduos que tinham padrões de comunicação semelhantes aos de agentes conhecidos do Hamas ou do PIJ – incluindo funcionários da polícia e da defesa civil, parentes de militantes, moradores que tinham um nome e um apelido idênticos aos de um agente e moradores de Gaza que usavam um dispositivo que pertenceu a um agente do Hamas.
Quão próxima uma pessoa precisa estar do Hamas para ser [considerada por uma máquina de IA como] afiliada à organização?”, disse uma fonte que criticou a imprecisão do Lavender. “É um limite vago. Uma pessoa que não recebe salário do Hamas, mas o ajuda em todo tipo de coisa, é um agente do Hamas? Uma pessoa que pertenceu ao Hamas no passado, mas que não está mais lá hoje, é um agente do Hamas? Cada uma dessas características – características que uma máquina sinalizaria como suspeitas – é imprecisa.
Existem problemas semelhantes com a capacidade das máquinas de alvo de avaliar o telefone usado por uma pessoa marcada para ser assassinada. “Na guerra, os palestinos trocam de telefone o tempo todo”, disse a fonte.
“As pessoas perdem o contato com suas famílias, dão o telefone a um amigo ou a uma esposa e talvez o percam. Não há como confiar 100% no mecanismo automático que determina qual número [de telefone] pertence a quem.”
De acordo com as fontes, o exército sabia que a supervisão humana mínima existente não descobriria essas falhas. “Não havia uma política de “erro zero”. Os erros eram tratados estatisticamente”, disse uma fonte que usou o Lavender. “Devido ao escopo e à magnitude, o protocolo era que, mesmo que você não tivesse certeza de que a máquina estava certa, você sabia que, estatisticamente, ela estava boa. Então, você opta por ela.”
“Ela se comprovou”, disse B., a fonte sênior.
Há algo na abordagem estatística que define uma determinada norma e padrão. Houve uma quantidade ilógica de [atentados a bomba] nessa operação. Isso não tem paralelo, em minha memória. E confio muito mais em um mecanismo estatístico do que em um soldado que perdeu um amigo há dois dias. Todos ali, inclusive eu, perderam pessoas em 7 de outubro. A máquina fez isso de forma fria. E isso tornou tudo mais fácil.
Outra fonte de inteligência, que defendeu a confiança nas listas de mortes de suspeitos palestinos geradas por Lavender, argumentou que valia a pena investir o tempo de um oficial de inteligência apenas para verificar as informações se o alvo fosse um comandante sênior do Hamas. “Mas quando se trata de um militante menor, você não quer investir mão de obra e tempo nisso”, disse ele.“Na guerra, não há tempo para incriminar todos os alvos. Portanto, você está disposto a assumir a margem de erro do uso da inteligência artificial, arriscando danos colaterais e a morte de civis, arriscando atacar por engano, e a viver com isso.”
B. disse que a razão para essa automação era um impulso constante para gerar mais alvos para assassinato.“Em um dia sem alvos [cuja classificação de características fosse suficiente para autorizar um ataque], atacávamos com um limite mais baixo. Estávamos sendo constantemente pressionados: ‘Traga-nos mais alvos’. Eles realmente gritavam conosco. Terminamos [de matar] nossos alvos muito rapidamente”. Ele explicou que, ao reduzir o limite de classificação do Lavender, ele marcava mais pessoas como alvos para ataques. “Em seu auge, o sistema conseguiu gerar 37.000 pessoas como alvos humanos em potencial”, disse B.
Mas os números mudavam o tempo todo, porque depende de onde você define o que é um agente do Hamas. Houve momentos em que um agente do Hamas foi definido de forma mais ampla, e então a máquina começou a nos trazer todos os tipos de pessoal da defesa civil, policiais, nos quais seria uma pena desperdiçar bombas. Eles ajudam o governo do Hamas, mas não colocam os soldados em perigo.
Uma fonte que trabalhou com a equipe de ciência de dados militares que treinou Lavender disse que os dados coletados de funcionários do Ministério de Segurança Interna do Hamas, que ele não considera militantes, também foram inseridos na máquina. “Fiquei incomodado com o fato de que, quando Lavender foi treinado, eles usaram o termo ‘agente do Hamas’ de forma vaga e incluíram pessoas que eram funcionários da defesa civil no conjunto de dados do treinamento”, disse ele.
A fonte acrescentou que, mesmo que se acredite que essas pessoas mereçam ser mortas, o treinamento do sistema com base em seus perfis de comunicação aumentou a probabilidade de o Lavender selecionar civis por engano quando seus algoritmos foram aplicados à população em geral.
Como se trata de um sistema automático que não é operado manualmente por humanos, o significado dessa decisão é dramático: significa que você está incluindo muitas pessoas com perfil de comunicação civil como alvos potenciais.
Nós só verificamos se o alvo era um homem“
O exército israelense rejeita categoricamente essas alegações. Em uma declaração para +972 e Local Call, o porta-voz da IDF negou o uso de inteligência artificial para incriminar alvos, dizendo que essas são apenas “ferramentas auxiliares que ajudam os oficiais no processo de incriminação”. A declaração continuou: “Em qualquer caso, é necessário um exame independente por um analista [de inteligência], que verifica se os alvos identificados são alvos legítimos para ataque, de acordo com as condições estabelecidas nas diretrizes da IDF e no direito internacional”.
No entanto, fontes disseram que o único protocolo de supervisão humana em vigor antes de bombardear as casas de militantes suspeitos de serem “juniores” marcados pelo Lavender era realizar uma única verificação: garantir que o alvo selecionado pela IA fosse homem e não mulher.
O pressuposto do exército era que, se o alvo fosse uma mulher, a máquina provavelmente teria cometido um erro, porque não há mulheres nas fileiras das alas militares do Hamas e do PIJ.
“Um ser humano tinha que [verificar o alvo] por apenas alguns segundos”, disse B., explicando que isso se tornou o protocolo depois de perceber que o sistema Lavender estava “acertando” na maioria das vezes.“ No início, fazíamos verificações para garantir que a máquina não se confundisse. Mas, em algum momento, confiamos no sistema automático e só verificamos se [o alvo] era um homem – isso foi suficiente. Não é preciso muito tempo para saber se alguém tem uma voz masculina ou feminina.”
Para realizar a verificação de masculino/feminino, B. afirmou que, na guerra atual, “eu investiria 20 segundos para cada alvo nesse estágio, e faria dezenas deles todos os dias. Eu não tinha nenhum valor agregado como ser humano, além de ser um selo de aprovação. Isso economizava muito tempo. Se [o agente] aparecesse no mecanismo automatizado e eu verificasse que ele era um homem, haveria permissão para bombardeá-lo, sujeito a um exame de danos colaterais.”
Na prática, as fontes disseram que isso significava que, para os homens civis marcados por engano pela Lavender, não havia nenhum mecanismo de supervisão para detectar o erro. De acordo com B., um erro comum ocorria “se o alvo [do Hamas] desse [seu telefone] ao filho, ao irmão mais velho ou a um homem qualquer. Essa pessoa será bombardeada em sua casa com sua família. Isso acontecia com frequência. Esses foram a maioria dos erros causados pela Lavender”, disse B..
ETAPA 2: VINCULANDO ALVOS ÀS CASAS DAS FAMÍLIAS
“A maioria das pessoas que vocês mataram eram mulheres e crianças”
A próxima etapa do procedimento de assassinato do exército israelense é identificar onde atacar os alvos gerados por Lavender.
Em uma declaração ao +972 e ao Local Call, o porta-voz da IDF afirmou, em resposta a esse artigo, que “o Hamas coloca seus agentes e recursos militares no coração da população civil, usa sistematicamente a população civil como escudos humanos e conduz os combates de dentro de estruturas civis, incluindo locais sensíveis como hospitais, mesquitas, escolas e instalações da ONU. As IDF são obrigadas e agem de acordo com o direito internacional, direcionando seus ataques somente a alvos militares e agentes militares.”
As seis fontes com as quais conversamos concordaram com isso até certo ponto, dizendo que o extenso sistema de túneis do Hamas passa deliberadamente por baixo de hospitais e escolas; que os militantes do Hamas usam ambulâncias para se locomover; e que inúmeros recursos militares foram colocados perto de edifícios civis. As fontes argumentaram que muitos ataques israelenses matam civis como resultado dessas táticas do Hamas – uma caracterização que os grupos de direitos humanos advertem que evita o ônus de Israel por infligir as baixas.
No entanto, em contraste com as declarações oficiais do exército israelense, as fontes explicaram que um dos principais motivos para o número sem precedentes de mortes do atual bombardeio israelense é o fato de o exército ter sistematicamente atacado alvos em suas casas particulares, ao lado de suas famílias – em parte porque era mais fácil, do ponto de vista da inteligência, marcar casas de família usando sistemas automatizados.
Na verdade, várias fontes enfatizaram que, ao contrário dos inúmeros casos de agentes do Hamas envolvidos em atividades militares em áreas civis, no caso de ataques sistemáticos de assassinato, o exército rotineiramente fazia a escolha ativa de bombardear supostos militantes dentro de residências civis nas quais não havia atividade militar. Essa escolha, segundo eles, foi um reflexo da forma como o sistema de vigilância em massa de Israel em Gaza foi projetado.
As fontes disseram ao +972 e à Local Call que, como todos em Gaza têm uma casa particular à qual podem ser associados, os sistemas de vigilância do exército podem “vincular” fácil e automaticamente os indivíduos às casas das famílias.
Para identificar o momento em que os agentes entram em suas casas em tempo real, foram desenvolvidos vários softwares automáticos adicionais. Esses programas rastreiam milhares de indivíduos simultaneamente, identificam quando eles estão em casa e enviam um alerta automático para o oficial de alvos, que então marca a casa para o bombardeio. Um dos vários softwares de rastreamento, revelado aqui pela primeira vez, chama-se “Where’s Daddy?”.
Você coloca centenas [de alvos] no sistema e espera para ver quem você consegue matar”, disse uma fonte com conhecimento do sistema.“Isso é chamado de caça ampla: você copia e cola das listas que o sistema de alvos produz.
As evidências dessa política também estão claras nos dados: durante o primeiro mês da guerra, mais da metade das mortes – 6.120 pessoas – pertencia a 1.340 famílias, muitas das quais foram completamente dizimadas dentro de suas casas, de acordo com os números da ONU. A proporção de famílias inteiras bombardeadas em suas casas na guerra atual é muito maior do que na operação israelense de 2014 em Gaza (que foi a guerra mais mortal de Israel na Faixa), o que sugere ainda mais a importância dessa política.
Outra fonte disse que cada vez que o ritmo dos assassinatos diminuía, mais alvos eram adicionados a sistemas como o Where’s Daddy? para localizar indivíduos que entravam em suas casas e que, portanto, poderiam ser bombardeados. Ele disse que a decisão de quem colocar nos sistemas de rastreamento poderia ser tomada por oficiais de patente relativamente baixa na hierarquia militar.
Um dia, por vontade própria, acrescentei algo como 1.200 novos alvos ao sistema [de rastreamento], porque o número de ataques [que estávamos realizando] diminuiu”, disse a fonte.“Isso fez sentido para mim. Em retrospecto, parece que tomei uma decisão séria. E essas decisões não eram tomadas em níveis elevados.
As fontes disseram que, nas duas primeiras semanas da guerra, “vários milhares” de alvos foram inicialmente inseridos em programas de localização como o Where’s Daddy? Entre eles estavam todos os membros da unidade de elite das forças especiais do Hamas, a Nukhba, todos os agentes antitanque do Hamas e qualquer pessoa que tivesse entrado em Israel em 7 de outubro. Mas, em pouco tempo, a lista de mortos foi drasticamente ampliada.
“No final, eram todos [marcados por Lavender]”, explicou uma fonte.
Dezenas de milhares. Isso aconteceu algumas semanas depois, quando as brigadas [israelenses] entraram em Gaza, e já havia menos pessoas não envolvidas [ou seja, civis] nas áreas do norte.” De acordo com essa fonte, até mesmo alguns menores de idade foram marcados por Lavender como alvos de bombardeio. “Normalmente, os agentes têm mais de 17 anos de idade, mas essa não era uma condição.
Lavender e sistemas como Where’s Daddy? foram assim combinados com efeito mortal, matando famílias inteiras, disseram as fontes. Ao adicionar um nome das listas geradas pelo Lavender ao sistema de rastreamento doméstico Where’s Daddy?, explicou A., a pessoa marcada seria colocada sob vigilância contínua e poderia ser atacada assim que colocasse os pés em sua casa, derrubando todos que estivessem dentro dela.
Digamos que você calcule [que haja] um [agente] do Hamas mais 10 [civis na casa]. Normalmente, esses 10 são mulheres e crianças.Então, absurdamente, acontece que a maioria das pessoas que você matou eram mulheres e crianças.
ETAPA 3: ESCOLHENDO UMA ARMA
“Geralmente realizávamos os ataques com ‘bombas burras'”
Depois que Lavender marca um alvo para ser assassinado, o pessoal do exército verifica se ele é do sexo masculino e o software de rastreamento localiza o alvo em sua casa, a próxima etapa é escolher a munição para bombardeá-lo.
Em dezembro de 2023, a CNN informou que, de acordo com estimativas da inteligência dos EUA, cerca de 45% das munições usadas pela força aérea israelense em Gaza eram bombas “burras”, que são conhecidas por causar mais danos colaterais do que as bombas guiadas.Em resposta à reportagem da CNN, um porta-voz do exército citado no artigo disse:
Como um exército comprometido com a lei internacional e com um código moral de conduta, estamos dedicando vastos recursos para minimizar os danos aos civis que o Hamas forçou a fazer o papel de escudos humanos. Nossa guerra é contra o Hamas, não contra o povo de Gaza.
Três fontes da inteligência, no entanto, disseram ao +972 e ao Local Call que os agentes juniores marcados por Lavender foram assassinados apenas com bombas burras, com o objetivo de economizar armamentos mais caros.
A implicação, explicou uma fonte, era que o exército não atacaria um alvo subalterno se ele morasse em um prédio alto, porque o exército não queria gastar uma “bomba de chão” mais precisa e cara (com efeito colateral mais limitado) para matá-lo. Mas se um alvo júnior morasse em um prédio com apenas alguns andares, o exército estava autorizado a matá-lo e a todos no prédio com uma bomba burra.
“Foi assim com todos os alvos juniores”, testemunhou C., que usou vários programas automatizados na guerra atual. “A única pergunta era: é possível atacar o prédio em termos de danos colaterais? Porque geralmente realizávamos os ataques com bombas burras, e isso significava literalmente destruir a casa inteira em cima de seus ocupantes. Mas mesmo que um ataque seja evitado, você não se importa – você passa imediatamente para o próximo alvo. Por causa do sistema, os alvos nunca acabam. Você tem outros 36.000 esperando”.
ETAPA 4: AUTORIZAÇÃO DE BAIXAS CIVIS
“Atacamos quase sem considerar os danos colaterais”
Uma fonte disse que, ao atacar agentes menores, inclusive aqueles marcados por sistemas de IA como o Lavender, o número de civis que eles podiam matar ao lado de cada alvo foi fixado durante as primeiras semanas da guerra em até 20. Outra fonte afirmou que o número fixo era de até 15. Esses “graus de dano colateral”, como os militares os chamam, foram aplicados de forma ampla a todos os militantes juniores suspeitos, disseram as fontes, independentemente de sua patente, importância militar e idade, e sem nenhum exame específico caso a caso para pesar a vantagem militar de assassiná-los em relação ao dano esperado aos civis.
De acordo com A., que foi oficial em uma sala de operações de alvos na guerra atual, o departamento de direito internacional do exército nunca antes havia dado uma “aprovação tão ampla” para um grau tão alto de dano colateral. “Não se trata apenas do fato de que você pode matar qualquer pessoa que seja um soldado do Hamas, o que é claramente permitido e legítimo em termos de direito internacional”, disse A.. “Mas eles dizem diretamente a você: Você tem permissão para matá-los junto com muitos civis.”
Cada pessoa que usou um uniforme do Hamas no último ano ou dois poderia ser bombardeada com 20 [civis mortos como] danos colaterais, mesmo sem permissão especial. Na prática, o princípio da proporcionalidade não existia.
De acordo com A., essa foi a política durante a maior parte do tempo em que ele serviu. Somente mais tarde os militares reduziram o grau de dano colateral. “Nesse cálculo, também poderiam ser 20 crianças para um agente júnior… Realmente não era assim no passado”, explicou A.. Perguntado sobre a lógica de segurança por trás dessa política, A. respondeu: “Letalidade”.
O grau de dano colateral predeterminado e fixo ajudou a acelerar a criação em massa de alvos usando a máquina Lavender, disseram as fontes, porque economizou tempo. A B. alegou que o número de civis que eles tinham permissão para matar na primeira semana da guerra por militante júnior suspeito marcado pela IA era de quinze, mas que esse número “aumentava e diminuía” com o tempo.
“No início, atacamos quase sem considerar os danos colaterais”, disse B. sobre a primeira semana após 7 de outubro. “Na prática, você não contava realmente as pessoas [em cada casa bombardeada], porque não dava para saber se elas estavam em casa ou não.
Depois de uma semana, começaram as restrições aos danos colaterais. O número caiu [de 15] para cinco, o que dificultou muito nossos ataques, pois se toda a família estivesse em casa, não poderíamos bombardeá-la. Depois, eles aumentaram o número novamente”.
“Sabíamos que mataríamos mais de 100 civis”
Fontes disseram ao +972 e ao Local Call que agora, em parte devido à pressão americana, o exército israelense não está mais gerando alvos humanos juniores para bombardeio em casas de civis. O fato de que a maioria das casas na Faixa de Gaza já estava destruída ou danificada, e quase toda a população foi deslocada, também prejudicou a capacidade do exército de contar com bancos de dados de inteligência e programas automatizados de localização de casas.
E. afirmou que o bombardeio maciço de militantes juniores ocorreu somente na primeira ou segunda semana da guerra e depois foi interrompido principalmente para não desperdiçar bombas.
Há uma economia de munição. Eles sempre tiveram medo de que houvesse [uma guerra] na arena do norte [com o Hezbollah no Líbano]. Eles não atacam mais esse tipo de gente [júnior].
No entanto, os ataques aéreos contra comandantes de alto escalão do Hamas ainda estão em andamento, e as fontes disseram que, para esses ataques, os militares estão autorizando a morte de “centenas” de civis por alvo – uma política oficial para a qual não há precedente histórico em Israel, ou mesmo em operações militares recentes dos EUA.
“No bombardeio do comandante do Batalhão Shuja’iya, sabíamos que mataríamos mais de 100 civis”, lembrou B. sobre um bombardeio em 2 de dezembro que, segundo o porta-voz da IDF, tinha como objetivo assassinar Wisam Farhat. “Para mim, psicologicamente, foi incomum. Mais de 100 civis – isso ultrapassa uma linha vermelha.”
Amjad Al-Sheikh, um jovem palestino de Gaza, disse que muitos membros de sua família foram mortos nesse bombardeio. Morador de Shuja’iya, a leste da Cidade de Gaza, ele estava em um supermercado local naquele dia quando ouviu cinco explosões que quebraram as janelas de vidro.
Corri para a casa da minha família, mas não havia mais prédios lá. A rua estava cheia de gritos e fumaça. Quarteirões residenciais inteiros se transformaram em montanhas de entulho e buracos profundos. As pessoas começaram a procurar no cimento, usando as mãos, e eu também, procurando sinais da casa da minha família.
A esposa e a filha bebê de Al-Sheikh sobreviveram – protegidas dos escombros por um armário que caiu sobre elas – mas ele encontrou outros 11 membros de sua família, entre eles suas irmãs, irmãos e filhos pequenos, mortos sob os escombros. De acordo com o grupo de direitos humanos B’Tselem, o bombardeio daquele dia destruiu dezenas de edifícios, matou dezenas de pessoas e enterrou centenas sob as ruínas de suas casas.
“Famílias inteiras foram mortas”
Fontes da inteligência disseram ao +972 e ao Local Call que participaram de ataques ainda mais mortais. Para assassinar Ayman Nofal, o comandante da Brigada Central de Gaza do Hamas, uma fonte disse que o exército autorizou a morte de aproximadamente 300 civis, destruindo vários prédios em ataques aéreos no campo de refugiados de Al-Bureij em 17 de outubro, com base em uma localização imprecisa de Nofal. Imagens de satélite e vídeos do local mostram a destruição de vários prédios grandes de apartamentos de vários andares. “Entre 16 e 18 casas foram destruídas no ataque”, disse Amro Al-Khatib, um morador do campo, à +972 e à Local Call. “Não conseguíamos distinguir um apartamento do outro – todos se misturaram nos escombros e encontramos partes de corpos humanos por toda parte.”
Na sequência, Al-Khatib lembrou que cerca de 50 cadáveres foram retirados dos escombros e cerca de 200 pessoas ficaram feridas, muitas delas gravemente. Mas esse foi apenas o primeiro dia. Os residentes do campo passaram cinco dias retirando os mortos e feridos, disse ele. Palestinos cavando com mãos de urso encontram um cadáver nos escombros após um ataque aéreo israelense que matou dezenas de palestinos no meio do campo de refugiados de Al-Maghazi, no centro da Faixa de Gaza, em 5 de novembro de 2023.
Nael Al-Bahisi, um paramédico, foi um dos primeiros a chegar ao local. Ele contou entre 50 e 70 vítimas naquele primeiro dia. “Em um determinado momento, entendemos que o alvo do ataque era o comandante do Hamas, Ayman Nofal”, disse ele à +972 e à Local Call. “Eles o mataram, e também muitas pessoas que não sabiam que ele estava lá. Famílias inteiras com crianças foram mortas.”
Outra fonte da inteligência disse ao +972 e ao Local Call que o exército destruiu um prédio alto em Rafah em meados de dezembro, matando “dezenas de civis”, para tentar matar Mohammed Shabaneh, o comandante da Brigada Rafah do Hamas (não está claro se ele foi morto ou não no ataque). Muitas vezes, disse a fonte, os comandantes seniores se escondem em túneis que passam por baixo de edifícios civis e, portanto, a opção de assassiná-los com um ataque aéreo necessariamente mata civis.
A maioria dos feridos eram crianças”, disse Wael Al-Sir, 55 anos, que testemunhou o ataque em grande escala que alguns moradores de Gaza acreditam ter sido a tentativa de assassinato. Ele disse à +972 e à Local Call que o bombardeio de 20 de dezembro destruiu “um quarteirão residencial inteiro” e matou pelo menos 10 crianças.
Havia uma política completamente permissiva com relação às baixas das operações [de bombardeio] – tão permissiva que, em minha opinião, tinha um elemento de vingança”, afirmou D., uma fonte da inteligência.
O ponto central disso foram os assassinatos de comandantes sênior [do Hamas e do PIJ], pelos quais eles estavam dispostos a matar centenas de civis. Tínhamos um cálculo: quantos para um comandante de brigada, quantos para um comandante de batalhão, e assim por diante.
“Havia regulamentos, mas eles eram muito brandos”, disse E., outra fonte da inteligência. “Matamos pessoas com danos colaterais na casa dos dois dígitos, se não na casa dos três dígitos. Essas são coisas que nunca aconteceram antes.”
Esse alto índice de “danos colaterais” é excepcional não apenas em comparação com o que o exército israelense considerava aceitável anteriormente, mas também em comparação com as guerras travadas pelos Estados Unidos no Iraque, na Síria e no Afeganistão.
O general Peter Gersten, vice-comandante de Operações e Inteligência na operação de combate ao ISIS no Iraque e na Síria, disse a uma revista de defesa dos EUA em 2021 que um ataque com danos colaterais de 15 civis se desviou do procedimento; para realizá-lo, ele teve de obter permissão especial do chefe do Comando Central dos EUA, general Lloyd Austin, que agora é secretário de Defesa.
Com Osama Bin Laden, você teria um NCV [Non-combatant Casualty Value] de 30, mas se você tivesse um comandante de baixo escalão, o NCV dele era normalmente zero”, disse Gersten.“Tivemos zero por muito tempo.
“Disseram-nos: tudo o que vocês puderem, bombardeiem”
Todas as fontes entrevistadas para esta investigação disseram que os massacres do Hamas em 7 de outubro e o sequestro de reféns influenciaram muito a política de fogo do exército e os graus de danos colaterais. “No início, a atmosfera era dolorosa e vingativa”, disse B., que foi convocado para o exército logo após o dia 7 de outubro e serviu em uma sala de operações de alvos. “As regras eram muito brandas. Eles derrubaram quatro prédios quando sabiam que o alvo estava em um deles. Era uma loucura.
Havia uma dissonância: por um lado, as pessoas aqui estavam frustradas porque não estávamos atacando o suficiente. Por outro lado, no final do dia, você vê que outros mil habitantes de Gaza morreram, a maioria deles civis.
“Havia histeria nas fileiras profissionais”, disse D., que também foi convocado logo após 7 de outubro. “Eles não tinham a menor ideia de como reagir. A única coisa que sabiam fazer era começar a bombardear como loucos para tentar desmantelar a capacidade do Hamas.”
D. enfatizou que eles não foram explicitamente informados de que o objetivo do exército era “vingança”, mas expressou que “assim que todos os alvos ligados ao Hamas se tornarem legítimos, e com quase todos os danos colaterais sendo aprovados, fica claro para vocês que milhares de pessoas serão mortas. Mesmo que oficialmente todos os alvos estejam ligados ao Hamas, quando a política é tão permissiva, isso perde todo o sentido”.
A. também usou a palavra “vingança” para descrever a atmosfera dentro do exército depois de 7 de outubro. “Ninguém pensou no que fazer depois, quando a guerra terminar, ou como será possível viver em Gaza e o que farão com ela”, disse A.. “Disseram-nos: agora temos de acabar com o Hamas, custe o que custar. Bombardeiem o que puderem”.
B., a fonte sênior de inteligência, disse que, em retrospecto, ele acredita que essa política “desproporcional” de matar palestinos em Gaza também coloca em risco os israelenses, e que esse foi um dos motivos pelos quais ele decidiu ser entrevistado.
No curto prazo, estamos mais seguros, porque prejudicamos o Hamas. Mas acho que, a longo prazo, estamos menos seguros. Vejo como todas as famílias enlutadas em Gaza – que são quase todas – aumentarão a motivação para [as pessoas se juntarem] ao Hamas daqui a 10 anos. E será muito mais fácil para [o Hamas] recrutá-las.
Em uma declaração para +972 e Local Call, o exército israelense negou muito do que as fontes nos disseram, alegando que “cada alvo é examinado individualmente, enquanto é feita uma avaliação individual da vantagem militar e dos danos colaterais esperados do ataque… A IDF não realiza ataques quando os danos colaterais esperados do ataque são excessivos em relação à vantagem militar”.
ETAPA 5: CALCULANDO DANOS COLATERAIS
“O modelo não estava conectado à realidade”
De acordo com as fontes de inteligência, o cálculo do exército israelense sobre o número de civis que se espera que sejam mortos em cada casa ao lado de um alvo – um procedimento examinado em uma investigação anterior por +972 e Local Call – foi realizado com a ajuda de ferramentas automáticas e imprecisas. Em guerras anteriores, a equipe de inteligência passava muito tempo verificando quantas pessoas estavam em uma casa que estava programada para ser bombardeada, com o número de civis que poderiam ser mortos listados como parte de um “arquivo de alvos”. Depois de 7 de outubro, no entanto, essa verificação minuciosa foi amplamente abandonada em favor da automação.
Em outubro, o The New York Times publicou uma reportagem sobre um sistema operado a partir de uma base especial no sul de Israel, que coleta informações de telefones celulares na Faixa de Gaza e fornece aos militares uma estimativa em tempo real do número de palestinos que fugiram do norte da Faixa de Gaza em direção ao sul. O general de brigada Udi Ben Muha disse ao Times que “não é um sistema 100% perfeito, mas fornece as informações necessárias para tomar uma decisão”.
O sistema opera de acordo com as cores: o vermelho marca as áreas onde há muitas pessoas, e o verde e o amarelo marcam as áreas que foram relativamente limpas de moradores.
As fontes que falaram com +972 e Local Call descreveram um sistema semelhante para calcular os danos colaterais, que foi usado para decidir se bombardeariam um prédio em Gaza. Elas disseram que o software calculou o número de civis que residiam em cada casa antes da guerra – avaliando o tamanho do prédio e revisando sua lista de moradores – e depois reduziu esses números pela proporção de moradores que supostamente evacuaram o bairro.
Para ilustrar, se o exército calculasse que metade dos moradores de um bairro havia saído, o programa contaria uma casa que normalmente tinha 10 moradores como uma casa com cinco pessoas. Para economizar tempo, disseram as fontes, o exército não inspecionou as casas para verificar quantas pessoas estavam realmente morando nelas, como fez em operações anteriores, para descobrir se a estimativa do programa era de fato precisa.
Esse modelo não estava conectado à realidade. Não havia conexão entre as pessoas que estavam na casa agora, durante a guerra, e as que estavam listadas como morando lá antes da guerra. Em uma ocasião, bombardeamos uma casa sem saber que havia várias famílias lá dentro, escondidas juntas.
A fonte disse que, embora o exército soubesse que tais erros poderiam ocorrer, esse modelo impreciso foi adotado mesmo assim, porque era mais rápido. Dessa forma, disse a fonte, “o cálculo dos danos colaterais era totalmente automático e estatístico”, produzindo até mesmo números que não eram inteiros.
ETAPA 6: BOMBARDEIO DA CASA DE UMA FAMÍLIA
“Vocês mataram uma família sem motivo”
As fontes que falaram com o +972 e o Local Call explicaram que, às vezes, havia um intervalo substancial entre o momento em que os sistemas de rastreamento, como o Where’s Daddy? alertavam um oficial de que um alvo havia entrado em sua casa e o bombardeio em si – levando à morte de famílias inteiras, mesmo sem atingir o alvo do exército. “Aconteceu comigo muitas vezes que atacamos uma casa, mas a pessoa nem estava em casa”, disse uma fonte. “O resultado é que você matou uma família sem motivo”. Três fontes da inteligência disseram à +972 e à Local Call que testemunharam um incidente em que o exército israelense bombardeou a casa particular de uma família e, mais tarde, descobriu-se que o alvo pretendido do assassinato nem estava dentro da casa, já que nenhuma verificação adicional foi realizada em tempo real.
Outra fonte descreveu um incidente semelhante que o afetou e o fez querer ser entrevistado para esta investigação.
Entendemos que o alvo estava em casa às 20h. No final, a força aérea bombardeou a casa às 3h. Depois descobrimos que [nesse intervalo de tempo] ele havia conseguido se mudar para outra casa com a família. Havia duas outras famílias com crianças no prédio que bombardeamos. Às vezes, [o alvo] estava em casa mais cedo e, à noite, foi dormir em outro lugar, digamos, no subsolo, e você não ficou sabendo. Há momentos em que você verifica novamente a localização, e há momentos em que você simplesmente diz: “Ok, ele estava na casa nas últimas horas, então você pode simplesmente bombardear”
Em guerras anteriores em Gaza, após o assassinato de alvos humanos, a inteligência israelense realizava procedimentos de avaliação de danos causados por bombas (BDA) – uma verificação de rotina pós-ataque para ver se o comandante sênior foi morto e quantos civis foram mortos junto com ele. Conforme revelado em uma investigação anterior do +972 e do Local Call, isso envolvia ouvir as ligações telefônicas de parentes que perderam seus entes queridos. Na guerra atual, no entanto, pelo menos em relação aos militantes juniores marcados usando IA, as fontes dizem que esse procedimento foi abolido para economizar tempo. As fontes disseram que não sabiam quantos civis foram de fato mortos em cada ataque e, no caso dos suspeitos de baixo escalão do Hamas e do PIJ marcados pela IA, não sabiam nem mesmo se o próprio alvo havia sido morto.