Sophia Goodfriend
Vol. 46 No. 19 · 10 October 2024 |
Em 17 de setembro, milhares de pagers mantidos por membros do Hezbollah no Líbano e na Síria explodiram ao longo de uma hora, matando doze pessoas e ferindo mais de duas mil. No dia seguinte, centenas de walkie-talkies explodiram, matando pelo menos 25 pessoas e ferindo 750. Essas operações, projetadas para chamar a atenção do mundo, foram o exemplo mais recente da implantação de métodos espetaculares de alta tecnologia pelos serviços militares e de inteligência de Israel. Elas tinham a intenção de enviar a mensagem de que Israel é um estado de segurança onipotente.
A IDF nem sempre anuncia suas novas capacidades. Em abril, o site israelense/palestino +972 Magazine e outros veículos relataram que unidades de inteligência israelenses estão usando listas de morte geradas algoritmicamente para determinar alvos para ataques de mísseis na Faixa de Gaza. "Tenho muito mais confiança em um mecanismo estatístico", disse um dos soldados entrevistados. "A máquina fez isso friamente." Nos últimos meses, conversei com vários veteranos da inteligência — alguns dos quais estavam servindo no outono passado e outros que deixaram o exército há uma década — sobre a forma como os desenvolvimentos na guerra algorítmica transformaram as operações militares israelenses.
Conheci David (os nomes foram alterados) em junho em um café em Jerusalém Ocidental. Ele se voluntariou para o serviço de reserva no corpo de inteligência israelense alguns dias após os ataques de 7 de outubro. Muitos israelenses estão a um grau de separação de alguém assassinado, ferido ou sequestrado naquela noite; na semana após os ataques, 360.000 reservistas foram mobilizados e milhares mais se voluntariaram. "Acho que regredi no meu pensamento", David me disse. "Eu simplesmente sabia que poderia ajudar dessa forma." Mas, à medida que o conflito se arrastava, ele achou o aumento da contagem de corpos em Gaza cada vez mais difícil de aceitar. Poucos dias antes do nosso encontro, ele e outros 41 reservistas das IDF assinaram uma carta aberta explicando por que não serviriam mais na guerra atual. O período de serviço militar obrigatório de David, que terminou em 2020, coincidiu com a introdução de novas tecnologias: grampos estavam dando lugar a softwares de fala para texto e bancos de dados exaustivos dos quais os agentes podiam extrair registros de mídia social, transcrições telefônicas e mensagens privadas. David lembrou que passou horas monitorando pessoas comuns que não tinham nenhuma ligação com grupos militantes e nenhum desejo de causar danos.
A unidade em que ele se voluntariou depois de 7 de outubro era uma "unidade de vigilância passiva... não uma unidade de alvos", mas foi convertida em uma assim que a guerra começou. As pessoas que sua equipe estava observando em Gaza, muitas das quais não tinham envolvimento nas operações militares do Hamas, agora eram vistas como alvos viáveis. "O comandante sentiu que precisava mostrar algum tipo de sucesso para que nossos esforços fossem apoiados pela liderança militar", disse David. As listas de alvos que sua unidade montou foram passadas para a força aérea e usadas para justificar missões de assassinato.
A IDF tem vários sistemas assistidos por IA. Aviv Kohavi, seu chefe de gabinete até o início do ano passado, deu uma entrevista sobre a nova tecnologia para o maior jornal diário de Israel, Yedioth Ahronoth. Ele disse que "cada brigada tem um sofisticado aparato de inteligência semelhante ao filme Matrix" e mencionou o estabelecimento de uma nova Diretoria de Alvos, "alimentada por capacidades de IA". Como o +972 relatou e fontes com as quais conversei confirmaram, três ferramentas em particular foram amplamente utilizadas em Gaza nos últimos dois anos: Lavender, Gospel e Where's Daddy. Lavender fornece uma lista de pessoas a serem aprovadas para assassinato. Gospel tenta determinar onde elas vivem, ou onde armazenam armas e planejam operações militares. Where's Daddy envia alertas quando os alvos entram em suas casas de família, para que a força aérea saiba quando atacar. Todas essas ferramentas dependem de sistemas de aprendizado de máquina para vasculhar massas de dados de uma variedade de fontes, incluindo reconhecimento por drones e satélites, monitoramento de localização, scraping de mídia social e transcrições de chamadas telefônicas, mensagens de texto e aplicativos de mensagens criptografadas. Algoritmos determinam padrões com base em onde alguém foi, a que horas, com quem falou e com que frequência. Esses sistemas permitem que os militares ignorem os muitos analistas de inteligência, especialistas em munições e advogados que antes eram necessários para determinar alvos válidos e autorizar ataques. Kohavi se gabou de que as novas ferramentas são capazes de fornecer o dobro de alvos em um dia — pelo menos cem — do que as unidades de inteligência costumavam fornecer em um ano.
O exército de Israel há muito tempo depende de empresas de tecnologia dentro e fora de suas fronteiras para ajudar a travar a guerra; mais notavelmente, a Elbit e a IBM fornecem sistemas de computação para a IDF desde a década de 1960; a Elbit também fornece veículos não tripulados e componentes em armas produzidas por outras empresas. Mas o boom da tecnologia baseada em dados da década de 2010 levou o exército a empregar os serviços de empresas civis que estavam experimentando vigilância em massa e aprendizado de máquina. A empresa americana de análise de dados Palantir abriu um escritório em Tel Aviv e garantiu contratos com o Ministério da Defesa e a IDF. Microsoft, Alphabet e Amazon têm escritórios em Israel. Startups compostas por veteranos de unidades de inteligência e financiadas por empresas de capital de risco, geralmente dos EUA ou da UE, ofereciam sistemas avançados de vigilância e armas. Entre as mais proeminentes estavam a empresa de espionagem cibernética NSO, a empresa de vigilância biométrica Oosto e a empresa de hackers Cellebrite. Na última década, autoridades de defesa alegaram que a porta giratória entre as empresas de tecnologia militares e civis é a chave para manter a vantagem militar de Israel.
A IDF nem sempre anuncia suas novas capacidades. Em abril, o site israelense/palestino +972 Magazine e outros veículos relataram que unidades de inteligência israelenses estão usando listas de morte geradas algoritmicamente para determinar alvos para ataques de mísseis na Faixa de Gaza. "Tenho muito mais confiança em um mecanismo estatístico", disse um dos soldados entrevistados. "A máquina fez isso friamente." Nos últimos meses, conversei com vários veteranos da inteligência — alguns dos quais estavam servindo no outono passado e outros que deixaram o exército há uma década — sobre a forma como os desenvolvimentos na guerra algorítmica transformaram as operações militares israelenses.
Conheci David (os nomes foram alterados) em junho em um café em Jerusalém Ocidental. Ele se voluntariou para o serviço de reserva no corpo de inteligência israelense alguns dias após os ataques de 7 de outubro. Muitos israelenses estão a um grau de separação de alguém assassinado, ferido ou sequestrado naquela noite; na semana após os ataques, 360.000 reservistas foram mobilizados e milhares mais se voluntariaram. "Acho que regredi no meu pensamento", David me disse. "Eu simplesmente sabia que poderia ajudar dessa forma." Mas, à medida que o conflito se arrastava, ele achou o aumento da contagem de corpos em Gaza cada vez mais difícil de aceitar. Poucos dias antes do nosso encontro, ele e outros 41 reservistas das IDF assinaram uma carta aberta explicando por que não serviriam mais na guerra atual. O período de serviço militar obrigatório de David, que terminou em 2020, coincidiu com a introdução de novas tecnologias: grampos estavam dando lugar a softwares de fala para texto e bancos de dados exaustivos dos quais os agentes podiam extrair registros de mídia social, transcrições telefônicas e mensagens privadas. David lembrou que passou horas monitorando pessoas comuns que não tinham nenhuma ligação com grupos militantes e nenhum desejo de causar danos.
A unidade em que ele se voluntariou depois de 7 de outubro era uma "unidade de vigilância passiva... não uma unidade de alvos", mas foi convertida em uma assim que a guerra começou. As pessoas que sua equipe estava observando em Gaza, muitas das quais não tinham envolvimento nas operações militares do Hamas, agora eram vistas como alvos viáveis. "O comandante sentiu que precisava mostrar algum tipo de sucesso para que nossos esforços fossem apoiados pela liderança militar", disse David. As listas de alvos que sua unidade montou foram passadas para a força aérea e usadas para justificar missões de assassinato.
A IDF tem vários sistemas assistidos por IA. Aviv Kohavi, seu chefe de gabinete até o início do ano passado, deu uma entrevista sobre a nova tecnologia para o maior jornal diário de Israel, Yedioth Ahronoth. Ele disse que "cada brigada tem um sofisticado aparato de inteligência semelhante ao filme Matrix" e mencionou o estabelecimento de uma nova Diretoria de Alvos, "alimentada por capacidades de IA". Como o +972 relatou e fontes com as quais conversei confirmaram, três ferramentas em particular foram amplamente utilizadas em Gaza nos últimos dois anos: Lavender, Gospel e Where's Daddy. Lavender fornece uma lista de pessoas a serem aprovadas para assassinato. Gospel tenta determinar onde elas vivem, ou onde armazenam armas e planejam operações militares. Where's Daddy envia alertas quando os alvos entram em suas casas de família, para que a força aérea saiba quando atacar. Todas essas ferramentas dependem de sistemas de aprendizado de máquina para vasculhar massas de dados de uma variedade de fontes, incluindo reconhecimento por drones e satélites, monitoramento de localização, scraping de mídia social e transcrições de chamadas telefônicas, mensagens de texto e aplicativos de mensagens criptografadas. Algoritmos determinam padrões com base em onde alguém foi, a que horas, com quem falou e com que frequência. Esses sistemas permitem que os militares ignorem os muitos analistas de inteligência, especialistas em munições e advogados que antes eram necessários para determinar alvos válidos e autorizar ataques. Kohavi se gabou de que as novas ferramentas são capazes de fornecer o dobro de alvos em um dia — pelo menos cem — do que as unidades de inteligência costumavam fornecer em um ano.
Os algoritmos deram um verniz de precisão tecnológica a uma campanha que causou destruição amplamente indiscriminada. A carta aberta assinada por David não mencionou o grande número de civis mortos em Gaza, ou os milhões de deslocados, ou a catástrofe humanitária mais ampla. Em vez disso, os reservistas argumentaram que era hora de "investir todos os nossos esforços e recursos na negociação de um acordo que trará de volta os reféns e restaurará a segurança do estado de Israel". Quando conversamos, no entanto, David condenou as operações do exército. "Os bombardeios em massa foram depravados", disse ele, "e [os comandantes] não justificaram isso politicamente, em termos de um objetivo, você sabe, eles apenas bombardearam".
A última vez que os reservistas das IDF se opuseram publicamente às operações militares em Gaza foi em setembro de 2014, um mês depois de um ataque ter deixado mais de 2.250 mortos. Essa carta foi assinada por 43 veteranos da Unidade 8200 do Corpo de Inteligência de elite. "É comumente pensado que o serviço na inteligência militar é livre de dilemas morais e contribui unicamente para a redução da violência e danos a pessoas inocentes", eles escreveram. "No entanto, nosso serviço militar nos ensinou que a inteligência é parte integrante da ocupação militar de Israel sobre os territórios." Seu trabalho, eles disseram, expôs civis inocentes à vigilância, extorsão e morte. "Não podemos continuar a servir este sistema em sã consciência, negando os direitos de milhões de pessoas. Portanto, aqueles entre nós que são reservistas, se recusam a participar das ações do estado contra os palestinos."
Uma unidade que há vinte anos era tão pequena e inconsequente que não era conhecida do público agora se tornou a maior do exército israelense, com vários milhares de pessoas. Inicialmente encarregada de inteligência de sinais — grampeando linhas telefônicas e transmissões de rádio — as operações da unidade se expandiram no início dos anos 1990. Para os palestinos, 8200 se tornou sinônimo de policiamento de arrasto e guerra aérea letal. Mas para muitos jovens israelenses, uma colocação na unidade era uma abertura para uma carreira, não um compromisso ideológico.
Falei com Avi, um dos organizadores da carta de 2014. Nós nos encontramos em um parque perto do quartel-general da defesa de Israel em Tel Aviv, cercados por soldados armados pedindo expressos e sanduíches de barracas próximas. Avi me disse que os relatos da aprovação de listas de mortes geradas por IA pelas IDF o lembraram dos escritos de Hannah Arendt sobre violência burocrática em Eichmann em Jerusalém. "A tecnologia sempre faz você se sentir desconectado da violência", disse ele. ‘Mas sentar-se num escritório para determinar os parâmetros com os quais um algoritmo pode permitir que civis sejam mortos em ataques direcionados: essa é a derradeira abdicação da responsabilidade.’
Avi foi recrutado para a inteligência israelense no início da Segunda Intifada em 2000, quando tinha dezoito anos. Ele foi um dos quarenta selecionados naquele ano para fazer um curso de preparação especializado na Unidade 8200. "Senti que havia encontrado meu lugar", disse ele. "Eu via [a inteligência] como limitada, racional, toda voltada para a prevenção de ataques a civis." Ele gostava do desafio intelectual do treinamento. Eles ficavam sentados em uma sala de aula por dezesseis horas por dia com poucos intervalos. "O slogan do curso era 'tudo é possível'", disse Avi. Isso o fez se sentir importante. Depois de uma temporada no campo de treinamento, onde os recrutas são ensinados a atirar com rifles de assalto em recortes de papelão envoltos em keffiyehs, ele foi enviado para uma base de inteligência.
Em meados dos anos 2000, os chefes militares começaram a refazer as unidades de inteligência à imagem das startups do Vale do Silício. A imprensa enquadrou o serviço na inteligência militar como "melhor do que um diploma do MIT", alegando que ele preparava jovens israelenses para o sucesso em uma economia tecnológica global. Candidatos, tipicamente das comunidades de classe média, liberal e asquenazita que se mobilizaram pelo fim da ocupação alguns anos antes, disputavam a entrada. A preparação começava cedo. Adolescentes faziam aulas de codificação, estudavam línguas estrangeiras e passavam nos testes obrigatórios. Novos recrutas eram recompensados com palestras de magnatas bilionários da tecnologia e tours por startups de Tel Aviv.
De acordo com Gal, um dos organizadores da carta de 2014, a Unidade 8200 "sempre desfrutou de um véu de segredo. Ela tem essa reputação glamorosa; é vista como um bom trabalho de programação de computadores. Há esse brilho de ganhar muito dinheiro quando você termina". Os reservistas que se recusaram a continuar servindo na inteligência em 2014 estavam cientes de que muito do que eles tinham feito no exército - desde ouvir conversas privadas até projetar bancos de dados de vigilância - era essencial para as operações letais dos militares. "Senti que eu tinha que fazer alguma coisa", disse Avi. "Estávamos indo na direção errada; eu podia ver isso".
A carta de 2014 foi publicada no momento em que capitalistas de risco e CEOs de tecnologia estavam promovendo análises de big data e aprendizado de máquina. Os comandantes militares israelenses, muitos dos quais passaram a aconselhar ou liderar empresas privadas de tecnologia, foram rápidos em ver as vantagens potenciais. "Se organizações comerciais estão interessadas em identificar uma necessidade que pode ser atendida por meio de marketing direcionado", escreveu o chefe do Shin Bet em 2015, "os soldados identificam indivíduos e grupos... de um mar de informações para melhorar as capacidades de coleta e ataque das organizações de inteligência". Os chefes militares consultaram os CEOs corporativos sobre como otimizar suas capacidades de matar.
O exército de Israel há muito tempo depende de empresas de tecnologia dentro e fora de suas fronteiras para ajudar a travar a guerra; mais notavelmente, a Elbit e a IBM fornecem sistemas de computação para a IDF desde a década de 1960; a Elbit também fornece veículos não tripulados e componentes em armas produzidas por outras empresas. Mas o boom da tecnologia baseada em dados da década de 2010 levou o exército a empregar os serviços de empresas civis que estavam experimentando vigilância em massa e aprendizado de máquina. A empresa americana de análise de dados Palantir abriu um escritório em Tel Aviv e garantiu contratos com o Ministério da Defesa e a IDF. Microsoft, Alphabet e Amazon têm escritórios em Israel. Startups compostas por veteranos de unidades de inteligência e financiadas por empresas de capital de risco, geralmente dos EUA ou da UE, ofereciam sistemas avançados de vigilância e armas. Entre as mais proeminentes estavam a empresa de espionagem cibernética NSO, a empresa de vigilância biométrica Oosto e a empresa de hackers Cellebrite. Na última década, autoridades de defesa alegaram que a porta giratória entre as empresas de tecnologia militares e civis é a chave para manter a vantagem militar de Israel.
Alon, que foi recrutado como analista de inteligência no final da década de 2010, trabalhou em uma base militar no centro de Israel, escrevendo relatórios sobre a situação de segurança na Cisjordânia. Ele tinha acesso a uma grande quantidade de dados sobre civis nos territórios ocupados. As ferramentas que ele usou exploravam as mídias sociais e outras telecomunicações para classificar civis, muitos deles menores de idade, de acordo com seu potencial para realizar ataques terroristas de "lobo solitário". "Você pode pesquisar por palavras específicas ou pessoas específicas", ele disse quando conversamos em Tel Aviv neste verão, ou "você pode simplesmente navegar por uma série de resultados, como alertas automatizados sobre civis [específicos] na Cisjordânia".
Israel não tem uma constituição, mas o Artigo Sete de sua Lei Básica sobre Dignidade Humana e Liberdade, em teoria, garante o direito à privacidade a todos os cidadãos. Desde sua criação em 2006, a Autoridade de Proteção à Privacidade de Israel aplicou uma série de leis robustas de proteção de dados em um nível semelhante aos regulamentos da UE. Mas quando se trata de cidadãos palestinos de Israel, exceções feitas em nome da segurança nacional significam que essas políticas são sempre aplicadas seletivamente. Nos territórios ocupados, Israel nega àqueles que vivem sob regime militar até mesmo as proteções de privacidade mais nominais.
No final da década de 2010, como o sociólogo Yagil Levy escreve em Shooting and Not Crying, publicado em hebraico no ano passado, matar havia se tornado a principal métrica da eficácia militar. O sucesso operacional era medido pelo número de alvos gerados e pela porcentagem de assassinatos realizados. "Havia esse romance com big data", lembrou Alon. "As pessoas eram recompensadas por liderar projetos com palavras da moda como "inteligência artificial" no título." Os comandantes distribuíam medalhas para recrutas empreendedores ansiosos para ajudar a automatizar as operações de inteligência. Autoridades do governo celebraram as capacidades tecnológicas de Israel como prova de sua supremacia militar. Em maio de 2023, Eyal Zamir, diretor-geral do Ministério da Defesa, gabou-se de que o país estava prestes a se tornar uma "superpotência de IA".
Todo o hype sufocou uma série de alertas de figuras do establishment, incluindo Michael Milshtein, chefe do Departamento de Assuntos Palestinos da inteligência militar da IDF até 2018, e Itzhak Brik, um ex-general da IDF. Investir tempo e recursos nas últimas ferramentas de vigilância, eles argumentaram, estava corroendo as capacidades clássicas de inteligência. Esses alertas não fizeram nada para evitar a pior falha de segurança na história de Israel em 7 de outubro. Alon escreveu ao seu antigo comandante quando as notícias das atrocidades foram divulgadas. Dois dias depois, ele estava de volta à frente de um computador em sua antiga base. Como muitos israelenses, ele ficou indignado com o establishment político e militar por ignorar as evidências de que o Hamas estava planejando um ataque. Mas, em uma semana, ele percebeu que os militares estavam mais interessados em infligir vingança do que em obter segurança duradoura. "Depois de 7 de outubro, a coisa mais simples para eles era dizer, OK, deixamos as máquinas fazerem isso", Alon me disse. "Devo ser claro; eles queriam bombardear o máximo que pudessem e bombardear centenas de alvos todos os dias.’ Denunciantes disseram aos repórteres que os comandantes tinham apenas vinte segundos para autorizar os bombardeios determinados pela IA.
Nenhum comentário:
Postar um comentário