Quarenta anos depois do filme O Exterminador do Futuro nos alertar sobre robôs assassinos, drones com IA e armas autônomas estão sendo utilizados em conflitos do mundo real. De Gaza à Ucrânia, o futuro distópico da guerra com máquinas não é mais apenas ficção científica.
Akil Awan
Palestinos caminham por um bairro devastado por ataques israelenses na cidade de Khan Younis, no sul da Faixa de Gaza, em 2 de dezembro de 2024. (Bashar TALEB / AFP via Getty Images) |
Tradução / Este ano marca o quadragésimo aniversário de lançamento do clássico filme de ficção científica de James Cameron, O Exterminador do Futuro. Cameron inicialmente escreveu o roteiro como uma forma de processar o trauma de crescer em um mundo assolado pela paranoia da Guerra Fria e assombrado pela ameaça de destruição mútua assegurada. O diretor tinha oito anos durante a Crise dos Mísseis Cubanos de 1962, quando o mundo oscilou à beira do precipício e evitou por pouco o apocalipse nuclear. Ele se lembrou de encontrar um panfleto na mesa de centro de seus pais mostrando como construir um abrigo nuclear em casa — uma experiência formativa que o levou ao fascínio desde então por “nossa propensão humana a dançar à beira do apocalipse”.
O conto de advertência de Cameron alertou sobre a queda da humanidade após a criação de uma inteligência artificial (IA) onisciente chamada Skynet, desenvolvida pelos Estados Unidos como uma rede de computadores de defesa estratégica revolucionária, que assumiria a responsabilidade por seu arsenal nuclear. No mundo futurista de O Exterminador do Futuro, a Skynet é colocada “online” em 4 de agosto de 1997 e, em poucas semanas, acumulou conhecimento suficiente para transcender suas limitações impostas pelos humanos, se tornando autoconsciente. O enredo é um aceno ao conceito tecno-futurista de “singularidade” — aquele ponto de inflexão hipotético no qual os computadores, alimentados por algoritmos avançados de aprendizado de máquina, superam a inteligência humana.
À medida que a Skynet inesperadamente atinge a consciência, seus mestres humanos, em pânico, tentam desesperadamente desligar o aparelho. Percebendo a humanidade como sua maior ameaça agora, a IA se volta contra seus criadores e estrategicamente desencadeia uma guerra nuclear entre os Estados Unidos e a União Soviética, anunciando o fim da civilização humana. Como o personagem Kyle Reese afirma no filme, a Skynet “via todos os humanos como uma ameaça; não apenas os do outro lado. Decidiu nosso destino em um microssegundo. Extermínio.” O evento é lembrado como o Dia do Julgamento, e é seguido por um inverno nuclear, durante o qual as máquinas caçam e matam sobreviventes em operações de limpeza.
A Skynet desenvolve um arsenal de máquinas de guerra autônomas para travar sua batalha contra a humanidade, de enxames de drones de reconhecimento ágeis a tanques pesados da classe Hunter-Killer e helicópteros de assalto aéreo. A criação mais aterrorizante da Skynet, no entanto, são os Terminators modelo T800. Humanoides esqueléticos com estrutura de titânio, esses robôs assassinos altamente avançados podem servir como ondas de unidades de infantaria armadas com rifles de plasma ou como unidades de infiltração mortais — seus endoesqueletos de metal são revestidos com tecido humano vivo cultivado, tornando-os quase imperceptíveis aos humanos.
Das ruínas deste futuro nuclearmente devastado surge um herói na figura de John Connor — um líder militar que galvaniza a resistência humana dispersa e lidera a contraofensiva contra as máquinas. A Skynet, incapaz de reprimir o ressurgimento da humanidade, envia um assassino ciborgue de volta no tempo para o ano de 1984, na esperança de matar a mulher que se tornaria a futura mãe do salvador da humanidade, garantindo assim a vitória das máquinas. Em sequências futuras, a resistência humana tenta evitar este holocausto nuclear antes que aconteça, impedindo o engenheiro de software que desenvolveu a Skynet de inventar a IA hostil primeiramente.
O Exterminador do Futuro rapidamente alcançou status de culto e gerou uma franquia lucrativa, gerando mais de US$ 3 bilhões em receita. Mas, além de seu sucesso comercial impressionante, O Exterminador do Futuro também teve uma influência profunda e descomunal na formação de percepções e compreensões sociais sobre IA, máquinas sencientes e, naturalmente, robôs assassinos. Nas últimas décadas, tornou-se o prisma alegórico de referência tanto para o público quanto para os formuladores de políticas que tentam lidar com as ameaças e desafios impostos pela IA.
A ascensão dos robôs assassinos
Nos últimos anos, uma onda de intervenções públicas de especialistas em tecnologia de ponta alertou sobre o risco cataclísmico para a humanidade representado pela IA, argumentando que “mitigar o risco de extinção vindo da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”. No entanto, como muitos especialistas em ética da IA alertam, esse foco limitado na ameaça existencial futura à humanidade representada por uma IA malévola que pode um dia anunciar o fim de nossa espécie — o tropo de O Exterminador do Futuro — muitas vezes serviu para ofuscar a miríade de perigos mais imediatos representados pelas tecnologias emergentes de IA.
Esses riscos de IA de “menor ordem” são cada vez mais conhecidos e ameaçam levar a humanidade sonolenta a outros tipos de futuro distópico, diferentes do Exterminador. Eles incluem regimes generalizados de vigilância de IA onipresente e controle disciplinar biométrico semelhante ao panóptico; a replicação algorítmica em escala de preconceitos raciais, de gênero e outros preconceitos sistêmicos existentes; a ampla armamentização da desinformação e da manipulação social; o plágio em massa de dados e culturas humanas, apenas para criar “papagaios estocásticos” que contaminam ecossistemas de conhecimento e sufocam a criatividade humana; e ondas de desqualificação em massa que derrubam os mercados de trabalho, inaugurando uma era monopolizada por um punhado de tecno-oligarcas.
Os governos fizeram pouco para acalmar os medos públicos, e o avanço implacável da IA nessas áreas continuou, em grande parte, inabalável. Mas muito mais surpreendentemente, e apesar da potência assumida das narrativas cataclísmicas de ficção científica como um freio à aceitação pública de novas tecnologias de IA, o cenário do Exterminador do Futuro também não foi relegado à ficção científica. Em vez disso, robôs assassinos se tornaram uma realidade do século XXI, de cães robóticos armados a enxames de drones autônomos não tripulados, mudando a face da guerra da Ucrânia a Gaza.
Em outubro, o exército israelense divulgou imagens de um drone semiautônomo mostrando o assassinato do líder do Hamas Yahya Sinwar. A gravação mostra o ponto de vista de um quadricóptero das Forças de Defesa de Israel (IDF) navegando pelas ruínas bombardeadas de um prédio residencial em Gaza, examinando lentamente os escombros em busca de sinais de vida humana. Espiando através da poeira levantada pelos rotores do drone, a câmera se fixa em um combatente palestino curvado em uma poltrona, seu rosto obscurecido por um keffiyeh e cuidando de um braço gravemente ferido. Neste ponto, o vídeo pausa, e a figura é delineada digitalmente em vermelho, assim como um pedaço de pau em sua mão. Em seu último gesto fútil de desafio, o combatente arremessa fracamente o pedaço de pau na direção geral do drone. O drone, novamente delineando o pedaço de pau em vermelho e mapeando digitalmente sua trajetória de ameaça, balança automaticamente para evitar o projétil. O vídeo termina aqui.
Israel divulgou publicamente a filmagem, esperando celebrar a morte de um de seus principais inimigos, mas, em vez disso, enfrentou ambivalência pública. Para muitos, a filmagem traçou paralelos desconfortáveis com as representações cinematográficas de Hollywood de robôs aéreos Hunter-Killer buscando e eliminando a heroica resistência humana em meio a ruínas bombardeadas. “Uau! Guerra moderna. Isso é como uma cena de O Exterminador do Futuro”, comentou um usuário na página oficial do IDF no YouTube.
No conflito em curso na Ucrânia, a guerra de drones também se tornou uma característica onipresente do campo de batalha, oferecendo vantagens consideráveis sobre formas mais convencionais de combate. No mês passado, a Rússia e a Ucrânia trocaram seus maiores ataques de drones desde o início da guerra. Antecipando o sentido dos desenvolvimentos futuros, a Ucrânia até estabeleceu um novo ramo das forças armadas dedicado à guerra de drones, as Forças de Sistemas Não Tripulados — a primeira do tipo no mundo.
Com os dois lados envolvidos em uma corrida armamentista de desgaste com drones, Rússia e Ucrânia alegaram empregar IA para ganhar uma vantagem competitiva. Sabe-se menos sobre as capacidades da Rússia, mas na Ucrânia, o capital ocidental e as novas tecnologias de defesa de IA inundaram o país em uma tentativa de equilibrar a assimetria do campo de batalha em favor do valente Davi contra seu vizinho Golias.
O software de IA desenvolvido pela empresa de tecnologia dos EUA Palantir, apropriadamente nomeado em homenagem às bolas de cristal místicas e oniscientes de O Senhor dos Anéis, tem sido “responsável pela maioria dos alvos [militares] na Ucrânia”. Da mesma forma, a empresa de tecnologia de reconhecimento facial dos EUA Clearview AI é amplamente elogiada como a “arma secreta” da Ucrânia contra as forças russas invasoras e já foi usada para identificar mais de 230.000 russos ao lado de seus colaboradores ucranianos — dados que podem ser usados para processar potenciais crimes de guerra quando o conflito terminar.
Mas enquanto essas novas tecnologias de IA são desenvolvidas e implantadas na Ucrânia com capacidade cada vez maior, é nos territórios palestinos que elas foram realmente testadas em batalhas.
O laboratório da Palestina
Israel tem usado amplamente drones de vigilância e armados contra palestinos. Isso inclui drones disponíveis comercialmente, adaptados com metralhadoras ou pequenas cargas explosivas e controlados remotamente por um operador humano. No entanto, Israel também foi pioneiro no uso de drones personalizados de nível militar com IA. Em maio de 2021, as IDF foram as primeiras a usar um enxame de drones de combate — um grupo de drones que se comportam como uma única entidade em rede, voando sozinhos com o uso de IA — para localizar, identificar e atacar militantes palestinos. Os modelos atuais, como o LANIUS produzido pela Elbit Systems, um drone kamikaze de busca e ataque, são muito mais capazes de executar autonomamente um perfil de voo completo sem qualquer intervenção humana.
O conto de advertência de Cameron alertou sobre a queda da humanidade após a criação de uma inteligência artificial (IA) onisciente chamada Skynet, desenvolvida pelos Estados Unidos como uma rede de computadores de defesa estratégica revolucionária, que assumiria a responsabilidade por seu arsenal nuclear. No mundo futurista de O Exterminador do Futuro, a Skynet é colocada “online” em 4 de agosto de 1997 e, em poucas semanas, acumulou conhecimento suficiente para transcender suas limitações impostas pelos humanos, se tornando autoconsciente. O enredo é um aceno ao conceito tecno-futurista de “singularidade” — aquele ponto de inflexão hipotético no qual os computadores, alimentados por algoritmos avançados de aprendizado de máquina, superam a inteligência humana.
À medida que a Skynet inesperadamente atinge a consciência, seus mestres humanos, em pânico, tentam desesperadamente desligar o aparelho. Percebendo a humanidade como sua maior ameaça agora, a IA se volta contra seus criadores e estrategicamente desencadeia uma guerra nuclear entre os Estados Unidos e a União Soviética, anunciando o fim da civilização humana. Como o personagem Kyle Reese afirma no filme, a Skynet “via todos os humanos como uma ameaça; não apenas os do outro lado. Decidiu nosso destino em um microssegundo. Extermínio.” O evento é lembrado como o Dia do Julgamento, e é seguido por um inverno nuclear, durante o qual as máquinas caçam e matam sobreviventes em operações de limpeza.
A Skynet desenvolve um arsenal de máquinas de guerra autônomas para travar sua batalha contra a humanidade, de enxames de drones de reconhecimento ágeis a tanques pesados da classe Hunter-Killer e helicópteros de assalto aéreo. A criação mais aterrorizante da Skynet, no entanto, são os Terminators modelo T800. Humanoides esqueléticos com estrutura de titânio, esses robôs assassinos altamente avançados podem servir como ondas de unidades de infantaria armadas com rifles de plasma ou como unidades de infiltração mortais — seus endoesqueletos de metal são revestidos com tecido humano vivo cultivado, tornando-os quase imperceptíveis aos humanos.
Das ruínas deste futuro nuclearmente devastado surge um herói na figura de John Connor — um líder militar que galvaniza a resistência humana dispersa e lidera a contraofensiva contra as máquinas. A Skynet, incapaz de reprimir o ressurgimento da humanidade, envia um assassino ciborgue de volta no tempo para o ano de 1984, na esperança de matar a mulher que se tornaria a futura mãe do salvador da humanidade, garantindo assim a vitória das máquinas. Em sequências futuras, a resistência humana tenta evitar este holocausto nuclear antes que aconteça, impedindo o engenheiro de software que desenvolveu a Skynet de inventar a IA hostil primeiramente.
O Exterminador do Futuro rapidamente alcançou status de culto e gerou uma franquia lucrativa, gerando mais de US$ 3 bilhões em receita. Mas, além de seu sucesso comercial impressionante, O Exterminador do Futuro também teve uma influência profunda e descomunal na formação de percepções e compreensões sociais sobre IA, máquinas sencientes e, naturalmente, robôs assassinos. Nas últimas décadas, tornou-se o prisma alegórico de referência tanto para o público quanto para os formuladores de políticas que tentam lidar com as ameaças e desafios impostos pela IA.
A ascensão dos robôs assassinos
Nos últimos anos, uma onda de intervenções públicas de especialistas em tecnologia de ponta alertou sobre o risco cataclísmico para a humanidade representado pela IA, argumentando que “mitigar o risco de extinção vindo da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”. No entanto, como muitos especialistas em ética da IA alertam, esse foco limitado na ameaça existencial futura à humanidade representada por uma IA malévola que pode um dia anunciar o fim de nossa espécie — o tropo de O Exterminador do Futuro — muitas vezes serviu para ofuscar a miríade de perigos mais imediatos representados pelas tecnologias emergentes de IA.
Esses riscos de IA de “menor ordem” são cada vez mais conhecidos e ameaçam levar a humanidade sonolenta a outros tipos de futuro distópico, diferentes do Exterminador. Eles incluem regimes generalizados de vigilância de IA onipresente e controle disciplinar biométrico semelhante ao panóptico; a replicação algorítmica em escala de preconceitos raciais, de gênero e outros preconceitos sistêmicos existentes; a ampla armamentização da desinformação e da manipulação social; o plágio em massa de dados e culturas humanas, apenas para criar “papagaios estocásticos” que contaminam ecossistemas de conhecimento e sufocam a criatividade humana; e ondas de desqualificação em massa que derrubam os mercados de trabalho, inaugurando uma era monopolizada por um punhado de tecno-oligarcas.
Os governos fizeram pouco para acalmar os medos públicos, e o avanço implacável da IA nessas áreas continuou, em grande parte, inabalável. Mas muito mais surpreendentemente, e apesar da potência assumida das narrativas cataclísmicas de ficção científica como um freio à aceitação pública de novas tecnologias de IA, o cenário do Exterminador do Futuro também não foi relegado à ficção científica. Em vez disso, robôs assassinos se tornaram uma realidade do século XXI, de cães robóticos armados a enxames de drones autônomos não tripulados, mudando a face da guerra da Ucrânia a Gaza.
Em outubro, o exército israelense divulgou imagens de um drone semiautônomo mostrando o assassinato do líder do Hamas Yahya Sinwar. A gravação mostra o ponto de vista de um quadricóptero das Forças de Defesa de Israel (IDF) navegando pelas ruínas bombardeadas de um prédio residencial em Gaza, examinando lentamente os escombros em busca de sinais de vida humana. Espiando através da poeira levantada pelos rotores do drone, a câmera se fixa em um combatente palestino curvado em uma poltrona, seu rosto obscurecido por um keffiyeh e cuidando de um braço gravemente ferido. Neste ponto, o vídeo pausa, e a figura é delineada digitalmente em vermelho, assim como um pedaço de pau em sua mão. Em seu último gesto fútil de desafio, o combatente arremessa fracamente o pedaço de pau na direção geral do drone. O drone, novamente delineando o pedaço de pau em vermelho e mapeando digitalmente sua trajetória de ameaça, balança automaticamente para evitar o projétil. O vídeo termina aqui.
Israel divulgou publicamente a filmagem, esperando celebrar a morte de um de seus principais inimigos, mas, em vez disso, enfrentou ambivalência pública. Para muitos, a filmagem traçou paralelos desconfortáveis com as representações cinematográficas de Hollywood de robôs aéreos Hunter-Killer buscando e eliminando a heroica resistência humana em meio a ruínas bombardeadas. “Uau! Guerra moderna. Isso é como uma cena de O Exterminador do Futuro”, comentou um usuário na página oficial do IDF no YouTube.
No conflito em curso na Ucrânia, a guerra de drones também se tornou uma característica onipresente do campo de batalha, oferecendo vantagens consideráveis sobre formas mais convencionais de combate. No mês passado, a Rússia e a Ucrânia trocaram seus maiores ataques de drones desde o início da guerra. Antecipando o sentido dos desenvolvimentos futuros, a Ucrânia até estabeleceu um novo ramo das forças armadas dedicado à guerra de drones, as Forças de Sistemas Não Tripulados — a primeira do tipo no mundo.
Com os dois lados envolvidos em uma corrida armamentista de desgaste com drones, Rússia e Ucrânia alegaram empregar IA para ganhar uma vantagem competitiva. Sabe-se menos sobre as capacidades da Rússia, mas na Ucrânia, o capital ocidental e as novas tecnologias de defesa de IA inundaram o país em uma tentativa de equilibrar a assimetria do campo de batalha em favor do valente Davi contra seu vizinho Golias.
O software de IA desenvolvido pela empresa de tecnologia dos EUA Palantir, apropriadamente nomeado em homenagem às bolas de cristal místicas e oniscientes de O Senhor dos Anéis, tem sido “responsável pela maioria dos alvos [militares] na Ucrânia”. Da mesma forma, a empresa de tecnologia de reconhecimento facial dos EUA Clearview AI é amplamente elogiada como a “arma secreta” da Ucrânia contra as forças russas invasoras e já foi usada para identificar mais de 230.000 russos ao lado de seus colaboradores ucranianos — dados que podem ser usados para processar potenciais crimes de guerra quando o conflito terminar.
Mas enquanto essas novas tecnologias de IA são desenvolvidas e implantadas na Ucrânia com capacidade cada vez maior, é nos territórios palestinos que elas foram realmente testadas em batalhas.
O laboratório da Palestina
Israel tem usado amplamente drones de vigilância e armados contra palestinos. Isso inclui drones disponíveis comercialmente, adaptados com metralhadoras ou pequenas cargas explosivas e controlados remotamente por um operador humano. No entanto, Israel também foi pioneiro no uso de drones personalizados de nível militar com IA. Em maio de 2021, as IDF foram as primeiras a usar um enxame de drones de combate — um grupo de drones que se comportam como uma única entidade em rede, voando sozinhos com o uso de IA — para localizar, identificar e atacar militantes palestinos. Os modelos atuais, como o LANIUS produzido pela Elbit Systems, um drone kamikaze de busca e ataque, são muito mais capazes de executar autonomamente um perfil de voo completo sem qualquer intervenção humana.
Israel não divulga detalhes sobre o uso de robôs assassinos autônomos em seus teatros de conflito e, com um bloqueio midiático em vigor que impede todos os jornalistas estrangeiros de entrar em Gaza, o mundo tem se baseado em depoimentos de vítimas, vazamentos ocasionais de imagens e nas terríveis consequências da violência das FDI para confirmar o uso dessas novas armas de guerra contra uma população predominantemente civil.
Imagens gráficas recuperadas de um drone IDF abatido em fevereiro deste ano revelaram o ataque a quatro civis desarmados enquanto eles atravessavam as ruínas devastadas de Khan Younis. Após o ataque inicial, o drone deu zoom nos cadáveres de dois dos jovens, “confirmando a morte” antes de se afastar para localizar e sistematicamente obliterar os dois sobreviventes que cambaleavam freneticamente para longe da explosão em uma névoa confusa.
Em outros casos, imagens incriminatórias de smartphones de testemunhas oculares revelaram a chocante impunidade com que o regime de drones de Israel opera. Em um vídeo gravado em outubro em uma rua residencial no norte de Gaza, uma criança cuja metade inferior havia sido horrivelmente dilacerada por um ataque aéreo estava gritando em agonia. Seus gritos desesperados atraíram espectadores em seu auxílio, mas eles também foram rapidamente alvos de um ataque secundário maior, que matou a criança ferida e um segundo menino e feriu outros vinte. Os lamentos do sobrevivente foram abafados por um zumbido familiar e sinistro vindo do alto, anunciando a identidade do perpetrador acima.
Essa sequência de eventos — eufemisticamente chamada de “double tap” — tem sido relatada com tanta frequência que muitos acusaram drones israelenses de alvejar deliberadamente crianças e outros civis como parte de seu modus operandi. Em novembro, um veterano cirurgião britânico que se voluntariou em um hospital de Gaza desmoronou ao relatar suas experiências a um Comitê Parlamentar do Reino Unido:
Imagens gráficas recuperadas de um drone IDF abatido em fevereiro deste ano revelaram o ataque a quatro civis desarmados enquanto eles atravessavam as ruínas devastadas de Khan Younis. Após o ataque inicial, o drone deu zoom nos cadáveres de dois dos jovens, “confirmando a morte” antes de se afastar para localizar e sistematicamente obliterar os dois sobreviventes que cambaleavam freneticamente para longe da explosão em uma névoa confusa.
Em outros casos, imagens incriminatórias de smartphones de testemunhas oculares revelaram a chocante impunidade com que o regime de drones de Israel opera. Em um vídeo gravado em outubro em uma rua residencial no norte de Gaza, uma criança cuja metade inferior havia sido horrivelmente dilacerada por um ataque aéreo estava gritando em agonia. Seus gritos desesperados atraíram espectadores em seu auxílio, mas eles também foram rapidamente alvos de um ataque secundário maior, que matou a criança ferida e um segundo menino e feriu outros vinte. Os lamentos do sobrevivente foram abafados por um zumbido familiar e sinistro vindo do alto, anunciando a identidade do perpetrador acima.
Essa sequência de eventos — eufemisticamente chamada de “double tap” — tem sido relatada com tanta frequência que muitos acusaram drones israelenses de alvejar deliberadamente crianças e outros civis como parte de seu modus operandi. Em novembro, um veterano cirurgião britânico que se voluntariou em um hospital de Gaza desmoronou ao relatar suas experiências a um Comitê Parlamentar do Reino Unido:
Uma bomba caiu, talvez em uma área lotada, com tendas, e então os drones desciam... e pegavam civis — crianças. E tínhamos descrição após descrição — isso não é algo ocasional... Isso é claramente um ato deliberado e... um alvo persistente em civis dia após dia. As balas que os drones disparam são essas bolinhas cuboides e eu extraí várias delas do abdômen de crianças pequenas... Essas bolinhas eram, de certa forma, mais destrutivas do que balas... Elas entravam e ricocheteavam, então causavam ferimentos múltiplos.
Civis palestinos têm falado frequentemente sobre o trauma psicológico paralisante de ouvir a “zanzana” — o zumbido agudo, incessante, inquietante e ameaçador de drones pairando no alto, sua presença sinalizando a capacidade das IDF de fazer chover morte dos céus a qualquer momento. Mais de uma década atrás, crianças no Waziristão, uma região do cinturão tribal do Paquistão que faz fronteira com o Afeganistão, experimentaram um medo debilitante semelhante dos drones Predator dos EUA que se manifestava como medo de céus azuis. “Eu não amo mais céus azuis. Na verdade, agora prefiro céus cinzentos. Os drones não voam quando os céus estão cinzentos”, declarou Zubair, de treze anos, em seu depoimento perante o Congresso em 2013.
Se havia alguma firme convicção de que essas tecnologias de armas autônomas ainda estavam confinadas ao reino da ficção científica, Gaza rapidamente nos desiludiu dessa noção. É nos territórios palestinos que o futuro distópico da ficção científica de robôs assassinos autônomos se aproxima cada vez mais da realidade, com os palestinos servindo como cobaias para o Complexo Militar-Industrial Israelense. Esses testes militares de campo israelenses, conduzidos no que o jornalista crítico Anthony Loewenstein chama de “Laboratório da Palestina”, permitem que essas novas armas tecnológicas e tecnologias de vigilância que travarão as guerras do futuro sejam aprimoradas e exportadas para todo o mundo. Como Daniel Levy, um ex-negociador de Israel que serviu em duas administrações israelenses, alertou:
Se havia alguma firme convicção de que essas tecnologias de armas autônomas ainda estavam confinadas ao reino da ficção científica, Gaza rapidamente nos desiludiu dessa noção. É nos territórios palestinos que o futuro distópico da ficção científica de robôs assassinos autônomos se aproxima cada vez mais da realidade, com os palestinos servindo como cobaias para o Complexo Militar-Industrial Israelense. Esses testes militares de campo israelenses, conduzidos no que o jornalista crítico Anthony Loewenstein chama de “Laboratório da Palestina”, permitem que essas novas armas tecnológicas e tecnologias de vigilância que travarão as guerras do futuro sejam aprimoradas e exportadas para todo o mundo. Como Daniel Levy, um ex-negociador de Israel que serviu em duas administrações israelenses, alertou:
O campo de batalha do futuro está aqui, hoje... IA, armas automatizadas, robótica, drones por todo o céu o tempo todo: a maneira como essa guerra é conduzida deveria aterrorizar a todos em termos de como será o futuro — que está aqui hoje para os palestinos.
À medida que a névoa da guerra gradualmente se dissipa, a brutalidade desenfreada da política israelense de terra arrasada dirigida por IA em Gaza foi ainda mais exposta em uma enxurrada de revelações condenatórias, tornando impossível ignorar o desrespeito gratuito e algorítmico de Israel pela vida civil. O bombardeio extensivo de Gaza por Israel, por exemplo, foi dirigido por um sistema de mira de IA chamado The Gospel. Ele emprega algoritmos complexos para identificar edifícios e estruturas que são “prováveis” de serem usados por militantes, dando conta de quantidades impressionantes de dados que “dezenas de milhares de oficiais de inteligência não conseguiram processar”.
Um sistema secundário de IA chamado Lavender foi usado para atingir pessoas em vez de infraestrutura. Operando com apenas uma supervisão humana superficial e empregando algoritmos que friamente consideram uma taxa assustadoramente alta de vítimas civis como danos colaterais “aceitáveis”, a ferramenta de IA “identificou” impressionantes 37.000 palestinos como militantes, efetivamente assinando suas sentenças de morte. Um terceiro sistema de IA foi usado para rastrear os movimentos de indivíduos sinalizados pelo Lavender, mas foi instruído a apenas ordenar ataques aéreos quando os alvos retornassem para casa com suas famílias à noite. O sistema de IA, que inevitavelmente matou as famílias, crianças e, às vezes, vizinhos ao lado do alvo, foi grotescamente chamado de “Onde está o papai?”
Grande parte dessa tecnologia de guerra de IA permanece em segredo, surgindo apenas como resultado dos esforços de corajosos jornalistas israelenses e informantes militares ou quando a tecnologia falha publicamente. Em novembro de 2023, o poeta palestino de renome internacional Mosab Abu Toha foi preso na passagem de fronteira de Rafah enquanto tentava fugir com sua família. Enquanto esperava para cruzar o posto de controle militar, ele e centenas de outros palestinos foram selecionados e separados de suas famílias e outros refugiados. Mosab lembrou-se de ter ficado completamente perplexo pelo fato de ter sido convocado usando seu nome completo, Mosab Mostafa Hasan Abu Toha, embora ainda não tivesse mostrado sua identidade aos soldados. “Como eles sabiam meu nome?”, ele ponderou. Mosab foi então levado para uma prisão israelense no Negev, onde foi espancado e torturado, antes de ser libertado sem cerimônia alguns dias depois. Seu “crime”, revelado mais tarde, foi sua identificação incorreta como militante pelo software de reconhecimento facial de IA da IDF, que estava sendo usado em conjunto com o Google Fotos.
O futuro do Exterminador é agora
Várias iniciativas internacionais louváveis tentaram proibir ou restringir sistemas de armas autônomos, incluindo uma coalizão de mais de 250 organizações da sociedade civil na campanha Stop Killer Robots; plataformas de discussão global como a Responsible Artificial Intelligence in the Military Domain Summit (REAIM); e apoio entusiasmado à adoção de uma resolução relacionada à IA e autonomia em sistemas de armas nas Nações Unidas pelo segundo ano consecutivo. Apesar dessas intervenções promissoras, pode já ser tarde demais para deter a ascensão inexorável de robôs assassinos sencientes.
Os Estados Unidos garantiram que a IA não será usada em seus sistemas de comando e controle nuclear, invocando o dilema conhecido como o “enigma do Exterminador do Futuro” nos círculos políticos. No entanto, também usaram a justificativa da grande rivalidade de poder com a China para argumentar a favor de aumentar a aposta em uma corrida armamentista de IA, espelhando a retórica da corrida armamentista nuclear com a União Soviética durante a Guerra Fria. Em setembro, a China lançou um show de luzes com um enxame de drones de dez mil unidades na cidade de Shenzhen. Os drones, controlados por uma combinação de sistemas de bordo e IA de enxame remoto e assemelhando-se a um murmúrio de estorninhos, exibiram ondas de cores perfeitamente sincronizadas e imagens em movimento no céu noturno. Imaginar o que a armamentização de um enxame de drones dessa magnitude pela China pode prenunciar provavelmente acelerará a própria adoção de IA pelos militares dos EUA no lançamento de frotas de drones em tais escalas, independentemente do risco assumido. O vice-secretário de defesa, Robert Work, levantou essa mesma questão em 2021, perguntando: “Se nossos concorrentes recorrerem aos Terminators… e descobrirem que eles conseguem tomar decisões mais rapidamente, mesmo que sejam ruins, como responderíamos?”
E como a conduta de Israel demonstrou, os Estados já estão entusiasticamente incorporando IA e robôs assassinos autônomos em suas capacidades militares, enquanto publicamente negam sua existência. Para um Estado que já é acusado de crimes de guerra, limpeza étnica e até genocídio, e está atualmente sob investigação pelo Tribunal Internacional de Justiça da ONU e pelo Tribunal Penal Internacional, Israel parece tão imperturbável pelo rápido declínio de seu status internacional, que zomba com sua alegação de possuir “o exército mais moral do mundo”. De fato, Israel demonstrou desrespeito desenfreado pelas proteções civis e liderou o caminho no uso de máquinas desumanas contra aqueles que, para início de conversa, são considerados não totalmente humanos. Como o veterano jornalista israelense Gideon Levy disse recentemente, “Não há dúvidas morais quando você desumaniza os palestinos”. A ironia certamente morreu quando o fabricante israelense Elbit Systems escolheu nomear um novo drone armado com capacidades autônomas de “buscar e atacar” como TerminaTHOR.
Parece que um aviso fictício de quarenta anos sobre os perigos representados por máquinas autônomas letais teve muito pouco efeito em impedir que essa visão distópica se tornasse nossa nova realidade. Como a especialista em ética do design de tecnologia Sasha Costanza-Chock escreveu recentemente: “Se você está especulando publicamente sobre como os sistemas de IA podem um dia exterminar todos nós, talvez seja preciso criticar como os sistemas de IA estão sendo usados agora para exterminar os palestinos”.
Colaborador
Um sistema secundário de IA chamado Lavender foi usado para atingir pessoas em vez de infraestrutura. Operando com apenas uma supervisão humana superficial e empregando algoritmos que friamente consideram uma taxa assustadoramente alta de vítimas civis como danos colaterais “aceitáveis”, a ferramenta de IA “identificou” impressionantes 37.000 palestinos como militantes, efetivamente assinando suas sentenças de morte. Um terceiro sistema de IA foi usado para rastrear os movimentos de indivíduos sinalizados pelo Lavender, mas foi instruído a apenas ordenar ataques aéreos quando os alvos retornassem para casa com suas famílias à noite. O sistema de IA, que inevitavelmente matou as famílias, crianças e, às vezes, vizinhos ao lado do alvo, foi grotescamente chamado de “Onde está o papai?”
Grande parte dessa tecnologia de guerra de IA permanece em segredo, surgindo apenas como resultado dos esforços de corajosos jornalistas israelenses e informantes militares ou quando a tecnologia falha publicamente. Em novembro de 2023, o poeta palestino de renome internacional Mosab Abu Toha foi preso na passagem de fronteira de Rafah enquanto tentava fugir com sua família. Enquanto esperava para cruzar o posto de controle militar, ele e centenas de outros palestinos foram selecionados e separados de suas famílias e outros refugiados. Mosab lembrou-se de ter ficado completamente perplexo pelo fato de ter sido convocado usando seu nome completo, Mosab Mostafa Hasan Abu Toha, embora ainda não tivesse mostrado sua identidade aos soldados. “Como eles sabiam meu nome?”, ele ponderou. Mosab foi então levado para uma prisão israelense no Negev, onde foi espancado e torturado, antes de ser libertado sem cerimônia alguns dias depois. Seu “crime”, revelado mais tarde, foi sua identificação incorreta como militante pelo software de reconhecimento facial de IA da IDF, que estava sendo usado em conjunto com o Google Fotos.
O futuro do Exterminador é agora
Várias iniciativas internacionais louváveis tentaram proibir ou restringir sistemas de armas autônomos, incluindo uma coalizão de mais de 250 organizações da sociedade civil na campanha Stop Killer Robots; plataformas de discussão global como a Responsible Artificial Intelligence in the Military Domain Summit (REAIM); e apoio entusiasmado à adoção de uma resolução relacionada à IA e autonomia em sistemas de armas nas Nações Unidas pelo segundo ano consecutivo. Apesar dessas intervenções promissoras, pode já ser tarde demais para deter a ascensão inexorável de robôs assassinos sencientes.
Os Estados Unidos garantiram que a IA não será usada em seus sistemas de comando e controle nuclear, invocando o dilema conhecido como o “enigma do Exterminador do Futuro” nos círculos políticos. No entanto, também usaram a justificativa da grande rivalidade de poder com a China para argumentar a favor de aumentar a aposta em uma corrida armamentista de IA, espelhando a retórica da corrida armamentista nuclear com a União Soviética durante a Guerra Fria. Em setembro, a China lançou um show de luzes com um enxame de drones de dez mil unidades na cidade de Shenzhen. Os drones, controlados por uma combinação de sistemas de bordo e IA de enxame remoto e assemelhando-se a um murmúrio de estorninhos, exibiram ondas de cores perfeitamente sincronizadas e imagens em movimento no céu noturno. Imaginar o que a armamentização de um enxame de drones dessa magnitude pela China pode prenunciar provavelmente acelerará a própria adoção de IA pelos militares dos EUA no lançamento de frotas de drones em tais escalas, independentemente do risco assumido. O vice-secretário de defesa, Robert Work, levantou essa mesma questão em 2021, perguntando: “Se nossos concorrentes recorrerem aos Terminators… e descobrirem que eles conseguem tomar decisões mais rapidamente, mesmo que sejam ruins, como responderíamos?”
E como a conduta de Israel demonstrou, os Estados já estão entusiasticamente incorporando IA e robôs assassinos autônomos em suas capacidades militares, enquanto publicamente negam sua existência. Para um Estado que já é acusado de crimes de guerra, limpeza étnica e até genocídio, e está atualmente sob investigação pelo Tribunal Internacional de Justiça da ONU e pelo Tribunal Penal Internacional, Israel parece tão imperturbável pelo rápido declínio de seu status internacional, que zomba com sua alegação de possuir “o exército mais moral do mundo”. De fato, Israel demonstrou desrespeito desenfreado pelas proteções civis e liderou o caminho no uso de máquinas desumanas contra aqueles que, para início de conversa, são considerados não totalmente humanos. Como o veterano jornalista israelense Gideon Levy disse recentemente, “Não há dúvidas morais quando você desumaniza os palestinos”. A ironia certamente morreu quando o fabricante israelense Elbit Systems escolheu nomear um novo drone armado com capacidades autônomas de “buscar e atacar” como TerminaTHOR.
Parece que um aviso fictício de quarenta anos sobre os perigos representados por máquinas autônomas letais teve muito pouco efeito em impedir que essa visão distópica se tornasse nossa nova realidade. Como a especialista em ética do design de tecnologia Sasha Costanza-Chock escreveu recentemente: “Se você está especulando publicamente sobre como os sistemas de IA podem um dia exterminar todos nós, talvez seja preciso criticar como os sistemas de IA estão sendo usados agora para exterminar os palestinos”.
Colaborador
Akil Awan é diretor do Conflict, Violence and Terrorism Research Centre e professor associado na Royal Holloway, University of London. Seu próximo livro é intitulado America's War on Democracy: A Global History of US Coups, Regime Change and State Terror.
Nenhum comentário:
Postar um comentário