27 de julho de 2015

"Robôs assassinos" com AI devem ser proibidos, exortam Stephen Hawking, Noam Chomsky e milhares de outros em carta aberta

A carta afirma que máquinas de matar totalmente autônomas poderiam tornar-se uma realidade dentro de "anos, não décadas"

Doug Bolton

The Independent

Créditos: Joern Haufe / Getty.

Tradução / Mais de mil cientistas, especialistas em robótica e pesquisadores em inteligência artificial (IA) — entre eles o físico Stephen Hawking, o tecnólogo Elon Musk, o filósofo Noam Chomsky — acabam de assinar uma carta aberta pedindo a proibição de “armas autônomas ofensivas”, ou, como são melhor conhecidas, os “robôs assassinos”.

Outros signatários incluem co-fundador da Apple Steve Wozniak, e centenas de AI e pesquisadores de robótica das universidades top-flight e laboratórios em todo o mundo.

A carta, divulgada pelo Institute Future of Life, um grupo que trabalha para mitigar “riscos existenciais enfrentados pela humanidade”, alerta para o perigo de iniciar uma “corrida armamentista militar de inteligência artificial”.

O conceito “armas robóticas” pode incluir drones armados que conseguem localizar e matar determinadas pessoas com base em programação — um passo adiante da geração atual de drones, pilotados por seres humanos que frequentemente encontram-se milhares de quilômetros distantes da zona de guerra.

A carta dos diz: “A tecnologia de IA atingiu um ponto em que a implantação desse sistema é — praticamente, se não legalmente — factível dentro de alguns anos.”

Acrescenta que armas autônomas “têm sido descritas como a terceira revolução da indústria bélica, depois da pólvora e das armas nucleares”.

Diz que o Instituto vê o “grande potencial [da inteligência artificial] para beneficiar a humanidade de várias maneiras” — mas acredita que o desenvolvimento de armas robóticas, ao contrário, seria útil para terroristas, ditadores brutais e os grupos interessados em executar “limpezas” étnicas.

As armas a que o texto se refere ainda não existem de verdade, mas a tecnologia que permitiria construí-las e colocá-las em uso não está longe. Os que se opõem a isso, como os signatários da carta, acreditam que, ao eliminar o risco de mortes humanas entre os exércitos agressores, as armas robóticas (a tecnologia para chegar a elas vai se tornar barata e onipresente, nos próximos anos), rebaixaria o desgaste que significa fazer guerras – o que iria torná-las muito mais comuns.

No ano passado, a Coreia do Sul revelou possuir armas deste tipo — robôs-sentinela armados, atualmente instalados ao longo da fronteira com a Coreia do Norte. Suas câmeras e sensores de calor possibilitam que detectem e rastreiem serem humanos automaticamente, mas as máquinas necessitam de um operador humano para disparar suas armas.

Parece muito futurista, mas esse campo da tecnologia está avançando a passos largos, e a oposição ao uso bélico de IA começou a crescer.

A carta alerta também sobre o risco de as novas armas prejudicarem, entre a opinião pública, a imagem da inteligência artificial — cujos usos pacíficos podem trazer benefícios significativos à humanidade. A construção de armas robóticas, avisa o texto, pode multiplicar a oposição pública à IA, restringindo seus benefícios genuínos.

A Campanha para Deter os Robôs Assassinos, um movimento iniciado em 2012 por uma rede de ONGs que inclui o Human Rights Watch, trabalha pela proibição preventiva de armas robóticas.

Atualmente, age para levar a questão das armas robóticas à Convenção de Armas Convencionais em Genebra, grupo ligado à ONU que busca proibir o uso de certas armas convencionais tais como minas terrestres e armas a laser, preventivamente proibidas em 1995.

A Campanha reivindica que a Convenção crie um grupo de especialistas governamentais para debruçar-se sobre o tema, com o propósito de conseguir a proibição desse tipo de armamento.

No início deste ano, o Reino Unidos opôs-se à proibição de robôs assassinos numa conferência da ONU. Um funcionário do ministério das Relações Exteriores afirmou ao The Guardian que “não vê necessidade da proibição” de armas autônomas, e que seu país não as está desenvolvendo.

Nenhum comentário:

Postar um comentário