Building peace in the minds of men and women

Grande Angular

A ameaça dos robôs assassinos

cou_03-18_ratnik_01.jpg

A opinião pública se mobiliza cada vez mais contra o desenvolvimento de armas letais autônomas.

A Inteligência Artificial (IA) possui um número crescente de aplicações nas áreas militar e de segurança. Ela facilita manobras em campo, e pode salvar vidas quando as situações se complicam. Ela também impulsiona o desempenho de exércitos, oferecendo aliados robóticos para combater forças. De acordo com especialistas, os Sistemas de Armas Autônomos Letais (LAWS) estão criando uma “terceira revolução bélica”, depois da pólvora e das armas nucleares. É tempo de começar a se preocupar com o dia em que exércitos de robôs serão capazes de conduzir conflitos com autonomia completa, sem humanos para comandá-los.

Vasily Sychev

Muitas empresas ao redor do mundo estão conduzindo pesquisas científicas vitais no campo da IA. Os resultados até agora têm sido excelentes – a IA aprendeu a prever o risco de uma pessoa desenvolver diabetes com o uso de um relógio inteligente, ou de diferenciar, com base na aparência, entre pintas e certos tipos de câncer. Esta ferramenta poderosa, que ultrapassa a inteligência humana em virtude de uma de suas características mais importantes, a velocidade, é também de interesse dos militares.

Graças ao desenvolvimento das tecnologias da informação, os sistemas bélicos do futuro se tornarão mais autônomos que os sistemas utilizados atualmente. Por um lado, este empoderamento trará, sem dúvidas, uma assistência valiosa aos combatentes. Por outro lado, trará sua parcela de desafios e riscos – e poderá desencadear corridas bélicas entre os países, falta de regras e leis em zonas de combate e irresponsabilidade na tomada de decisões. Hoje, muitos empreendedores, elaboradores de políticas e cientistas procuram proibir o uso de sistemas bélicos autônomos, embora as autoridades militares insistam que em combate, a decisão final – a de matar ou não matar – será sempre tomada por um ser humano.

Nós queremos acreditar nisto. Mas devemos nos lembrar que as armas nucleares – que nunca deveriam ter visto a luz do dia, e que enfrentaram oposição em sua primeira fase de concepção – foram, entretanto, de fato bastante utilizadas.

Um assistente virtual

Assim como em todas as outras esferas de atividade humana, a IA poderá facilitar e acelerar enormemente o trabalho no campo da segurança. Por exemplo, pesquisadores da Universidade de Granada, na Espanha, estão desenvolvendo um software que utiliza redes neurais para detectar armas pequenas – pistolas, metralhadoras e submetralhadoras – em imagens de vídeo, quase instantaneamente e com alta precisão. Sistemas modernos de segurança incluem um grande número de câmeras de vigilância cujos operadores simplesmente não conseguem observar todas as imagens. A IA, portanto, é muito útil para analisar tais imagens, detectando a presença de armas e informando os agentes em tempo recorde.

Em outro exemplo, o Centro de Inteligência Geoespacial (CGI) na Universidade do Missouri nos Estados Unidos desenvolveu um sistema de IA capaz de localizar rapidamente e com precisão dispositivos de mísseis antiaéreos em imagens aéreas e de satélite. A capacidade de pesquisa do sistema chega a ser até 80 vezes mais rápida do que a de especialistas humanos. Para formar a rede neural base para este sistema, fotografias representando tipos diferentes de mísseis antiaéreos foram utilizadas. Uma vez que o sistema foi treinado, ele foi testado em um conjunto de fotos. Em apenas 42 minutos, ele encontrou 90 % dos dispositivos de defesa. Os especialistas humanos levaram 60 horas de trabalho para resolver o mesmo problema, chegando ao mesmo resultado. 

Também existem aplicações mais complexas da IA. O Laboratório de Pesquisa do Exército dos Estados Unidos (ARL), por exemplo, está desenvolvendo um sistema de computador que analisa a resposta humana a uma dada imagem. Isto será útil a analistas militares, que precisam ver e sistematizar milhares de fotos e horas de gravações de vídeo. O princípio do sistema: a IA rastreia os olhos e rosto da pessoa e compara as expressões faciais com as imagens que as pessoas estão olhando. Se uma imagem prende a atenção da pessoa (quer dizer, se a expressão facial ou a direção do seu olhar mudam), o software automaticamente move-a para uma pasta temática. Durante os testes, um soldado foi exposto a um conjunto de imagens divididas em cinco categorias principais: barcos, ursos panda, frutas vermelhas, borboletas e candelabros. Foi pedido que ele contasse apenas as imagens das categorias em que estava interessado. As imagens se moviam à velocidade de um por segundo. A IA “concluiu” que o soldado estava interessado na categoria barcos e copiou estas imagens para uma pasta separada.


Desenho inicialmente criado para ser publicado em "Crisis in Zefra", uma narrativa ficcional de Karl Schroeder, entrevistado nesta edição de "O Correio".

No campo de combate

A IA também pode ajudar soldados em combate. Na Rússia, por exemplo, o desenvolvimento da 5ª geração do caça a jato Sukhoi Su-57 está quase completa: o avião poderá ser encomendado antes do fim de 2018. O software do computador de bordo deste avião contém elementos de IA. Desta forma, em voo, o caça está analisando constantemente a qualidade do ar, sua temperatura, sua pressão e muitos outros parâmetros. Se o piloto faz uma manobra e o sistema “estima” que a ação causará um acidente, o comando do piloto será ignorado. Se o avião começa a girar, o mesmo sistema dirá ao piloto como endireitar o avião e ganhar o controle novamente.

Enquanto isso, o Japão está desenvolvendo sua própria 5ª geração de caças. Seu protótipo de pesquisa, o X-2 Shinshin (“Espírito do Coração” em japonês), fez seu primeiro voo em abril de 2016. Uma vasta rede de sensores, que analisarão as condições de cada componente da aeronave para determinar qualquer dano que tenha sofrido, garantirão sua “sobrevivência”. Se, durante o combate, uma asa ou cauda da aeronave for danificada, seu sistema de controle será reconfigurado para que a sua capacidade de manobra e velocidade continuem virtualmente inalteradas. O computador do caça japonês poderá prever o exato momento em que um elemento danificado falhará por completo, para que o piloto possa decidir se continua o combate ou se retorna à base .

Dessa forma, a IA é “enviada por Deus” – se é que tal termo possa ser usado para armas e sistemas de combate. Um programa complexo capaz de resolver um problema particular perfeitamente – dez vezes mais rápido que um humano poderia – não apenas facilita o trabalho de uma aeronave de reconhecimento, de um operador de drone ou de um comandante do sistema de defesa aérea, mas também poderá salvar vidas. Ele poderá salvar membros da tripulação a bordo de um submarino em perigo (apagando chamas remotamente em compartimentos abandonados por humanos), pilotos de avião ou operadores de veículos armados danificados.

Robôs assassinos

A velocidade de análise e habilidade de aprender fazem da IA um sistema de combate atraente. Os militares, embora ainda não admitam, estão provavelmente tentados a criar sistemas de combate capazes de operar no campo de batalha de maneira inteiramente autônoma, o que significa poder identificar um alvo, abrir fogo contra ele, mover-se e escolher trajetórias perfeitas, permitindo que cheguem até um lugar seguro.

Há alguns anos, as autoridades militares da China, Alemanha, Rússia, Estados Unidos e diversos outros países anunciaram que a criação de sistemas de combate integralmente autônomos não era seu objetivo. Ao mesmo tempo, as forças militares observaram que tais sistemas provavelmente serão criados.

Em 2017, o Departamento de Defesa dos Estados Unidos completou e começou a implementar a Third Offset Strategy. Ela envolve, entre outras coisas, o desenvolvimento ativo de tecnologias e conceitos de última geração e seu uso em futuras iniciativas militares.

No dia 1º de setembro de 2017, o presidente russo Vladimir Putin declarou em uma palestra pública em Yaroslavl que “a inteligência artificial é o futuro, não apenas para a Rússia, mas para toda a humanidade. Ela vem com oportunidades colossais, mas também ameaças que são difíceis de se prever atualmente. Quem quer que se torne o líder nesta área se tornará o líder do mundo”. Ele acrescentou que seria “altamente indesejável que qualquer um ganhe seu monopólio. Então, se nos tornarmos líderes nesta área, nós compartilharemos estas tecnologias com todo o mundo”. Mas isso não significaria que estamos entrando no início de uma nova era de corridas bélicas?

No planeta, há um número crescente de áreas protegidas de forma confiável por sistemas antimísseis e antiaéreos, monitoradas por satélites e sistemas automatizados, e patrulhadas por navios e aeronaves. Nas mentes dos militares, apenas sistemas de combate com IA poderão, no caso de guerras, penetrar nestas áreas fechadas e operar com uma relativa liberdade.

Atualmente, já existem sistemas de combate capazes de detectar e classificar seus alvos, e de controlar o disparo de mísseis antiaéreos, tal como os sistemas de míssil terra-ar de defesa S-400 da Rússia. O Sistema de Combate Norte-americano Aegis, que controla o armamento de navios de guerra, funciona da mesma forma. Pela zona desmilitarizada, na fronteira com a Coreia do Norte, a Coreia do Sul posicionou diversos robôs militares SGR-A1 encarregados da vigilância. Em modo automático, eles podem abrir fogo contra o inimigo, embora ele não vá atirar em pessoas que estejam com as mãos para cima. Nenhum destes sistemas é utilizado pelos militares em modo automático.

Os últimos avanços no desenvolvimento da IA poderão criar sistemas de combate capazes de se mover. Dessa forma, nos Estados Unidos, aeronaves automatizadas estão sendo desenvolvidas para voar atrás de aviões de combate operados por humanos e atingir alvos aéreos ou terrestres sob comando.

O sistema de controle de fogo do tanque T-14 de nova geração da Rússia, que se baseia na plataforma universal Armata, será capaz de detectar autonomamente alvos e bombardeá-los até que a destruição seja completa. A Rússia também está trabalhando simultaneamente em uma família de robôs rastreáveis que poderá participar em combates com soldados humanos.

Para os exércitos, todos estes sistemas serão utilizados para atuar em diversas funções básicas, e mais importante, para destruir alvos inimigos de maneira mais eficiente e salvar vidas de seus próprios soldados. Ao mesmo tempo, ainda não existem padrões internacionais ou documentos legais para regular o uso de sistemas de combate equipados com IA em guerra. Nem as leis de guerra (Laws and Customs of War on Land) nem as Convenções de Genebra definem quais sistemas de IA podem ser usados em combate e quais não podem. Também não há nenhuma legislação internacional que ajudaria a identificar aqueles responsáveis pela falha de um sistema autônomo. Se um drone bombardeia civis de maneira autônoma, quem será punido? Seu fabricante? O comandante do esquadrão ao qual ele foi destinado? O Ministro da Defesa? A corrente de acusados potenciais é muito longa e, como sabemos, quando existem muitos acusados, ninguém é culpado.

Em 2015, o Future of Life Institute com sede nos Estados Unidos, publicou uma carta aberta assinada por mais de 16 mil pessoas alertando para as ameaças que um sistema de combate com base em IA oferece aos civis, para os riscos de uma corrida bélica, e por último, para o perigo de um resultado fatal para a humanidade. A carta foi assinada, particularmente, pelo empresário americano e fundador da SpaceX e Tesla, Elon Musk, pelo astrofísico britânico Stephen Hawking (1942-2018) e pelo filósofo americano Noam Chomsky. Em agosto de 2017, Musk e cerca de 100 desenvolvedores de sistemas de robótica e IA enviaram uma petição aos Estados Unidos pedindo pelo banimento total do desenvolvimento e dos testes de armamentos ofensivos autônomos.

Estes especialistas acreditam que a criação de exércitos de robôs, capazes de conduzir ofensivas de forma autônoma, levará inevitavelmente ao surgimento de um sentimento de poder absoluto e impunidade. Além disso, quando humanos estão em uma situação de conflito, eles tomam decisões que incluem, entre outras coisas, suas atitudes morais, sentimentos e emoções. A observação direta do sofrimento dos outros ainda possui um efeito de dissuasão em um grupo militar, mesmo entre soldados profissionais, a compaixão e a sensibilidade eventualmente diminuem. No caso da introdução generalizada de sistemas de armas autônomos letais, cujos efeitos podem ser desencadeados apenas por um movimento de dedos na tela de um tablet em outro continente, a guerra inevitavelmente se tornará nada mais que um jogo, com baixas civis e militares reduzidas a apenas números na tela.

Leia mais: 

The UN versus LAWS

Vasily Sychev

Especialista em armas e jornalista, Vasily Sychev (Federação da Rússia) escreve para publicações como o jornal Rossiyskaya Gazeta, a revista de negócios semanais russa Expert, o site independente de notícias russo Lenta.ru, e o jornal de defesa Military-Industrial Courier, a defence newspaper.  Ele também é chefe das seções “Armas” e “Aviação” no famoso jornal online de ciência N + 1.