A Rússia está recorrendo intensivamente às chamadas “munições Kamikaze” ou “drones kamikaze” contra a Ucrânia. Em termos funcionais, trata-se de um cruzamento entre um drone “comum” e um projétil. Estas munições podem, teoricamente, fazer bombardear uma determinada área, procurando e determinando o alvo de forma independente.
São estes dispositivos geralmente descritos pela expressão “inteligência artificial” (IA). Mas, na realidade, o ” drone kamikaze” não é assim tão inteligente e o alcance da IA em matéria militar é muito mais vasto.
A inteligência artificial apareceu recentemente?
Nem por isso. O próprio termo “inteligência artificial” tem sido utilizado em relação a software real desde os anos 50. O problema é que não existe uma definição clara. No século passado, “inteligência artificial” era o nome dado às funcionalidades que qualquer smartphone tem hoje em dia.
As armas “inteligentes” também apareceram no século passado. Na época, existiam, por exemplo, sistemas de orientação para mísseis e munições, que tornavam possível selecionar e definir prioridades “independentemente” de um alvo, entre vários, sem intervenção humana; ou os sistemas de defesa aérea e de defesa antimísseis dos navios que, em caso de falta de tempo para uma tomada de decisão por parte de uma pessoa, poderiam, eles próprios, disparar contra o que considerassem ser um míssil que ameaçasse o navio; ou, por exemplo, a semimítica “mão morta”, um sistema que pode dar um comando para um ataque nuclear retaliatório, se considerar que as pessoas que o controlam já morreram.
Mas, desde o início deste século, a evolução da IA tem avançado em ritmo acelerado, como todas as outras áreas da TI (Tecnologia da Informação).
Segundo as Nações Unidas, o primeiro caso, registrado, de um sistema autônomo a matar uma pessoa sem a participação de um operador ocorreu na primavera de 2020, na Líbia. A seguir, as tropas do Governo de Acordo Nacional utilizaram drones autônomos, de fabricação turca, contra soldados que apoiaram o Marechal Khalifa Haftar.
“Não é uma tecnologia única, mas uma ferramenta facilitadora. É como falar de eletricidade. Da mesma forma que a eletricidade tem diferentes aplicações a IA permite acrescentar algumas tecnologias de forma a torná-las, potencialmente, mais eficientes, mais baratas, mais compactas, mais autônomas”.
Como é que os militares utilizam a IA?
De acordo com o Instituto de Investigação da Paz de Estocolmo, não existem, praticamente, áreas de atividades militares em que a IA não possa ser utilizada. Os drones são apenas um caso específico.
Segundo os analistas, até 2028, o volume de mercado no campo militar, associado à IA, ultrapassará os 13,7 mil milhões de dólares americanos. Ao mesmo tempo, diferentes países têm diversos níveis de saturação com estes sistemas.
Mas que aplicações de IA podemos ver já no campo de batalha? De acordo com Vincent Boulanin, o aspeto mais conhecido é o dos sistemas de combate autônomos, ou drones. Podem ser veículos voadores, como o Bayraktar turco, veículos terrestres, sob a forma de um pequeno tanque ou porta-contentores blindados, e veículos marítimos.
Estes dispositivos podem “caçar” equipamento inimigo e soldados, de forma independente, numa determinada zona; podem detectar alvos, independentemente, e escolher o mais importante entre eles.
O reconhecimento facial ou de alvos e o futuro da IA
A forma mais comum de utilização da IA, no setor militar e civil, é a mesma: a análise de enormes bases de dados, substituindo as pessoas em atividades por vezes enfadonhas e monótonas, quando, por exemplo, é necessário procurar num grande número de fotografias aéreas para encontrar o objeto certo. São utilizados os mesmos esquemas, por exemplo, nos sistemas de reconhecimento facial nas ruas.
A detecção e análise de possíveis ameaças será o caminho a seguir na evolução da IA, em termos militares. Poderão vir a fazer-se recomendações, com base em dados, muito mais rapidamente do que um humano. Além disso, a IA, em teoria, é desprovida do “preconceito” inerente aos comandantes humanos, e não tem problemas inerentes à visão o que é, particularmente, importante em combate.
A IA é capaz não só de avaliar a situação no campo de batalha, mas também, dentro de certos limites, de “prever o futuro” com base na experiência das ações do inimigo.
A IA pode controlar uma batalha como num jogo de computador?
A IA pode “simular” o funcionamento de novos equipamentos militares, novos dispositivos e mesmo novos conceitos táticos, o que reduz o custo e o tempo para organizar testes reais. Mas não o que pode fazer, em termos militares, é ainda residual. Todos os programas, que podem ser classificados como IA para aplicações militares, executam uma gama muito limitada de tarefas. Alguns analisam a situação, outros controlam os drones autônomos, outros podem, de fato, fazer previsões e dar “conselhos” aos comandantes. Em algumas condições – sobretudo quando é preciso agir rapidamente – a IA pode “tomar uma decisão” por si própria.
Mas ligar tudo isto a um único plano de batalha é ainda uma tarefa humana. Nem os militares nem os civis confiam o suficiente na IA para lhe permitir “lutar independentemente” numa guerra ou mesmo numa única batalha. Por detrás do “console mais importante”, há sempre um ser humano.
Os riscos da aplicação da IA ao setor militar
De acordo com Vincent Boulanin, existem três níveis de risco associados à IA e ao seu uso em assuntos militares. O primeiro é tecnológico. A IA é concebida de forma que mesmo os próprios criadores nem sempre possam rastrear as ligações lógicas e compreender por que é que o robô “tomou” esta ou aquela decisão. Isto chama-se o “problema da caixa negra”. Por conseguinte, nem os civis nem os militares podem, estritamente falando, confiar plenamente nas decisões da IA. Devido a isso, há sempre pelo menos um risco teórico de que o robô tome uma medida que não se esperava dele. Isto pode ser evitado através de um desenvolvimento mais cuidadoso dos algoritmos. Existem algoritmos completamente “transparentes”, mas nem sempre são aplicáveis.
O segundo nível é como a IA pode mudar a maneira como organizamos guerras e conflitos. Será que pode ser mais fácil para os humanos dar ordens para matar se sentirem que não é uma ameaça à vida, visto que existem apenas ou principalmente robôs no campo de batalha?
Isto levanta problemas humanitários de grande escala. Os civis estarão na linha de fogo. Em primeiro lugar, distinguir um civil de um militante ainda é extremamente difícil. Em segundo lugar, o risco de catástrofes humanitárias aumentará porque crescerá o risco de novos conflitos, já que começar uma “guerra de robôs”, em termos morais, pode ser muito mais fácil.
Segundo Boulanin, é preciso ensinar os militares a não confiarem demais na IA, a não pensarem que este é um “robô que nunca erra”, mas um sistema comum feito pelo homem, que tem suas limitações e suas desvantagens. Afinal, um robô, como um humano, toma decisões com base em determinados dados, que podem revelar-se incompletos, errados ou deliberadamente distorcidos.
“Há coisas que os próprios militares podem fazer em termos de tomar medidas para reduzir os riscos, em termos de treinar as pessoas que vão usar esses sistemas ou decidir não adotar um determinado sistema, porque o risco de acidente pode ser muito alto, ou seja, estamos falando de autocontenção e avaliações de risco”, afirma Boulanin.
O terceiro nível é a possibilidade de distribuição mais ampla de tais sistemas. A IA é, de fato, uma “tecnologia de uso duplo”. É amplamente utilizada na esfera civil, sendo muito fácil para os especialistas adaptarem os códigos públicos para uso militar.
“Não é como a tecnologia nuclear, você não pode simplesmente comprar uma arma nuclear na esquina. E é muito fácil desenvolver aplicações de IA. Os dados já estão lá. Os métodos estão lá. Existem engenheiros qualificados em todo o mundo. Então, o risco potencial é que, para desenvolver a IA militar, seja necessário muito pouco, ou seja, os malfeitores podem facilmente obter acesso a essa tecnologia.”
Reduzir esse risco é muito difícil, pois exigirá certos acordos restritivos a nível internacional. E estes, em primeiro lugar, podem entrar em conflito com a liberdade de disseminação de informações, quando se trata de IA “pacífica”; e, em segundo lugar, para os invasores não importam este tipo de documentos.
Será que os robôs vão substituir os soldados?
Até agora, não há qualquer robô que possa substituir um atirador com uma metralhadora. Mas em muitos outros aspetos, a IA já pode ser aplicada de forma mais ampla. Em última análise, a resposta final a esta questão é ética.
Os políticos e os comandantes militares congratulam-se com a implementação da IA ou estão preocupados?
“Algumas pessoas são pragmáticas. Se a IA pode teoricamente ajudar a reduzir as baixas civis, por que não as usar? Para outras não é normal automatizar tais decisões, mesmo que isso possa ser eficaz nalguns aspectos. Não vão querer fazer isso, porque têm esse princípio ético.”
O conceito de tomada de decisão por parte dos comandantes já está mudando. Em primeiro lugar, essas decisões serão tomadas muito mais rapidamente e, em geral, isso pode acelerar o curso dos conflitos armados. Os comandantes confiarão mais nos “conselhos” da IA, e isso acarreta os riscos já mencionados anteriormente.
Qual é o ponto de vista legal em relação à IA?
Do ponto de vista do direito internacional, as “leis e costumes da guerra”, a IA não se destaca em nada. Um drone controlado por IA não é diferente de um míssil com um sistema de orientação “normal” ou de uma bomba não guiada. Se estivermos falando, por exemplo, de crimes de guerra, as pessoas ainda serão responsáveis por eles, mesmo que a “decisão tenha sido tomada” pelo drone.
Por Arnaud Rodrigues, de Portugal.