Parece algo saído da ficção científica: enxames de robôs assassinos que caçam alvos por conta própria e são capazes de voar para matar sem qualquer sinal humano.
Mas isso é aproximando-se da realidade à medida que os Estados Unidos, a China e um punhado de outras nações fazem progressos rápidos no desenvolvimento e implantação de novas tecnologias com potencial para remodelar a natureza da guerra, transferindo as decisões de vida ou morte para drones autônomos equipados com programas de inteligência artificial.
Esta perspectiva é tão preocupante para muitos outros governos que estão a tentar chamar a atenção para ela com propostas nas Nações Unidas para impor regras juridicamente vinculativas sobre a utilização daquilo que os militares chamam de armas letais autónomas.
“Este é realmente um dos pontos de inflexão mais significativos para a humanidade”, disse Alexander Kmentt, negociador-chefe da Áustria sobre a questão, numa entrevista. “Qual é o papel dos seres humanos no uso da força? É uma questão de segurança absolutamente fundamental, uma questão legal e uma questão ética.”
Mas embora a ONU forneça uma plataforma para os governos expressarem as suas preocupações, parece pouco provável que o processo resulte em novas restrições substanciais juridicamente vinculativas. Os Estados Unidos, a Rússia, a Austrália, Israel e outros argumentaram que não é necessária nenhuma nova lei internacional por enquanto, enquanto a China quer definir qualquer limite legal tão restrito que teria pouco efeito prático, dizem os defensores do controlo de armas.
O resultado foi amarrar o debate num nó processual, com poucas possibilidades de progresso num mandato juridicamente vinculativo num futuro próximo.
“Não vemos que este seja realmente o momento certo”, disse Konstantin Vorontsov, vice-chefe da delegação russa nas Nações Unidas, aos diplomatas que estavam recentemente amontoados numa sala de conferências na cave da sede da ONU em Nova Iorque.
O debate sobre os riscos da inteligência artificial atraiu nova atenção nos últimos dias com a batalha pelo controlo da OpenAI, talvez a empresa líder mundial em IA, cujos líderes pareciam divididos sobre se a empresa está a ter suficientemente em conta os perigos da tecnologia. E na semana passada, responsáveis da China e dos Estados Unidos discutiram uma questão relacionada: potenciais limites à utilização da IA nas decisões sobre a implantação de armas nucleares.
Neste contexto, a questão de saber quais os limites que devem ser impostos à utilização de armas letais autónomas assumiu uma nova urgência e, por enquanto, resume-se a saber se é suficiente que a ONU adopte simplesmente directrizes não vinculativas, a posição apoiada pelo Estados Unidos.
“A palavra ‘deve’ será muito difícil para a nossa delegação aceitar”, disse Joshua Dorosin, o principais acordos internacionais oficial do Departamento de Estado, contado outros negociadores durante um debate em maio sobre a linguagem das restrições propostas.
Dorosin e membros da delegação dos EUA, que inclui um representante do Pentágono, argumentaram que, em vez de uma nova lei internacional, a ONU deveria esclarecer que as leis internacionais existentes sobre direitos humanos já proíbem as nações de usar armas que tenham como alvo civis ou que causem um desproporcional quantidade de dano a eles.
Mas a posição assumida pelas grandes potências apenas aumentou a ansiedade entre as nações mais pequenas, que dizem estar preocupadas com a possibilidade de armas letais autónomas se tornarem comuns no campo de batalha antes de haver qualquer acordo sobre as regras para a sua utilização.
“A complacência já não parece ser uma opção”, disse o embaixador Khalil Hashmi do Paquistão durante uma reunião na sede da ONU. “A janela de oportunidade para agir está a diminuir rapidamente à medida que nos preparamos para um avanço tecnológico.”
Os rápidos avanços na inteligência artificial e o uso intenso de drones em conflitos na Ucrânia e o Médio Oriente combinaram-se para tornar a questão ainda mais urgente. Até agora, os drones geralmente dependem de operadores humanos para realizar missões letais, mas está sendo desenvolvido software que em breve lhes permitirá encontrar e selecionar alvos por conta própria.
O intenso bloqueio de comunicações de rádio e GPS na Ucrânia só acelerou a mudança, já que os drones autônomos muitas vezes podem continuar operando mesmo quando as comunicações são cortadas.
“Este não é o enredo de um romance distópico, mas uma realidade iminente”, disse Gaston Browne, primeiro-ministro de Antígua e Barbuda. contado autoridades em uma recente reunião da ONU.
Funcionários do Pentágono deixaram claro que estão se preparando para implantar armas autônomas em grande escala.
Vice-secretária de Defesa, Kathleen Hicks anunciado neste verão que as forças armadas dos Estados Unidos irão “colocar em campo sistemas autônomos e atribuíveis em escala de vários milhares”, nos próximos dois anos, dizendo que o impulso para competir com o próprio investimento da China em armas avançadas exige que os Estados Unidos “alavancem plataformas que sejam pequenas, inteligentes , barato e muitos.
O conceito de arma autônoma não é inteiramente novo. Minas terrestres – que detonam automaticamente – têm sido usadas desde o Guerra civil. Os Estados Unidos possuem sistemas de mísseis que dependem de sensores de radar para travar e atingir alvos de forma autônoma.
O que está a mudar é a introdução da inteligência artificial que poderá dar aos sistemas de armas a capacidade de tomar decisões por si próprios depois de receberem e processarem informações.
Os Estados Unidos já adotaram políticas voluntárias que estabelecem limites sobre como a inteligência artificial e as armas letais autônomas serão usadas, incluindo uma política do Pentágono revisada este ano chamada “Autonomia em Sistemas de Armas”E um Departamento de Estado relacionado“Declaração Política sobre o Uso Responsável da Inteligência Artificial e da Autonomia”, que apelou outras nações para abraçar.
As declarações políticas americanas “permitirão às nações aproveitar os benefícios potenciais dos sistemas de IA no domínio militar, ao mesmo tempo que encorajam medidas que evitem comportamentos irresponsáveis, desestabilizadores e imprudentes”. disse Bonnie Denise Jenkins, subsecretária do Departamento de Estado.
A política do Pentágono proíbe a utilização de qualquer nova arma autónoma ou mesmo o seu desenvolvimento, a menos que tenham sido aprovadas por altos funcionários do Departamento de Defesa. Essas armas devem ser operadas de forma geográfico definido área por períodos limitados. E se as armas forem controladas pela IA, os militares devem manter “a capacidade para desativar ou desativar sistemas implantados que demonstrem comportamento não intencional.”
Pelo menos inicialmente, será necessária a aprovação humana antes de serem tomadas medidas letais, disseram generais da Força Aérea em entrevistas.
Mas Frank Kendall, o secretário da Força Aérea, disse numa entrevista separada que estas máquinas acabarão por precisar de ter o poder de tomar medidas letais por si próprias, permanecendo sob supervisão humana na forma como são utilizadas.
“Decisões individuais versus não tomar decisões individuais são a diferença entre ganhar e perder – e você não vai perder,” ele disse. Ele acrescentou: “Não acho que as pessoas que enfrentaríamos fariam isso, e isso lhes daria uma enorme vantagem se impusermos essa limitação a nós mesmos”..”
Thomas X. Hammes, um oficial aposentado da Marinha que agora é pesquisador na Universidade de Defesa Nacional do Pentágono, disse em uma entrevista e em um recente ensaio publicado pelo Conselho do Atlântico que é um “imperativo moral que os Estados Unidos e outras nações democráticas” construam e utilizem armas autónomas.
Ele argumentou que “não fazê-lo num grande conflito convencional resultará em muitas mortes, tanto militares como civis, e potencialmente na perda do conflito”.
Alguns defensores do controle de armas e diplomatas discordam, discutindo que as armas letais controladas pela IA, que não têm humanos autorizando ataques individuais, transformarão a natureza do combate, eliminando o papel moral direto que os humanos desempenham nas decisões sobre tirar uma vida.
Estas armas de IA por vezes actuam de formas imprevisíveis e são susceptíveis de cometer erros na identificação de alvos, como carros sem condutor que sofrem acidentes, dizem estes críticos.
As novas armas também podem tornar mais provável o uso de força letal durante a guerra, uma vez que os militares que as lançam não colocariam imediatamente em risco os seus próprios soldados, ou poderiam levar a escalada mais rápidaargumentaram os oponentes.
Grupos de controle de armas como o Comitê Internacional da Cruz Vermelha e Stop Killer Robots, juntamente com delegações nacionais, incluindo Áustria, Argentina, Nova Zelândia, Suíça e Costa Ricater proposto uma variedade de limites.
Alguns procurariam globalmente banimento armas autônomas letais que visam explicitamente os humanos. Outros exigiria que estas armas permanecessem sob “controlo humano significativo” e que fossem utilizadas em áreas limitadas durante períodos de tempo específicos.
Kmentt, o diplomata austríaco, admitiu numa entrevista que a ONU tem tido dificuldade em fazer cumprir os tratados existentes que estabelecem limites sobre a forma como as guerras podem ser travadas. Mas ainda há necessidade de criar um novo padrão juridicamente vinculativo, disse ele.
“Só porque alguém sempre cometerá assassinato, isso não significa que não seja necessária legislação para proibi-lo”, disse ele. “O que temos no momento é que todo este campo está completamente desregulamentado.”
Mas Dorosin opôs-se repetidamente aos requisitos propostos que os Estados Unidos consideram demasiado ambíguos ou não estão dispostos a aceitar, como o apelo a que as armas estejam sob “controlo humano significativo”.
A delegação dos EUA língua preferida está “dentro de uma cadeia de comando humana responsável”.
Ele disse que é importante para os Estados Unidos que os negociadores “evite vagoterminologia abrangente.”
Sr. Vorontsov, o diplomata russo, tomou a palavra depois do Sr. Dorosin durante um dos debates e endossou a posição assumida pelos Estados Unidos.
“Entendemos que para muitas delegações a prioridade é o controle humano”, disse Vorontsov. “Para a Federação Russa, as prioridades são um pouco diferentes.”
Os Estados Unidos, a China e a Rússia também argumentaram que a inteligência artificial e as armas autónomas podem trazer benefícios ao reduzir as vítimas civis e os danos físicos desnecessários.
“Demonstrou-se que armas inteligentes que utilizam computadores e funções autónomas para mobilizar a força de forma mais precisa e eficiente reduzem os riscos de danos a civis e a bens civis”, disse a delegação dos EUA. argumentou.
Kmentt no início de novembro venceu amplo apoio um plano revisto que solicitava ao gabinete do secretário-geral da ONU que elaborasse um relatório sobre armas letais autónomas, mas deixou claro que, em deferência às grandes potências, as deliberações detalhadas sobre o assunto permaneceriam com um comité da ONU em Genebra, onde qualquer nação pode efetivamente bloquear o progresso ou forçar o enfraquecimento da linguagem.
Na semana passada, o comité com sede em Genebra concordou com o apelo da Rússia e de outras grandes potências para se darem até o final de 2025 continuar estudando o tema, disse um diplomata que participou do debate.
“Se esperarmos muito, vamos realmente nos arrepender”, disse Kmentt. “Em breve, será barato, facilmente disponível e estará em todo o lado. E as pessoas vão perguntar: por que não agimos rápido o suficiente para tentar impor limites quando tivemos oportunidade?”