top of page

ROBÔ ASSASSINO AUTÔNOMO ACUSADO DE ATACAR SOLDADOS

UM DRONE TOTALMENTE AUTÔNOMO PARECE TER SELECIONADO E ATACADO ALVOS SEM A SUPERVISÃO DO OPERADOR.


Fonte: Axios



Um comício em Berlim em 2019 para pressionar pelo banimento de armas autônomas. Crédito: Wolfgang Kumm / imagem aliança via Getty Images


A era dos robôs assassinos totalmente autônomos, capazes de identificar e engajar alvos sem supervisão humana, parece ter começado.

Um pequeno drone kamikaze de fabricação turca chamado STM Kargu-2 atacou soldados em retirada durante um conflito civil na Líbia, de acordo com um relatório recente do Conselho de Segurança das Nações Unidas pelo Painel de Peritos na Líbia. O relatório implica, mas não diz explicitamente, que o robô matou soldados humanos. Como Axios observa , o desenvolvimento nos leva a uma nova era preocupante em que a supervisão humana não é mais tecnicamente necessária para travar a guerra e acabar com vidas.


O relatório da ONU se refere ao drone Kargu-2 como uma “munição ociosa”, o que significa que estava pairando no local até que detectou um possível alvo. Nesse sentido, o drone autônomo foi implantado quase como uma mina terrestre aérea, pois poderia atacar um alvo que se aproximasse de uma certa proximidade sem supervisão humana.

“Comboios de logística e retirada [das Forças Afiliadas de Haftar] foram posteriormente caçados e remotamente envolvidos pelos veículos aéreos de combate não tripulados ou os sistemas de armas autônomas letais, como o STM Kargu-2 ... e outras munições vagabundeando", diz o relatório da ONU. “Os sistemas de armas autônomas letais foram programados para atacar alvos sem exigir conectividade de dados entre o operador e a munição: na verdade, uma verdadeira capacidade de 'atirar, esquecer e encontrar'.”


A ascensão de drones assassinos totalmente autônomos é alarmante, mas não surpreendente, já que vários militares poderosos, incluindo os dos EUA , Rússia , China e Reino Unido têm trabalhado em busca de robôs assassinos por anos - apesar do clamor de especialistas e especialistas em ética em todo o mundo .


O que eles estão dizendo: "Se a nova tecnologia tornar a dissuasão impossível, ela pode nos condenar a um futuro em que todos estarão sempre ofendidos", escreve o economista Noah Smith em um post assustador sobre o futuro da guerra. Conclusão: organizações humanitárias e muitos especialistas em IA pediram uma proibição global de armas autônomas letais, mas vários países - incluindo os EUA - ficaram no caminho.








8 visualizações0 comentário

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page