jkA Organização das Nações Unidas (ONU) está preocupada com o desenvolvimento dos robôs LARs (Robôs Autônomos Letais, na sigla em inglês) que tem autonomia de decidir quem ou o que destruir.
Pode um robô fazer a distinção entre alvos militares e civis? Entre soldados lutando e os que querem se render? Quem será responsabilizado por erros, já que robôs não podem ser julgados por crimes de guerra?
Essas são algumas das questões que estão sendo levantadas pela organização, que propõe uma moratória no desenvolvimento desse tipo de armamentos, uma nova geração de máquinas que atacam de forma independente, com autonomia de decisão – ao contrário dos ‘drones’, por exemplo, os aviões não tripulados usados pelos EUA nos Afeganistão, que respondem a comando humano.
Segundo Christof Heyns, relator especial da ONU para execuções extrajudiciais, essa suspensão permitiria um envolvimento internacional significativo no debate sobre a ética do uso dos Robôs Autônomos Letais em conflitos armados. Acredita-se que os Estados Unidos, Grã-Bretanha e Israel estejam desenvolvendo esse tipo de robô, no entanto, esses países não mostraram interesse em se comprometer com a moratória proposta pela ONU.
No dia 28 de julho, mais de mil especialistas, cientistas e pesquisadores escreveram uma carta alertando sobre o perigo de armas autônomas, munidas de inteligência artificial – os chamados “robôs matadores.”
Entre os signatários estão o cientista Stephen Hawking, o empreendedor Elon Musk e o cofundador da Apple Steve Wozniak. O documento será apresentado na Conferência Internacional Conjunta de Inteligência Artificial em Buenos Aires nesta terça-feira.
Os “robôs matadores” têm sido alvo de debate e foram tema de comitês na Organização das Nações Unidas, que considera proibir certos tipos de armas autônomas. Agora, especialistas pedem a suspensão específica no uso de inteligência artificial para manusear armas que possam sair de “controle humano significativo.”