Robôs De Combate: Proibido Não Pode Ser Permitido

Índice:

Robôs De Combate: Proibido Não Pode Ser Permitido
Robôs De Combate: Proibido Não Pode Ser Permitido

Vídeo: Robôs De Combate: Proibido Não Pode Ser Permitido

Vídeo: Robôs De Combate: Proibido Não Pode Ser Permitido
Vídeo: CHAPPIE O FILME PT/BR DUBLADO 2024, Maio
Anonim

Os especialistas se reuniram em Genebra, mas nenhum acordo foi alcançado: os Estados Unidos e a Rússia bloquearam todo o trabalho. Talvez este seja o único momento em que as hegemonias funcionam tão harmoniosamente.

Robôs de combate: proibido não pode ser permitido
Robôs de combate: proibido não pode ser permitido

Reuniões de especialistas no formato da Convenção sobre Armas Desumanas terminaram em Genebra para decidir o destino dos chamados robôs de combate - armas autônomas que usam inteligência artificial para derrotar alvos. No entanto, nenhum acordo foi alcançado. Os Estados Unidos, Rússia, Coréia do Sul, Israel e Austrália estão entre as nações minoritárias que conseguiram bloquear o sentimento de proibição total de robôs assassinos.

Assim, embora ainda não exista uma arma autônoma funcionando no mundo, a tecnologia permanece, por assim dizer, humana - pode ser desenvolvida e pesquisada. Curiosamente, os Estados Unidos e a Rússia, de acordo com o Instituto de Pesquisa para a Paz de Estocolmo (SIPRI), estão no topo da lista dos maiores exportadores de armas. Coreia do Sul, Israel e Austrália também não ficam atrás neste ranking - estão entre os 20 principais participantes do mercado.

E embora a China (o quinto exportador de armas do mundo, membro permanente do Conselho de Segurança da ONU defenda a proibição de robôs de combate, não conseguiu ajustar as escalas em sua direção durante as reuniões. Hoje, 26 países apoiam abertamente o proibição do uso de inteligência artificial na guerra. Outros evitam uma posição clara) França e Alemanha (o terceiro e o quarto exportadores de armas) se oferecem para assinar um documento que consolidaria a primazia do homem sobre a inteligência artificial, mas são mais prováveis do lado daqueles que querem desenvolver veículos de combate autônomos.

“É certamente decepcionante que um pequeno grupo de gigantes militares possa conter a vontade da maioria”, comentou Mary Verhem, coordenadora da Campanha para Parar os Robôs Assassinos, sobre o resultado das reuniões de Genebra.

Na verdade, a situação parece uma conspiração de magnatas do monopólio armado, visto que os Estados Unidos e a Rússia geralmente não conseguem chegar a pelo menos algum tipo de compromisso em questões importantes. Veja o caso da Síria: Washington e Moscou bloquearam mutuamente as resoluções um do outro depois de usar armas químicas na Síria nesta primavera. Gases asfixiantes e outras substâncias tóxicas para fins militares, aliás, eram anteriormente proibidos pela Convenção sobre Armas Desumanas.

A próxima reunião sobre o destino dos robôs assassinos ocorrerá em Genebra, em novembro.

Por que eles querem banir as armas autônomas

Os defensores da proibição da guerra de robôs insistem que o campo de batalha não é um lugar para inteligência artificial. Em sua opinião, essas tecnologias representam uma grande ameaça. Pelo menos, hoje não está claro como a máquina vai distinguir entre combatentes (aqueles que estão diretamente envolvidos nas hostilidades) de não-combatentes (pessoal do serviço do exército que só pode usar armas para autodefesa) e civis em geral. Existe a possibilidade de que a obra mate os feridos e os que se rendam, o que é proibido pelas regras atuais da guerra.

O que impede o trabalho de interromper todas as partes em conflito, mesmo os proprietários dessas armas? Elementos de inteligência artificial já são usados com sucesso em equipamentos militares, mísseis; robôs são atraídos para o reconhecimento, mas a palavra final ainda cabe aos humanos. As armas autônomas não obedecem às ordens dos comandantes - por isso são autônomas. É por isso que generais militares de diferentes países são céticos quanto à introdução de máquinas nas fileiras do pessoal.

E mais uma questão em aberto é o terrorismo internacional. A tecnologia de armas autônomas pode cair nas mãos erradas e, eventualmente, ser hackeada. Há um ano, o presidente russo, Vladimir Putin, disse que o governante do mundo será aquele que se tornará o líder no desenvolvimento da inteligência artificial. No caso das armas autônomas, quem obtiver acesso a tais tecnologias se tornará o governante do mundo. E para isso, na verdade, você só precisa de um computador e de um trapaceiro que vai passar pelos sistemas de segurança. O Pentágono, aliás, foi hackeado mais de uma vez. Conseqüentemente, ninguém pode dar garantias de que as armas autônomas permanecerão invioláveis.

Também não está claro quem será legalmente responsável se um crime de guerra for cometido como resultado do funcionamento do sistema autônomo de armas. “O engenheiro, programador, fabricante ou comandante que usou a arma? Se a responsabilidade não pode ser definida conforme exigido pelo Direito Internacional Humanitário, a implantação de tais sistemas pode ser reconhecida como legal ou eticamente justificada?”, Observa o Comitê Internacional da Cruz Vermelha.

Curiosamente, os cientistas também defenderam a proibição de robôs de combate. Em julho deste ano, mais de dois mil cientistas, em particular o criador de Tesla e SpaceX Elon Musk e os co-fundadores da DeepMind, assinaram um documento que não desenvolveriam armas autônomas letais. O Google fez o mesmo. A gigante da tecnologia desistiu de trabalhar no projeto Maven do Pentágono. E em 2017, vários cientistas já apelaram à ONU para proibir a criação de robôs assassinos.

Aliás, a questão da inteligência artificial na guerra apareceu na pauta das Nações Unidas no final de 2013, mas praticamente nada mudou desde então. Somente neste ano, as reuniões de especialistas começaram no formato da Convenção sobre Armas Desumanas. Ou seja, demorou mais de quatro anos para chegar a um plano mais ou menos prático.

Por que eles não querem banir as armas autônomas

Não importa o quão banal possa parecer, a corrida armamentista é a principal razão pela qual eles não querem banir os robôs assassinos. Putin está certo: quem conseguir armas autônomas primeiro vai dominar o mundo. Oficialmente, esse motivo é expresso.

O principal argumento dos oponentes da proibição é a impossibilidade de separar a inteligência artificial civil da militar. Tipo, não vamos proibir facas de cozinha só porque terroristas podem usá-las. Na verdade, é praticamente impossível separar o desenvolvimento civil da inteligência artificial do militar. Mas agora estamos falando sobre a proibição desta arma, que será capaz de determinar e atacar alvos de forma independente. Este poderia ser o projeto Maven, no qual o Departamento de Defesa dos EUA está trabalhando em conjunto com a Booz Allen Hamilton (o Google recusou o contrato).

Os desenvolvedores do Maven querem ensinar drones a analisar imagens, em particular de satélites e - potencialmente - identificar alvos para ataques. O Pentágono começou a trabalhar no projeto em abril de 2017 e esperava obter os primeiros algoritmos de trabalho até o final do ano. Mas, devido à diligência dos funcionários do Google, o desenvolvimento foi atrasado. Em junho deste ano, de acordo com o Gizmodo, o sistema podia distinguir entre objetos elementares - carros, pessoas, mas acabou sendo completamente insignificante em situações difíceis. Se a proibição de armas autônomas for adotada no nível da ONU, o projeto terá de ser descartado, enquanto o Pentágono afirma que seu desenvolvimento pode salvar vidas, porque pode ser programado para funcionar de forma mais precisa e confiável quando comparado com as pessoas.

"É preciso entender que estamos falando de tecnologia, que não há amostras que funcionassem. A ideia de tais sistemas ainda é muito superficial", observou na véspera do encontro em Genebra no Itamaraty. - Em nossa opinião, o direito internacional, em particular o setor humanitário, pode ser aplicado a armas autônomas. Eles não precisam de modernização ou adaptação a sistemas que ainda não existem.”

Bem, e mais uma razão real, mas não expressa, é o dinheiro. Hoje, o mercado de tecnologias de inteligência artificial militar é estimado em mais de seis bilhões de dólares. Mas em 2025 o número vai triplicar - para quase 19 bilhões, de acordo com analistas da empresa americana MarketsandMarkets. Para os maiores exportadores de armas, esta é uma boa motivação para bloquear quaisquer restrições ao desenvolvimento de robôs assassinos.

O progresso não pode ser interrompido

Os defensores da proibição das armas autônomas observam que a tecnologia está se desenvolvendo muito rapidamente e que a inteligência artificial acabará se tornando uma arma - uma questão de tempo. Há lógica em suas palavras. A inteligência artificial é parte integrante da quarta revolução científica e tecnológica, que continua agora. Deve-se ter em mente que o progresso técnico está, de uma forma ou de outra, associado às operações militares. A terceira revolução científica e tecnológica durou até meados da década de 50 do século XX, ou seja, seu auge ocorreu no período da Segunda Guerra Mundial.

Em 1949, Genebra adotou a Convenção para a Proteção de Pessoas Civis em Tempos de Guerra. No pós-guerra, eles também complementaram a IV Convenção de Haia de 1907, que determinava as regras para a condução da guerra. Ou seja, os horrores da Segunda Guerra Mundial se tornaram o catalisador desse processo. Portanto, os defensores dos direitos humanos não querem esperar a Terceira Guerra Mundial para proteger a humanidade das armas autônomas. É por isso que decidir o destino dos robôs assassinos é necessário agora, eles insistem.

De acordo com especialistas da Human Rights Watch, o uso de robôs de combate contradiz a Declaração de Martens - o preâmbulo da Convenção de Haia de 1899 sobre Leis e Costumes de Guerra. Em outras palavras, os robôs assassinos violam as leis da humanidade e as exigências da consciência pública (a posição foi confirmada na IV Convenção de Haia).

“Devemos trabalhar juntos para impor uma proibição preventiva a tais sistemas de armas antes que se espalhem pelo mundo”, disse Bonnie Doherty, pesquisadora sênior do departamento de armas da Human Rights Watch.

Bem, não funcionou banir robôs assassinos desta vez. Previsivelmente, as reuniões em novembro também serão infrutíferas. É verdade que quase todos os países concordam - a tecnologia não pode fluir por gravidade e os robôs de combate precisam de tal guindaste. Mas ainda não está claro se a humanidade terá tempo para puxá-lo quando for necessário.

Recomendado: