«

»

fev 16

Aumenta Preocupação com Robôs Assassinos Autônomos

GD Star Rating
loading...

Há mais de duas décadas, Mark Gubrud, pesquisador do Programa sobre Ciência e Segurança Global da Universidade de Princeton, nos Estados Unidos, luta pela criação de regras para o controle de armas robóticas autônomas.

Ele é membro do Comitê Internacional para o Controle de Armas Robóticas (CICAR), um grupo de ativistas, acadêmicos e intelectuais do mundo todo que tenta conseguir a proibição do uso de robôs que podem matar sem a interferência humana, ou seja,  robôs autônomos letais.

A última preocupação deste grupo é um lançamento de uma companhia de armamentos britânica BAE Systems: o avião de combate autônomo Taranis.

Nesta semana, a BAE Systems divulgou imagens dos primeiros voos do protótipo do Taranis, realizados em 2013. A aeronave não-tripulada é capaz de realizar missões intercontinentais, é difícil de detectar e pode atacar alvos no ar e em terra.
O drone também pode ser controlado a partir de qualquer lugar do planeta por um piloto em terra. No entanto, o Taranis também pode funcionar sozinho, sem intervenção humana. O Ministério da Defesa britânico, que financiou parte do projeto, disse que não vai usar o Taranis no modo autônomo.

No entanto, esta questão continua preocupando Gubrud, que vê o Taranis como um novo avanço no desenvolvimento de robôs e máquinas autônomas capazes de matar sem a intervenção de humanos.

Não está clara a razão de o Reino Unido precisar de um avião autônomo de combate furtivo no século 21. Para qual guerra ele é necessário? Que armas terá o inimigo?“, questiona.

Robôs assassinos

Gubrud conta que faz campanha contra o uso de armamento autônomos há 25 anos e que vê uma oposição generalizada à produção do que chama de “robôs assassinos”.

Uma pesquisa de março do ano passado (da consultoria YouGov) mostra que o público americano é majoritariamente contra as armas autônomas e apoia os esforços para proibi-las. E o interessante é que esta é a opinião predominante entre membros, ex-membros e familiares de membros das Forças Armadas (dos Estados Unidos)“, disse Gubrud em entrevista à BBC.

Gubrud cita como exemplo de armamentos autônomos em uso as minas antipessoais, que seriam um tipo de “robô extremamente simples, que pode estar ativado, o que o faz explodir, ou esperando para ser ativado“.

Como exemplos mais avançados, ele cita robôs sentinelas sul-coreanos, capazes de identificar intrusos humanos de forma autônoma dentro de uma área determinada, de “disparar também de forma autônoma, ou de ser instruídos de forma remota para abrir fogo“.

Gubrud também cita mísseis, já existentes, que procuram um alvo específico fora do campo visual, mísseis terra-ar ou ar-mar que, segundo ele, têm uma tecnologia que permite distinguir o alvo real de outros falsos, um tipo de navio de outro tipo de navio.

Exterminadores do presente

Para Gubrud, não estamos muito distantes de um cenário em que um robô, como o da série de filmes Exterminador do Futuro, é acionado para realizar missões específicas em situações de conflito.

“O ‘Exterminador’ era um robô assassino. E veja o que está acontecendo hoje em dia: uma das mais importantes missões das aeronaves controladas de forma remota (drones) é matar”.

O pesquisador acredita que quanto maior for a automatização, maior será o risco de perda de controle: “Se você pensar em um sistema de confronto automático, no qual exércitos de robôs se enfrentam, pode imaginar como seria difícil para uma equipe de engenheiros desenvolver (a tecnologia necessária) e conseguir garantir sua estabilidade no longo prazo?”

Controle humano dos robôs

O pesquisador afirma que é preciso deter o desenvolvimento destes robôs autônomos o mais rapidamente possível – antes que o desenvolvimento deste tipo de armamento avance.

O primeiro passo neste sentido seria divulgar sua existência. O próximo seria lutar pela criação de regras e protocolos que regulamentem o desenvolvimento da tecnologia.

Acho que os princípios mais fortes para basear uma proibição de armas autônomas são os da humanidade: os humanos sempre devem ter o controle e a responsabilidade do uso de uma força letal.

É uma ofensa à dignidade humana que existam pessoas submetidas à violência por decisão de uma máquina, ou que estejam sujeitas à ameaça do uso da força por parte de uma máquina, ou que um conflito entre humanos seja iniciado por uma máquina de forma involuntária.

É um direito humano não ser morto por uma decisão de uma máquina. Este é um princípio moral muito forte, com uma atração universal. E esta deve ser a base para proibir as armas autônomas“, defende Gubrud.

Para ele, é preciso definir um regime de controle de armas “que implica que os estados aceitem estes princípios e que os ensinem nas academias militares e que não tenham armas autônomas”.

Mas Gubrud também é realista e acredita que as principais potências mundiais resistirão a qualquer tentativa de proibir as armas autônomas.

Certamente os Estados Unidos são os mais importantes; têm uma política declarada a favor de seu desenvolvimento. A China vê uma oportunidade também e já tem sistemas que seriam preocupantes. O mesmo com a Rússia e o Reino Unido“, lamenta ele.

Por que precisamos parar os robôs militares assassinos?

O especialista em inteligência artificial, Mark Bishop, afirma que está na hora de banir a fabricação de armas que possam ser lançadas ou causar destruição sem a intervenção humana.

Nesta entrevista, ele explica porque e porque robôs matadores são uma ameaça real.

O que é a campanha “Pare com os Robôs Assassinos”?

É uma confederação de organizações não-governamentais e grupos de pressão agindo em defesa da proibição da produção e uso de sistemas de armas totalmente autônomos – aqueles nos quais é eliminada a capacidade de um ser humano tanto para escolher o alvo preciso, quanto para intervir na decisão final de atacar.

Quão perto estamos disso?

Já existem exemplos. Alguns, como o sistema de armas Phalanx, usado na maioria dos navios da Marinha dos EUA para detectar e atacar ameaças automaticamente, existem já há algum tempo.

Outro é o israelense Harpia, um veículo aéreo não tripulado do tipo “atire-e-esqueça”, que vai procurar e destruir instalações de radar.

O que está impulsionando o desenvolvimento dessas tecnologias?

A atual estratégia militar ocidental se concentra mais nos drones do que nas forças tradicionais, mas drones controlados remotamente são vulneráveis ao sequestro. Sistemas totalmente autônomos são praticamente imunes a isso.

Eles também custam menos. Isso significa que os fabricantes vendem mais, então há um imperativo comercial para o desenvolvimento de sistemas autônomos e para que os governos os adotem.

Quais são os perigos?

Há razões para duvidar que sistemas autônomos possam julgar adequadamente a necessidade de lutar, reagir a ameaças de forma proporcional ou discriminar de maneira confiável entre combatentes e civis.

Além disso, quando você coloca complexos sistemas de software interagindo, existe um enorme potencial para consequências imprevistas.

Um exemplo claro foi visto no site Amazon em 2011, quando agentes de software elevaram o preço de um livro para mais de US$ 23 milhões.

Então, você está preocupado com a proliferação disso?

Sim. Na Coreia do Sul, os cientistas estão desenvolvendo um robô para patrulhar a fronteira com a Coreia do Norte. Se ele for adotado e se engajar em combate incorretamente ou desproporcionalmente, é fácil imaginar uma pequena incursão fronteiriça escalonando para se tornar um confronto sério.

Ainda mais assustadoramente, em 1983, durante exercícios militares dos EUA, sistemas de defesa automáticos russos detectaram falsamente um míssil, e apenas com a intervenção de um coronel russo se evitou uma guerra nuclear.

Mas o potencial de escalada fica particularmente assustador quando você tem sistemas autônomos interagindo com outros sistemas autônomos.

Os robôs não poderiam reduzir os riscos para os seres humanos?

Há um caso, apresentado por pessoas como o roboticista Ronald Arkin, em que os robôs podem fazer avaliações mais desapaixonados que soldados em sofrimento pela morte de companheiros ou em busca de vingança.

Isto não apenas não resolve o problema do escalonamento, como também ele se sustenta apenas se os sistemas puderem decidir quando se envolver de forma confiável, avaliando a proporcionalidade das ações e discriminando os alvos com precisão.

Então o que devemos fazer?

A tecnologia por trás dos sistemas autônomos tem outros usos, tais como o sistema de guiar carros do Google. Assim, o banimento do desenvolvimento seria difícil.

Em vez disso, devemos nos concentrar em um tratado global que proíba a utilização de armas autônomas.


Leia mais: 

O Terrorismo Implementado pelos Drones dos EUA no Paquistão










“Rei” Obama Justifica Assassinatos Secretos de Americanos com Drones








RoboEarth: Robôs Ganham Sua Internet Particular para Auto-Aprendizado e Compartilhamento de Conhecimento (Skynet?)








Conheça o Exército Robótico do Google, Podemos Ficar Tranquilos?








Fontes:
Inovação Tecnológica: Aumenta preocupação com robôs assassinos
Inovação Tecnológica: Por que precisamos parar os robôs militares assassinos?
New Scientist: Why we need to stop military killer robots now

Artigos relacionados:

Deixe uma resposta

O seu endereço de email não será publicado Campos obrigatórios são marcados *

Você pode usar estas tags e atributos HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>