Ano 2018. As famílias de um soldado e de um suboficial americanos recebem da firma Millibots Inc. US$ 100 milhões por perdas e danos.
Os dois militares, usados como escudos humanos por insurgentes afegãos que acabavam de se apossar de sua bateria móvel de mísseis, foram "sacrificados" pelo robô autônomo JCN 3000 encarregado de proteger o comboio.
Ao destruir a bateria e seus operadores, o robô quis prevenir um risco iminente de utilização dessas armas, que poderiam causar um número maior de mortos no campo aliado. Foi o que tentou alegar a Millibots Inc., quando o caso foi divulgado - antes de sacar seu talão de cheques.
2020. O Tribunal Penal Internacional convoca um "robô capacete azul" Swissor B12, em um caso de crime de guerra na Geórgia.
É o conteúdo de sua caixa preta que interessa ao tribunal. A presença dessa testemunha mecânica não parece ter impedido seus colegas humanos de se vingarem, em civis, de uma emboscada que fez mortos entre eles, perto de um vilarejo fronteiriço russo.
Ficção científica? Não totalmente. Esses dois exemplos ilustram cenários possíveis de ocorrer em um futuro próximo, à medida que os robôs autônomos se multiplicam nas zonas de conflito.
Seriam eles dotados de um senso moral para tomar as decisões certas? Será que eles tornarão as guerras menos assassinas? O sentido do sacrifício desses "seres dispensáveis" reduzirá as perdas humanas?
Em caso de erro, quem será responsável - a pessoa que os construiu, o exército que os recrutou, os próprios robôs? Mas, e então, como punir uma máquina?
Os estados-maiores começam a se preocupar com os riscos éticos que se esboçam. É o que mostra a publicação, no final de dezembro de 2008, de um relatório intitulado "Robôs Militares Autônomos: Riscos, Ética e Projeto", encomendado pela Marinha Americana.
Citando Kant, Asimov e a teoria evolucionista, mas também os grandes conceitos da polemologia (a ciência da guerra), esse fascinante documento foi redigido por pesquisadores do Departamento Ético e Tecnologias Emergentes da Universidade Politécnica da Califórnia.
No fim, eles convidam os militares a "enfrentarem o mais cedo possível" as novas questões éticas e sociais levantadas pelos robôs autônomos - "em especial, antes que os medos irracionais do público ou que acidentes causados pela robótica militar impeçam o progresso da pesquisa e dos interesses da segurança nacional".
Os robôs militares já estão lá, nos ares, na terra e até sob as águas. Eles vão se multiplicar: em 2000, o Congresso americano votou uma lei prevendo que, em 2010, um terço dos bombardeiros funcionariam sem piloto.
E que em 2015, a mesma proporção de veículos de combate em solo também funcionaria sem humanos.
O papel desses robôs é de substituir o Homo sapiens nos "trabalhos chatos, sujos e perigosos", segundo o departamento de Defesa americano.
Em 2007, estimava-se que os 5 mil robôs espalhados pelo Iraque e Afeganistão haviam neutralizado 10 mil "dispositivos explosivos improvisados".
Por enquanto, os autômatos militares não são completamente autônomos. A decisão de abrir fogo continua sendo de um humano.
Mas isso é só temporário. O roboticista Ronald Arkin (Georgia Institute of Technology) observa, assim, que em sistemas de vigilância armada das zonas fronteiriças, na Coreia do Sul e em Israel, a opção "telecomando humano" pode ser interrompida.
À medida que os sistemas múltiplos espalhados em um campo de batalha se comunicarem entre si, a pessoa que estiver no comando terá mais dificuldade em avaliar a situação do que um sistema autônomo", ele garante.
O pesquisador americano chega a estimar que "os robôs poderiam agir de forma mais ética sobre o campo de batalha do que os humanos".
Um relatório de 2006 do ministério da Saúde americano não mostrou que somente 47% dos soldados e 38% dos marinheiros envolvidos no Iraque consideravam que os não-combatentes deveriam ser tratados com dignidade e respeito?
Nem todos compartilham dessa confiança nos robôs militares. Para Raja Chatila, diretor de pesquisa no Laboratório de Análise e Arquitetura de Sistemas (CNRS, Toulouse), "ainda se está longe de poder garantir que eles agirão sobre uma base bem informada".
A cada etapa do processo - detecção, identificação, interpretação, tomada de decisão, ação - "a incerteza pode se propagar", observa o pesquisador.
Em meios abertos, será indispensável conceber sistemas de aprendizado, uma vez que os engenheiros não podem prever todas as situações.
Pois se o robô aprende por si mesmo, torna-se quase impossível prever suas reações, seu comportamento. "Esse grau extra de incerteza constitui uma verdadeira dificuldade", julga Raja Chatila.
Supondo que se consiga formalizar as bases de um senso moral e que ele seja implantado em um autômato, este corre o risco de ter de enfrentar conflitos insolúveis: será que devemos sacrificar um indivíduo para salvar centenas, por exemplo?
Esses dilemas foram explorados com maestria pelo romancista Isaac Asimov e suas três leis da robótica. Mas Ron Arkin concorda que elas são de pouca ajuda em um contexto de guerra.
O objetivo não é mais garantir que humanos e robôs convivam pacificamente. Mas, pelo contrário, como curiosamente observa o relatório para a Marinha Americana, "o senso moral desenvolvido dessa maneira deve poder levar os robôs a matarem os humanos certos (os inimigos) e não os errados (os aliados)".
Nessa condição, ainda se lê no relatório, "ter robôs combatentes do nosso lado reduzirá drasticamente o número de nossos mortos.
Essa arma poderá se tornar suficientemente temida para que a guerra deixe, por fim, de ser uma opção desejável para resolver as divergências entre as nações".
Raja Chatila não se convence. "Por muito tempo ainda, o 'robô moral' não passará de uma forma de registro, capaz de evitar os erros.
Como essas câmeras introduzidas nas salas de interrogatório". Mas ele lembra que os robôs autônomos civis, a quem já se prevê confiar crianças, doentes ou idosos, também levantam questões éticas...
Tradução: Lana Lim
Fonte: UOL/ Le Monde
Nenhum comentário:
Postar um comentário