terça-feira, 21 de junho de 2016

Do We Want Robot Warriors to Decide Who Lives or Dies? By Erico Guizzo and Evan Ackerman



Queremos mesmo que robôs guerreiros possam decidir quem vive ou quem morre? 
A inteligência artificial em robôs militares avança e o significado da guerra está sendo redefinido.

As forças armadas mais poderosas do mundo estão desenvolvendo armas inteligentes com diferentes graus de autonomia e letalidade. Por ora, a maioria delas vão ser controladas remotamente por operadores humanos. Mas é provável que, alguns dizem, inevitavelmente, que o futuro da inteligência artificial (AI) vai operar armas com total autonomia, levando a uma guerra na qual um conjunto de microchips e softwares irá decidir se deve disparar balas, lançar foguetes ou soltar bombas.

Em filmes, os robôs geralmente ganham níveis extraordinários de autonomia, mesmo sem ter consciência, aparentemente do nada, os seres humanos são pegos de surpresa. Aqui no mundo real, no entanto, e apesar do recente entusiasmo sobre os avanços na aprendizagem de máquina, o progresso na autonomia do robô tem sido gradual. Armas autóctones seriam de esperar que evoluíssem de forma semelhante.

'Os militares poderiam investir em robótica muito avançadas e automação, e ainda, manter um combatente no circuito, para o direcionamento das decisões, a prova de falhas' 
-Paul Scharre, Centro para uma Nova Segurança Americana

Abordagens dos três países para armas robóticas, introdução crescente da automação, enfatizam um papel contínuo para os seres humanos, sugerem um grande desafio na proibição de armas totalmente autônomas. A proibição destas armas (totalmente autônomas) não necessariamente se aplicam a armas que são quase autônomas. Então, os militares podem conseguir desenvolver armas robóticas que tenham um humano no ciclo da decisão, com a opção de permitir a plena autonomia na execução de uma ação crítica, pelo software. 
'Vai ser difícil colocar um acordo de controle de armas no lugar para a robótica', conclui Wendell Wallach, um especialista em ética e Tecnologia da Universidade de Yale. 
'A diferença entre um sistema de armas autônomo e não-autônomo pode ser apenas uma linha de código', disse ele em uma conferência recente.

The world’s most powerful militaries are developing intelligent weapons with varying degrees of autonomy and deadliness. For now, most will be remotely controlled by human operators. But it’s likely—some say inevitable—that future AI-powered weapons will operate with complete autonomy, leading to warfare in which a collection of microchips and software will decide whether to fire bullets, launch rockets, or drop bombs.
“Militaries could invest in very advanced robotics and automation and still keep a person in the loop for targeting decisions, as a fail-safe”Paul Scharre, Center for a New American Security
The three countries’ approaches to robotic weapons, introducing increasing automation while emphasizing a continuing role for humans, suggest a major challenge to the banning of fully autonomous weapons: A ban on fully autonomous weapons would not necessarily apply to weapons that are nearly autonomous. So militaries could conceivably develop robotic weapons that have a human in the loop, with the option of enabling full autonomy at a moment’s notice in software. “It’s going to be hard to put an arms-control agreement in place for robotics,” concludes Wendell Wallach, an expert on ethics and technology at Yale University. “The difference between an autonomous weapons system and nonautonomous may be just a difference of a line of code,” he said at a recent conference.

Veja reportagem completa:
"As artificial intelligence in military robots advances, the meaning of warfare is being redefined"
By Erico Guizzo and Evan Ackerman Posted 31 May 2016 | 17:00 GMT em:
http://spectrum.ieee.org/robotics/military-robots/do-we-want-robot-warriors-to-decide-who-lives-or-dies?
Tradução livre com auxílio do Google 

Nenhum comentário: