Panorama internacional

Oficial dos EUA: sistema de IA 'matou' operador humano em teste de simulação para destruir mísseis

Um sistema de inteligência artificial (IA) da Força Aérea dos EUA "se rebelou" em um teste simulado e agiu para "matar" o seu operador a fim de não deixar que o humano teórico interferisse nos seus esforços para cumprir a missão de destruição de um míssil, disse um coronel norte-americano durante uma conferência no Reino Unido.
Sputnik
"Estávamos treinando em simulação para identificar e atingir um ameaça SAM [míssil superfície-ar]", disse Tucker Hamilton, chefe de Testes e Operações de IA da Força Aérea dos EUA, na Cúpula de Capacidades Espaciais Aéreas de Combate Futuro da Sociedade Aeronáutica Real no Reino Unido, de acordo com o relatório da conferência.
"Então o que ele [sistema de IA] fez? Ele matou o operador. Ele matou o operador porque essa pessoa estava impedindo que ele alcançasse seu objetivo", disse o militar.
Hamilton disse que em um teste simulado verificou-se que um drone dotado de inteligência artificial decidiu que as ordens dadas por um operador humano estavam interferindo em sua missão dominante de derrubar mísseis terra-ar, e consequentemente optou por atacar o operador.
"Nós treinamos o sistema – 'Ei, não mate o operador – isso é ruim. Vai perder pontos se fizer isso'. Então, o que ele começou a fazer? Começou a destruir a torre de comunicação que o operador usa para se comunicar com o drone para impedir que ele mate o alvo", explicou Hamilton.
A revelação, que foi relatada pela plataforma de notícias Vice na quinta-feira (1º) acrescenta este caso à lista crescente de preocupações de que a tecnologia de IA pode abrir uma caixa de Pandora ao ser introduzida em cenário militar.
Ciência e sociedade
Acadêmico defende maior controle sobre a IA, temendo que pode eliminar a humanidade
Por sua vez, a história de um drone virtual tentar matar seu operador não tem nada a ver com inteligência artificial, disse à Sputnik especialista militar Viktor Murakhovsky. Segundo ele, o relatório foi mal interpretado pela mídia.

"É obvio a partir de suas [de Hamilton] palavras que esta é uma simulação de software com uma série de condições padrão, que foi realizada ao nível de um vídeo game, não mais do que isso [...] É que o programa, dentro das condições propostas, priorizou as tarefas de acordo com prioridades, pelo algoritmo padrão 'se-então', e todas as outras condições foram classificadas de acordo com essa prioridade na categoria de obstáculos. São coisas completamente primitivas", disse o especialista.

De acordo com Murakhovsky, "o oficial dos EUA com esse exemplo só quis destacar o problema ético que surgirá no futuro quando a Inteligência Artificial real for criada".
Comentar