Força Aérea dos EUA diz que não executou simulação em que drone de IA ‘matou seu operador’

8
MQ-9-Reaper-Drone-militar-usado-pelo-exercito-americano.jpg

WASHINGTON — A Força Aérea dos EUA negou na sexta-feir (2/6) a a realização de uma simulação com um drone controlado por IA no qual a inteligência artificial voltou-se para o seu operador e o atacou para atingir seu objetivo.

A história se espalhou nas redes sociais com base em comentários aparentemente mal interpretados de um coronel da Força Aérea em um seminário em Londres no mês passado. O coronel Tucker Hamilton, um piloto de testes de caça experimental, descreveu um exercício no qual um drone controlado por IA foi programado para destruir as defesas aéreas inimigas. Quando ordenado a ignorar um alvo, o drone atacou seu operador por interferir em seu objetivo principal.

O tema apocalíptico das máquinas se voltando contra os humanos e se tornando assassinos autônomos coincidiu com a crescente preocupação com o perigo da inteligência artificial. Na quinta-feira, o presidente Joe Biden alertou que a IA “poderia ultrapassar o pensamento humano”.

No entanto, Hamilton estava falando apenas sobre um cenário hipotético para ilustrar os perigos potenciais da inteligência artificial, de acordo com a Força Aérea. Não realizou tal simulação com um drone.

“O Departamento da Força Aérea não realizou nenhuma dessas simulações de drones de IA e continua comprometido com o uso ético e responsável da tecnologia de IA”, disse Ann Stefanek, porta-voz da Força Aérea, em comunicado.

Os comentários de Hamilton parecem ter sido tirados do contexto, disse Stefanek.

O piloto de teste de caça posteriormente esclareceu em uma declaração que ele “se expressou mal” em sua apresentação na cúpula de Londres e que a “simulação de drone de IA rebelde” era um “experimento de pensamento” hipotético.

A rápida ascensão da IA e o aumento da acessibilidade suscitaram preocupação até mesmo de alguns dos tecnólogos que ajudaram a desenvolvê-la, como Geoffrey Hinton, um renomado pesquisador britânico e um dos chamados padrinhos da IA.

Em uma recente aparição em uma conferência, Hinton foi questionado pelo moderador de um painel qual era o “pior cenário que você acha que é concebível” para IA. Hinton respondeu sem hesitar.

“Acho perfeitamente concebível”, disse ele, “que a humanidade seja apenas uma fase passageira na evolução da inteligência”.

O canadense Yoshua Bengio, outro cientista da computação frequentemente descrito como o “padrinho da IA”, disse à BBC esta semana que não achava que os militares deveriam ter permissão para usar os poderes da IA. Ele disse que era um dos “piores lugares onde poderíamos colocar uma IA superinteligente” e que a segurança da IA deveria ser priorizada em relação à utilidade.

FONTE: USA Today

Subscribe
Notify of
guest

8 Comentários
oldest
newest most voted
Inline Feedbacks
View all comments
Camargoer.

Olá. FIca claro que ainda há muita confusão sobre o significado de inteligência artificial. Ao contrário de uma inteligência biológica, um sistema de AI é configurado pelo algoritmo. Ainda não existe um sistema capaz de desenvolver o próprio algoritmo. Há muito tempo, talvez desde a década de 70, existem esforços para criar sistemas que sejam capazes de aprender, seja por meio da autoexperimentação ou da criação de grandes bancos de dados. Pelo que lembro, as primeiras aplicações de IA foram em sistemas espaciais e sondas de exploração extraterrestre. Considerando a capacidade limitada de processamento, dos longos intervalos de tempo na… Read more »

Luiz Antonio

O Tijorola existia em 1995, logo…

Lucas Teixeira

Existe muito sensacionalismo com IA hj em dia.
A mídia convencional tem postado conteúdo no nível do Brasil247/JornalDaCidadeOnline.
Esses cenários apocalipticos não vão acontecer.
As IAs não são pensantes de verdade. São só algoritmos que aprendem a reproduzir comportamentos humanos (criar imagens, textos, etc).
Estamos muuuuuuuuuitos longe de criar um cérebro comparável ao nosso.

Lucas Teixeira

E pra quem não sabe, pra alimentar o ChatGPT existe um “exército” de pessoas etiquetando os dados pro sistema usar (e claro, são pessoas de países pobres).
No fim o ChatGPT só está copiando o que a gnt já criou.

Camargoer.

Caro Lucas. Você tem razão. Por outro lado, se o programador prever no algoritmo uma rotina de na qual o sistema possa optar por ignorar o comando de ignorar um alvo, de abortar a missão ou mesmo de destruir o operador, então isso se torna viável. É como você disse, depende de como foi escrito o algoritmo e quais as opções existentes no banco de dados do software de IA tem á sua escolha. Se estas opções estiverem lá e não existir uma “cláusula de barreira” que exclua esta opção, e se o sistema de IA tiver uma rotina na… Read more »

Nilton L Junior

Uma coisa é decisão por algoritmo, outra coisa é decisão humana, duvido que uma rotina consiga captar o aprendizado por cognição.

RSmith

Só li as primeira duas linha para ver que essa historia tem furo tipico de “fake News” … se o drone estava sendo operador por uma Inteligência Artificial aonde é que entra esse “operador” que a IA matou?

Luiz Trindade

Então o coronel Tucker Hamilton mentiu?!? Não sei não heim… Será que ele deliberadamente ia se expor ao ridiculo de ser desmentido?!?