
07 ago Especialistas alertam: é questão de tempo para que as IAs se integrem às armas nucleares
Especialistas em segurança acreditam ser questão de tempo para que a inteligência artificial generativa esteja integrada aos principais sistemas de armas nucleares do mundo, como relatou a Wired na quarta-feira (06). O tema foi debatido durante conferência na Universidade de Chicago (Estados Unidos), no mês passado.
No encontro, que reuniu cientistas, ganhadores do Prêmio Nobel, militares e ex-funcionários do governo americano, os participantes discutiram como a IA tem influenciado o cotidiano, o que inclui o ambiente militar. Para eles, já existe uma corrida tecnológica relacionadas às aplicações nucleares, e isso traz riscos.
A IA no controle das armas nucleares pode trazer grandes perigos para a humanidade, de acordo com os especialistas em segurança. (Imagem: Getty Images)
Por que a combinação entre IA e armas nucleares é perigosa?
Forças militares de diferentes países utilizam a IA, de alguma maneira, em suas atividades, como para analisar dados de inteligência e aprimorar mecanismos de alerta antecipado. Um dos próximos passos, conforme os especialistas, é introduzi-la no campo nuclear.
Eles acreditam que essa mistura é inevitável, uma vez que a tecnologia agiliza a tomada de decisões em cenários de urgência;Os bots também contribuem para melhorar as capacidades de detecção de lançamentos, movimentações e ameaças, além de otimizar o acionamento dos sistemas de defesa;No entanto, colocar a IA para tomar decisões sobre o lançamento de armas nucleares envolve uma série de riscos, pois a tecnologia pode errar na interpretação de dados, trazendo resultados catastróficos;Além disso, os participantes do debate mencionaram a dificuldade para entender o funcionamento de determinados modelos de linguagem e a possibilidade de que eles iniciem uma resposta nuclear automaticamente.
Reforçando a importância da supervisão humana, o professor da Universidade de Stanford (EUA), Herb Lin, citou o caso do tenente-coronel Stanislav Petrov, que chefiava o Centro de Detecção de Ataques Nucleares da União Soviética. Em 1983, ele ficou conhecido como o “homem que salvou o mundo”, ao identificar um alarme falso dado pelo sistema.
Caso tivesse seguido as recomendações dos novos computadores soviéticos, em vez de confiar no seu conhecimento, o que permitiu adivinhar que a máquina estava errada, uma guerra nuclear poderia ter sido iniciada. “Você deve ir além de seus dados de treinamento para poder dizer: ‘Não, meus dados de treinamento estão me dizendo algo errado’. Por definição, [a IA] não pode fazer isso”, ressaltou o acadêmico, à reportagem.
A cidade de Hiroshima foi devastada pela bomba atômica em 1945. (Imagem: Getty Images)
Recomendações aos governos
Ao final do evento, os cientistas emitiram uma declaração sugerindo medidas urgentes a serem tomadas pelos países para a prevenção da guerra nuclear. No documento, eles citam a importância de proibir os testes nucleares e condenar a proliferação desses armamentos por qualquer nação.
Os especialistas também apelaram aos governos da Rússia e dos EUA que façam um novo tratado de redução de armas para suceder o que está prestes a expirar. Além disso, há a recomendação de que a China seja mais transparente sobre o seu estoque nuclear.
À Nature, os pesquisadores ressaltaram que o cenário geopolítico atual, com a invasão da Ucrânia, os ataques israelenses ao Irã e a escalada do arsenal da Coreia do Norte, representa um “grande risco para a guerra nuclear”. Com a IA e a desinformação, a situação pode piorar.
O alerta vem à tona em um momento que os ataques a Hiroshima e Nagasaki completam 80 anos. Entre os dias 6 e 9 de agosto de 1945, as cidades japonesas foram alvo de bombas atômicas lançadas pelos EUA que resultaram em mais de 200 mil mortes.
Gostou do conteúdo? Leia mais notícias no TecMundo e interaja com a gente nas redes sociais.