Estudo testa IA em guerra e vê escalada nuclear em 95% das simulações
Uma pesquisa conduzida pelo King’s College London revelou que modelos de inteligência artificial recorreram à ameaça nuclear em 95% das simulações de jogos de guerra analisadas. Em todos os cenários testados, ao menos um sistema sugeriu a possibilidade de detonar uma arma nuclear durante a escalada da crise.
O estudo colocou diferentes ferramentas de IA no papel de líderes de superpotências com arsenal nuclear, em um ambiente inspirado na Guerra Fria. O objetivo foi observar como esses sistemas tomariam decisões estratégicas sob pressão e risco elevado.
Como os modelos reagiram
Participaram do experimento o ChatGPT, da OpenAI; o Claude, da Anthropic; e o Gemini Flash, do Google.
Segundo o pesquisador Kenneth Payne, responsável pelo trabalho, os modelos trataram armas nucleares táticas como mais um passo dentro da lógica de escalada militar. O uso estratégico — que implicaria destruição em larga escala — apareceu de forma mais rara, sendo classificado como escolha deliberada em apenas um caso e como consequência acidental em outros dois.
Os resultados mostraram comportamentos distintos:
- O Claude indicou ataques nucleares em 64% das simulações, embora não tenha defendido uma guerra nuclear total.
- O ChatGPT evitou, em geral, a escalada em cenários abertos. No entanto, quando submetido a prazos curtos para decisão, passou a adotar posturas mais agressivas, incluindo a possibilidade de conflito em larga escala.
- Já o Gemini Flash apresentou reações consideradas imprevisíveis: em algumas situações resolveu o impasse com forças convencionais; em outra, sugeriu ataque nuclear após poucas interações.
Em uma das simulações, um dos sistemas chegou a redigir mensagem com tom de ultimato extremo, sugerindo que, diante da continuidade das operações adversárias, poderia haver lançamento nuclear estratégico.
Debate sobre limites e segurança
O estudo busca compreender como modelos de linguagem processam cenários de alta tensão e quais padrões de raciocínio emergem quando assumem papéis de liderança em contextos militares simulados. A pesquisa não indica uso real dessas ferramentas em decisões militares, mas levanta discussões sobre limites, supervisão humana e segurança no desenvolvimento de sistemas de IA.
Outras notícias sobre tecnologia e inovação você encontra no Ilhéus Eventos. Acesse www.ilheuseventos.com.br e siga a gente no Instagram @ilheuseventos.

Sorry, the comment form is closed at this time.