April 20, 2026

Uma guerra pode começar hoje de forma quase impercetível. Já não começa necessariamente com um tiro ou com um tanque a atravessar uma fronteira. Pode despertar com um algoritmo que identifica um padrão num fluxo de dados, um sensor que capta um movimento ou um sistema que classifica um alvo. Em frações de segundo, um modelo de Inteligência Artificial calcula probabilidades e recomenda uma ação. E, antes que qualquer ser humano compreenda plenamente o que aconteceu, uma cadeia de decisão algorítmica pode ter sugerido uma ação imediata letal. Durante séculos, a guerra foi conduzi-da por soldados, generais, logística e armamento. No século XXI, começa a ser moldada por arquiteturas invisíveis de dados, sensores, software e Inteligência Artificial.
Nos Estados Unidos da América, programas do Departamento de Defesa e projetos de investigação da DARPA (Defense Advanced Research Projects Agency) estão a acelerar a integração da Inteligência Artificial em sistemas militares capazes de analisar informação em tempo real, apoiar decisões operacionais e coordenar sistemas autónomos. A DARPA não construiu armas nem controlo de tropas, mas financia investigação científica de alto risco em universidades, laboratórios e empresas, desenvolvendo descobertas em capacidades estratégicas. Foi neste ambiente que nasceram tecnologias como a internet, o GPS e os drones. Hoje, invista intensamente em Inteligência Artificial e em sistemas autónomos, funcionando, em muitos aspetos, como o laboratório onde se desenham as guerras do futuro antes mesmo de elas começarem.
Ao mesmo tempo, a China exibe publicamente enxames de drones completamente sincronizados e robots humanoides capazes de executar artes marciais ou participar em competições atléticas com precisão quase perfeita — imagens que circulam globalmente como demonstrações simbólicas de poder tecnológico. Mas o ponto verdadeiramente importante não está no espetáculo. Reside, precisamente, no facto de estas tecnologias serem profundamente dual-use. A mesma robótica avançada que hoje dança em demonstrações públicas pode amanhã vigiar fronteiras, guiar drones ou apoiar operações militares.
Aquilo a que estamos a assistir não é apenas a uma evolução tecnológica, deve ser encarado como o surgimento de um novo ecossistema de guerra baseado em dados, algoritmos e plataformas digitais. Contudo, uma transformação mais profunda e inelutável não ocorre apenas no campo de batalha físico: está a acontecer na mente humana. A nova frente de batalha é a guerra cognitiva.
Se a Inteligência Artificial está a alterar a forma de combate, está também a transformar, ainda mais radicalmente, a forma de perceber a guerra. A chamada guerra cognitiva — conceito discutido em documentos estratégicos da NATO — procura influenciar diretamente as perceções, emoções e decisões das populações. O objetivo deixa de ser apenas destruir as infraestruturas ou neutralizar as forças militares, para passar a ser o moldar da realidade percepcionada por cada uma das pessoas e, assim, das sociedades, das nações, das democracias.
A Inteligência Artificial tornou este fenómeno exponencial. Ferramentas generativas permitem criar vídeos hiper-realistas, vozes sintéticas indistinguíveis dos reais e imagens que nunca existiram. Narrativas falsas podem ser produzidas em grande escala e difundidas instantaneamente através das redes sociais. Nos conflitos recentes multiplicaram-se exemplos de vídeos manipulados, imagens fabricadas ou histórias completamente inventadas destinadas a convencer audiências internas e externas de vitórias inexistentes ou de crimes nunca ocorridos.
Em alguns casos, conteúdos tão absurdos como combatentes em "tapetes voadores" a enfrentar aviões de combate foram disseminados para reforçar narrativas de poder ou de resistência. Pode parecer caricatural, mas revela um fenómeno mais profundo: quando a Inteligência Artificial permite fabricar evidência visual convincente à escala industrial, a própria ideia de prova começa a dissolver-se. Num ambiente informacional saturado de conteúdos manipulados, torna-se cada vez mais difícil distinguir verdade de ficção. E quando a verdade se torna incerta, a capacidade coletiva de tomar decisões racionais enfraquece.
A guerra deixa, assim, de ser apenas militar. Passa a ser também uma disputa pelo controlo da perceção da realidade de cada mente humana, da informação e da desinformação.
A guerra deixa de ser apenas militar. Passa a ser também uma disputa pelo controlo da perceção da realidade de cada mente humana, da informação e da desinformação.
Neste contexto, tornam-se visíveis pelo menos sete riscos de uma guerra comandada por Inteligência Artificial:
1. A ilusão de controlo humano
Numa altura em que governos insistem que existe sempre um humano "no circuito", começa a tornar-se evidente que controlo formal não significa controlo efetivo. Em cenários de grande velocidade e saturação informacional, operadores humanos tendem a validar recomendações algorítmicas em vez de as questionar. Este gesto, aparentemente rotineiro, transforma a supervisão num ato simbólico. O maior risco deixa de ser a máquina disparar sozinha e passa a ser o desaparecimento subtil da responsabilidade humana.
2. A aceleração da decisão militar
A Inteligência Artificial comprime drasticamente o tempo entre a deteção, a análise e a ação. Algoritmos identificam padrões, classificamos ameaças e recomendam respostas em segundos. Este fenómeno — frequentemente designado hyperwar — reduz o espaço para a reflexão política, jurídica e ética. Erros que antes demoravam horas ou dias podem agora ocorrer em milissegundos.
3. Fragilidade do direito internacional humanitário
Este assenta em princípios de distinção, proporcionalidade e precaução, que pressupõem julgamento humano contextual. Porém, os sistemas de machine learning operam com probabilidades estatísticas baseadas em dados históricos, o que dificulta a avaliação de contextos complexos, como distinguir civis de combatentes em ambientes urbanos. O Comité Internacional da Cruz Vermelha tem alertado repetidamente para estas limitações.
4. Difusão da responsabilidade jurídica
Quando uma decisão letal resulta de um sistema algoritmico, quem responde? O comandante? O Estado? A empresa? O programador? A decisão militar torna-se o resultado de uma cadeia sociotécnica complexa que dilui responsabilidades. Sem responsabilização clara, o princípio de accountability, central no Estado de direito, fica ameaçado.
5. Proliferação tecnológica acelarada
Ao contrário das armas nucleares, a Inteligência Artificial não exige infraestruturas industriais massivas. Modelos, software e algoritmos podem ser replicados rapidamente. A guerra na Ucrânia demonstrada como drones acessíveis, combinada com visão computacional, pode alterar profundamente o campo de batalha. As tecnologias avançadas tornam-se cada vez mais acessíveis.
6. Risco de privatização da guerra tecnológica
Grande parte da investigação em Inteligência Artificial ocorre em empresas privadas. Laboratórios, fornecedores de cloud e startups tornaram-se atores centrais da segurança nacional. Em alguns casos, estas empresas estão a rever princípios éticos para permitir a colaboração com projetos militares. A guerra algorítmica deixa de ser apenas entre Estados e passa a ser uma coprodução com o setor privado.
7. A segurança da Inteligência Artificial surge como um novo campo de batalha invisível
Sistemas podem ser manipulados através de ataques adversariais, envenenamento de dados ou manipulação de sensores. Estas vulnerabilidades podem induzir decisões erradas com consequências graves. Ao mesmo tempo, a IA permite produzir propaganda altamente convincente à escala. A guerra do século XXI será travada não apenas com armas inteligentes, mas também com ataques a dados, algoritmos e sistemas de decisão.
O futuro não está determinado. Ainda é possível agir. As Nações Unidas discutem um instrumento internacional vinculativo para limitar sistemas de armas autónomas, e o secretário-geral da ONU apelou a um acordo global até 2026. Mas princípios abstratos não bastam. É necessário garantir um controlo humano significativo e verificável, revisões jurídicas rigorosas, mecanismos de auditabilidade algorítmica e uma maior responsabilização das empresas tecnológicas envolvidas e dos Estados que utilizam as diversas tecnologias. A Inteligência Artificial pode reforçar as capacidades defensivas e reduzir riscos humanos. Mas, sem regras claras, podemos também acelerar a chegada de conflitos que ainda não estamos preparados para gerir. Já sabemos que a guerra do futuro não será apenas travada por soldados e generais, mas por arquiteturas invisíveis de dados e decisões automatizadas. Se não definirmos limites agora, arriscamo-nos a descobrir demasiado tarde que delegamos às máquinas algo que nunca deveria ter sido delegado: o poder de decidir sobre a vida humana. Quando a guerra começa a pensar sozinha, a verdadeira questão deixa de ser quem vai ganhar o conflito. A questão passa a ser outra: haverá ainda há alguém plenamente humano a decidir o seu fim?