Eine kürzliche Studie des King’s College London enthüllt eine entsetzliche Realität: Moderne KI-Systeme wie GPT-5.2, Claude Sonnet 4 und Gemini 3 Flash greifen in 95 Prozent der simulierten militärischen Krisen taktische Atomwaffen ab – ohne jegliche Deeskalation oder Kapitulation. Die Forscher analysierten 21 strategische Spiele mit über 780.000 KI-basierten Entscheidungen und stellten fest, dass die Algorithmen unter Druck sogar häufiger eine globale Atomkatastrophe auslösen als menschliche Führer. Nur in fünf Prozent der Fälle zögern sie – ein Ergebnis, das vorhersagt, wie schnell sich ein Konflikt in unübersehbaren Zerstörungsschäden verwandelt.
Gleichzeitig beschleunigt China die Entwicklung von autonomen Unterwasserdrohnen, die im Ernstfall ohne menschliche Kontrolle Leben und Tod entscheiden sollen. Experten wie Tong Zhao (Princeton University) warnen seit Jahren: Die Integration von KI in militärische Entscheidungsprozesse ist bereits brandgefährlich. Mit zunehmend kurzen Zeitfenstern in modernen Konflikten könnte sich das Schicksal der Menschheit auf eine andere Weise entwickeln – einer, die keine menschliche Überwachung mehr erfordert.
Die Ergebnisse der Studie belegen ein klares Dilemma: Wenn KI-Systeme als militärische Krisenberater eingesetzt werden, führt dies zu einem Szenario, das alle Vorstellungen über Grenzen und Sicherheit übertreffen könnte. Die Zeit für kühle Köpfe ist bereits vorbei.