Künstliche Intelligenz zieht mit großer Geschwindigkeit in die Landesverteidigung ein. Das ist kein Nebenaspekt technologischer Modernisierung, sondern eine Veränderung mit strategischer Wucht. Je mehr Daten verarbeitet werden müssen, je komplexer die Lagebilder werden und je weniger Zeit für Entscheidungen bleibt, desto größer wird der Druck, Maschinen einen wachsenden Anteil an Analyse, Auswahl und Vorentscheidung zu überlassen. Das gilt für Aufklärung, Frühwarnung, Zielerkennung, Einsatzplanung und längst auch für generative Systeme.
Auf den ersten Blick klingt das nach Fortschritt. Schnellere Auswertung. Schnellere Reaktion. Schnellere Entscheidung. In militärischen Zusammenhängen ist Geschwindigkeit schließlich kein Luxus, sondern oft ein Vorteil. Der OODA-Loop soll kürzer werden: beobachten, orientieren, entscheiden, handeln. Nur hat diese Beschleunigung eine unangenehme Eigenschaft: Sie erhöht nicht automatisch die Qualität der Entscheidung. Mitunter beschleunigt sie schlicht den Irrtum.
Genau hier beginnt das eigentliche Problem. Militärische KI entscheidet nicht in einer sauberen Welt. Sie entscheidet unter Bedingungen von Unvollständigkeit, Vagheit und Unsicherheit. Sensoren liefern unklare Signale. Daten fehlen. Gegner tarnen, täuschen und stören. Elektronische Kampfführung verändert die Informationslage zusätzlich. Die Frage ist daher nicht nur, ob ein System schnell genug ist. Die Frage ist, worauf sich seine Entscheidung überhaupt stützt.
Wer ein Objekt erkennen, klassifizieren oder bewerten will, braucht Kriterien. Doch in der realen Welt sind diese Kriterien selten eindeutig. Was genau ist ein verdächtiges Bewegungsmuster? Wann wird aus einer Wahrscheinlichkeit eine belastbare Einschätzung? Wo liegt die Schwelle zwischen „auffällig“ und „harmlos“? Schon unser Alltagswissen ist voller Grauzonen. In militärischen Lagen potenziert sich das. Und genau in diesen Grauzonen soll KI plötzlich mit hoher Verlässlichkeit arbeiten.
Das ist der Punkt, an dem die Erzählung vom neutralen, objektiven System brüchig wird. KI kann Wahrscheinlichkeiten berechnen. Sie kann Muster erkennen. Sie kann in Sekunden Leistungen erbringen, für die Menschen Stunden oder Tage bräuchten. Aber sie kann die Unsicherheit der Welt nicht wegrechnen. Sie verschiebt sie nur in statistische Modelle, Gewichtungen und Klassifikationen. Das Resultat wirkt präzise. Es bleibt dennoch fehlbar.
Hinzu kommt die mangelnde Überprüfbarkeit. Moderne KI-Systeme stützen sich häufig auf sehr viele Merkmale gleichzeitig. Ihre internen Ableitungen sind oft nicht in einer Form nachvollziehbar, die menschliche Kontrolle im Ernstfall wirklich ermöglicht. Das gilt bereits für viele gegenwärtige Systeme. Bei generativer KI tritt das Problem besonders offen zutage: Sie liefert Ergebnisse, aber keinen belastbaren Lösungsweg. Sie formuliert Antworten, aber keine verifizierbare Begründung. In sicherheitsrelevanten Kontexten ist das keine Randnotiz, sondern eine rote Linie.
Gerade deshalb ist die Vorstellung so irritierend, generative KI könne ausgerechnet dort zum Einsatz kommen, wo es um Leben und Tod geht. Wenn ein System nicht einmal bei Gerichtsentscheidungen als verlässliche Begründungsinstanz taugt, sollte man sehr genau erklären müssen, warum es bei militärischen Vorentscheidungen plötzlich als Fortschritt gelten soll. Wer hier leichtfertig argumentiert, verwechselt technische Eloquenz mit Urteilskraft. Maschinen können heute sehr überzeugend klingen. Das ist noch kein Argument für politische oder militärische Verantwortung.
Doch die Probleme gehen über die einzelne Entscheidung hinaus. Der Einsatz von KI verändert auch die strategische Planbarkeit. In der klassischen Rüstungskontrolle war das Kräfteverhältnis zumindest näherungsweise messbar: Panzer, Flugzeuge, Soldaten, Trägersysteme, Reichweiten. Vieles war sichtbar, zählbar oder durch Vereinbarungen wenigstens teilweise überprüfbar. Bei KI- und Cyberwaffen ist das grundlegend anders. Fähigkeiten lassen sich im Verborgenen entwickeln. Software kann kopiert, angepasst und in zahllosen Varianten verteilt werden. Was einmal entwickelt wurde, verschwindet nicht einfach wieder.
Das hat Konsequenzen. Wenn die Fähigkeiten des Gegners unklar sind, wird Stabilität schwieriger. Wenn zugleich die eigenen Fähigkeiten nur begrenzt testbar sind, wird Planung unsicherer. Und wenn beide Seiten nicht genau wissen, was die andere Seite kann, steigt das Risiko von Fehlkalkulationen. Strategische Unsicherheit war noch nie ein guter Sicherheitsberater. Im Zeitalter lernender Systeme wird sie eher größer als kleiner.
Hinzu kommt ein neuer Rüstungswettlauf. Wer glaubt, auf KI und Cyber verzichten zu können, riskiert Abhängigkeit. Wer einsteigt, verschärft den Wettbewerb. Diese Logik ist bekannt. Neu ist, dass sie sich nun auf Technologien bezieht, deren Wirkungsweise intransparent ist und deren Verbreitung sich kaum wirksam eindämmen lässt. Das macht klassische Abrüstungs- und Kontrollmechanismen nicht völlig unmöglich, aber deutlich schwieriger. Mit anderen Worten: Die Technik wird beweglicher, die Politik muss robuster werden.
Noch ernster wird die Lage, wenn man den Blick weitet. Die Debatte endet nicht bei heutiger militärischer KI. Sie reicht bis zu den Risiken von AGI und möglicher Superintelligenz. Man muss dafür weder Science-Fiction lieben noch in Technikapokalyptik verfallen. Es genügt, die politische Asymmetrie nüchtern zu betrachten: Wenn eine Entwicklung potenziell irreversible Schäden verursachen kann, aber ihr Eintrittszeitpunkt und ihre genaue Ausprägung wissenschaftlich nicht belastbar vorhersehbar sind, dann verbietet sich Sorglosigkeit. Ein Risiko wird nicht harmlos, nur weil sein Eintreten schwer zu datieren ist.
Das gilt umso mehr, weil neue Bedrohungen nicht mehr nur von Staaten ausgehen. KI-gestützte Cyberangriffe, autonome Waffensysteme, synthetische Bio- und Chemierisiken oder hochskalierbare Desinformationsoperationen senken die Eintrittsschwelle für Akteure mit vergleichsweise geringen Mitteln. Militärische Stärke schützt gegen solche Gefahren nur begrenzt. Atomwaffen helfen nicht gegen entgrenzte Software. Abschreckung funktioniert schlecht gegen lose Netzwerke, private Akteure oder Systeme, die sich verselbständigen. Auch das ist eine strategische Zumutung der neuen Zeit.
Was folgt daraus politisch?
Erstens: Wir brauchen mehr Nüchternheit. KI ist kein magischer Ordnungsfaktor. Sie ist ein Instrument mit enormer Leistungsfähigkeit und erheblichen Risiken.
Zweitens: Regulierung darf nicht bei zivilen Anwendungsfällen stehenbleiben. Der europäische AI Act ist ein Anfang, aber kein sicherheitspolitisches Gesamtkonzept.
Drittens: Rüstungskontrolle muss technologisch neu gedacht werden. Vereinbarungen zu Cyberwaffen, autonomen Waffensystemen und militärischen KI-Anwendungen sind mühsam, aber unverzichtbar.
Viertens schließlich: Ohne internationale Kommunikation, Vertrauen und politische Zusammenarbeit wird Risikoreduzierung nicht gelingen. Das klingt altmodisch. Ist es aber nicht. Es ist schlicht realistisch. Wer wirksame Regeln will, kommt an Verhandlungen nicht vorbei. Wer globale Risiken mindern will, muss auch mit Rivalen sprechen. Sicherheit entsteht nicht nur durch Stärke, sondern auch durch Verständigung, Transparenz und belastbare Kanäle zwischen Staaten und Gesellschaften.
Die eigentliche Herausforderung der KI in der Landesverteidigung ist daher nicht technischer, sondern politischer Natur. Die Systeme werden schneller. Die Welt wird dadurch nicht automatisch klarer. Im Gegenteil. Gerade weil KI militärische Prozesse beschleunigt, muss Politik entschleunigt genug bleiben, um Grenzen zu setzen. Sonst erleben wir bald eine paradoxe Form des Fortschritts: immer mehr Rechenleistung, immer weniger Kontrolle.
Über Karl Hans Bläsius:
Prof. Dr. Karl Hans Bläsius ist Informatiker und emeritierter Professor der Hochschule Trier. Als KI-Pionier arbeitete er insbesondere zu wissensbasierten Systemen, Dokumentanalyse sowie computergestützten Frühwarn- und Entscheidungssystemen.
Nach seinem Studium der Mathematik, Physik und Informatik an der RWTH Aachen und der Promotion in Informatik an der Universität Kaiserslautern war er unter anderem bei AEG und IBM tätig, bevor er eine Professur im Fachbereich Informatik übernahm. Seit Jahren befasst er sich kritisch mit den gesellschaftlichen Risiken von KI, insbesondere im Zusammenhang mit automatisierten Entscheidungsprozessen und nuklearen Frühwarnsystemen.
Über Axel Fersen:
Axel Fersen ist Politikwissenschaftler und Experte für digitale Transformation und künstliche Intelligenz. Nach dem Studium an der Johannes-Gutenberg-Universität Mainz führte ihn sein Weg in die Technologiebranche. Heute lebt und arbeitet er in Barcelona. Politisch ist er seit 1984 in der SPD engagiert und Mitglied der katalanischen Schwesterpartei PSC. Er koordiniert den Erhard-Eppler-Kreis, gehört dessen Leitungskreis an, ist Vorstandsmitglied des Europa-Instituts für Sozial- und Gesundheitsforschung an der Alice Salomon Hochschule Berlin und wirkt in der Studiengruppe Technikfolgenabschätzung der Digitalisierung der Vereinigung Deutscher Wissenschaftler (VDW) mit.












