• Über uns
  • Freund*innenkreis
  • Verein
  • Autor*innen
  • Impressum
  • Datenschutz
  • Archiviert
  • Contra AfD
Mittwoch, März 18, 2026
Blog der Republik
Advertising
  • Alle Beiträge
  • Politik
  • Wirtschaft
  • Gesellschaft & Medien
  • Kultur
  • Contra AfD – Für Demokratie. Jetzt!
Kein Ergebnis
Alle Ergebnisse anzeigen
  • Alle Beiträge
  • Politik
  • Wirtschaft
  • Gesellschaft & Medien
  • Kultur
  • Contra AfD – Für Demokratie. Jetzt!
Kein Ergebnis
Alle Ergebnisse anzeigen
Blog der Republik
Kein Ergebnis
Alle Ergebnisse anzeigen
Home Politik

KI in der Landesverteidigung – Warum mehr Tempo nicht mehr Sicherheit bedeutet. Gastbeitrag von Axel Fersen und Karl Hans Bläsius

Gastbeitrag Von Gastbeitrag
18. März 2026
KI und Verteidigung, AI generiert ChatGPT

Künstliche Intelligenz zieht mit großer Geschwindigkeit in die Landesverteidigung ein. Das ist kein Nebenaspekt technologischer Modernisierung, sondern eine Veränderung mit strategischer Wucht. Je mehr Daten verarbeitet werden müssen, je komplexer die Lagebilder werden und je weniger Zeit für Entscheidungen bleibt, desto größer wird der Druck, Maschinen einen wachsenden Anteil an Analyse, Auswahl und Vorentscheidung zu überlassen. Das gilt für Aufklärung, Frühwarnung, Zielerkennung, Einsatzplanung und längst auch für generative Systeme.

Auf den ersten Blick klingt das nach Fortschritt. Schnellere Auswertung. Schnellere Reaktion. Schnellere Entscheidung. In militärischen Zusammenhängen ist Geschwindigkeit schließlich kein Luxus, sondern oft ein Vorteil. Der OODA-Loop soll kürzer werden: beobachten, orientieren, entscheiden, handeln. Nur hat diese Beschleunigung eine unangenehme Eigenschaft: Sie erhöht nicht automatisch die Qualität der Entscheidung. Mitunter beschleunigt sie schlicht den Irrtum.

Genau hier beginnt das eigentliche Problem. Militärische KI entscheidet nicht in einer sauberen Welt. Sie entscheidet unter Bedingungen von Unvollständigkeit, Vagheit und Unsicherheit. Sensoren liefern unklare Signale. Daten fehlen. Gegner tarnen, täuschen und stören. Elektronische Kampfführung verändert die Informationslage zusätzlich. Die Frage ist daher nicht nur, ob ein System schnell genug ist. Die Frage ist, worauf sich seine Entscheidung überhaupt stützt.

Wer ein Objekt erkennen, klassifizieren oder bewerten will, braucht Kriterien. Doch in der realen Welt sind diese Kriterien selten eindeutig. Was genau ist ein verdächtiges Bewegungsmuster? Wann wird aus einer Wahrscheinlichkeit eine belastbare Einschätzung? Wo liegt die Schwelle zwischen „auffällig“ und „harmlos“? Schon unser Alltagswissen ist voller Grauzonen. In militärischen Lagen potenziert sich das. Und genau in diesen Grauzonen soll KI plötzlich mit hoher Verlässlichkeit arbeiten.

Das ist der Punkt, an dem die Erzählung vom neutralen, objektiven System brüchig wird. KI kann Wahrscheinlichkeiten berechnen. Sie kann Muster erkennen. Sie kann in Sekunden Leistungen erbringen, für die Menschen Stunden oder Tage bräuchten. Aber sie kann die Unsicherheit der Welt nicht wegrechnen. Sie verschiebt sie nur in statistische Modelle, Gewichtungen und Klassifikationen. Das Resultat wirkt präzise. Es bleibt dennoch fehlbar.

Hinzu kommt die mangelnde Überprüfbarkeit. Moderne KI-Systeme stützen sich häufig auf sehr viele Merkmale gleichzeitig. Ihre internen Ableitungen sind oft nicht in einer Form nachvollziehbar, die menschliche Kontrolle im Ernstfall wirklich ermöglicht. Das gilt bereits für viele gegenwärtige Systeme. Bei generativer KI tritt das Problem besonders offen zutage: Sie liefert Ergebnisse, aber keinen belastbaren Lösungsweg. Sie formuliert Antworten, aber keine verifizierbare Begründung. In sicherheitsrelevanten Kontexten ist das keine Randnotiz, sondern eine rote Linie.

Gerade deshalb ist die Vorstellung so irritierend, generative KI könne ausgerechnet dort zum Einsatz kommen, wo es um Leben und Tod geht. Wenn ein System nicht einmal bei Gerichtsentscheidungen als verlässliche Begründungsinstanz taugt, sollte man sehr genau erklären müssen, warum es bei militärischen Vorentscheidungen plötzlich als Fortschritt gelten soll. Wer hier leichtfertig argumentiert, verwechselt technische Eloquenz mit Urteilskraft. Maschinen können heute sehr überzeugend klingen. Das ist noch kein Argument für politische oder militärische Verantwortung.

Doch die Probleme gehen über die einzelne Entscheidung hinaus. Der Einsatz von KI verändert auch die strategische Planbarkeit. In der klassischen Rüstungskontrolle war das Kräfteverhältnis zumindest näherungsweise messbar: Panzer, Flugzeuge, Soldaten, Trägersysteme, Reichweiten. Vieles war sichtbar, zählbar oder durch Vereinbarungen wenigstens teilweise überprüfbar. Bei KI- und Cyberwaffen ist das grundlegend anders. Fähigkeiten lassen sich im Verborgenen entwickeln. Software kann kopiert, angepasst und in zahllosen Varianten verteilt werden. Was einmal entwickelt wurde, verschwindet nicht einfach wieder.

Das hat Konsequenzen. Wenn die Fähigkeiten des Gegners unklar sind, wird Stabilität schwieriger. Wenn zugleich die eigenen Fähigkeiten nur begrenzt testbar sind, wird Planung unsicherer. Und wenn beide Seiten nicht genau wissen, was die andere Seite kann, steigt das Risiko von Fehlkalkulationen. Strategische Unsicherheit war noch nie ein guter Sicherheitsberater. Im Zeitalter lernender Systeme wird sie eher größer als kleiner.

Hinzu kommt ein neuer Rüstungswettlauf. Wer glaubt, auf KI und Cyber verzichten zu können, riskiert Abhängigkeit. Wer einsteigt, verschärft den Wettbewerb. Diese Logik ist bekannt. Neu ist, dass sie sich nun auf Technologien bezieht, deren Wirkungsweise intransparent ist und deren Verbreitung sich kaum wirksam eindämmen lässt. Das macht klassische Abrüstungs- und Kontrollmechanismen nicht völlig unmöglich, aber deutlich schwieriger. Mit anderen Worten: Die Technik wird beweglicher, die Politik muss robuster werden.

Noch ernster wird die Lage, wenn man den Blick weitet. Die Debatte endet nicht bei heutiger militärischer KI. Sie reicht bis zu den Risiken von AGI und möglicher Superintelligenz. Man muss dafür weder Science-Fiction lieben noch in Technikapokalyptik verfallen. Es genügt, die politische Asymmetrie nüchtern zu betrachten: Wenn eine Entwicklung potenziell irreversible Schäden verursachen kann, aber ihr Eintrittszeitpunkt und ihre genaue Ausprägung wissenschaftlich nicht belastbar vorhersehbar sind, dann verbietet sich Sorglosigkeit. Ein Risiko wird nicht harmlos, nur weil sein Eintreten schwer zu datieren ist.

Das gilt umso mehr, weil neue Bedrohungen nicht mehr nur von Staaten ausgehen. KI-gestützte Cyberangriffe, autonome Waffensysteme, synthetische Bio- und Chemierisiken oder hochskalierbare Desinformationsoperationen senken die Eintrittsschwelle für Akteure mit vergleichsweise geringen Mitteln. Militärische Stärke schützt gegen solche Gefahren nur begrenzt. Atomwaffen helfen nicht gegen entgrenzte Software. Abschreckung funktioniert schlecht gegen lose Netzwerke, private Akteure oder Systeme, die sich verselbständigen. Auch das ist eine strategische Zumutung der neuen Zeit.

Was folgt daraus politisch?

Erstens: Wir brauchen mehr Nüchternheit. KI ist kein magischer Ordnungsfaktor. Sie ist ein Instrument mit enormer Leistungsfähigkeit und erheblichen Risiken.

Zweitens: Regulierung darf nicht bei zivilen Anwendungsfällen stehenbleiben. Der europäische AI Act ist ein Anfang, aber kein sicherheitspolitisches Gesamtkonzept.

Drittens: Rüstungskontrolle muss technologisch neu gedacht werden. Vereinbarungen zu Cyberwaffen, autonomen Waffensystemen und militärischen KI-Anwendungen sind mühsam, aber unverzichtbar.

Viertens schließlich: Ohne internationale Kommunikation, Vertrauen und politische Zusammenarbeit wird Risikoreduzierung nicht gelingen. Das klingt altmodisch. Ist es aber nicht. Es ist schlicht realistisch. Wer wirksame Regeln will, kommt an Verhandlungen nicht vorbei. Wer globale Risiken mindern will, muss auch mit Rivalen sprechen. Sicherheit entsteht nicht nur durch Stärke, sondern auch durch Verständigung, Transparenz und belastbare Kanäle zwischen Staaten und Gesellschaften.

Die eigentliche Herausforderung der KI in der Landesverteidigung ist daher nicht technischer, sondern politischer Natur. Die Systeme werden schneller. Die Welt wird dadurch nicht automatisch klarer. Im Gegenteil. Gerade weil KI militärische Prozesse beschleunigt, muss Politik entschleunigt genug bleiben, um Grenzen zu setzen. Sonst erleben wir bald eine paradoxe Form des Fortschritts: immer mehr Rechenleistung, immer weniger Kontrolle.

 

Über Karl Hans Bläsius:

Prof. Dr. Karl Hans Bläsius ist Informatiker und emeritierter Professor der Hochschule Trier. Als KI-Pionier arbeitete er insbesondere zu wissensbasierten Systemen, Dokumentanalyse sowie computergestützten Frühwarn- und Entscheidungssystemen.

Nach seinem Studium der Mathematik, Physik und Informatik an der RWTH Aachen und der Promotion in Informatik an der Universität Kaiserslautern war er unter anderem bei AEG und IBM tätig, bevor er eine Professur im Fachbereich Informatik übernahm. Seit Jahren befasst er sich kritisch mit den gesellschaftlichen Risiken von KI, insbesondere im Zusammenhang mit automatisierten Entscheidungsprozessen und nuklearen Frühwarnsystemen.

 

Über Axel Fersen:

Axel Fersen ist Politikwissenschaftler und Experte für digitale Transformation und künstliche Intelligenz. Nach dem Studium an der Johannes-Gutenberg-Universität Mainz führte ihn sein Weg in die Technologiebranche. Heute lebt und arbeitet er in Barcelona. Politisch ist er seit 1984 in der SPD engagiert und Mitglied der katalanischen Schwesterpartei PSC. Er koordiniert den Erhard-Eppler-Kreis, gehört dessen Leitungskreis an, ist Vorstandsmitglied des Europa-Instituts für Sozial- und Gesundheitsforschung an der Alice Salomon Hochschule Berlin und wirkt in der Studiengruppe Technikfolgenabschätzung der Digitalisierung der Vereinigung Deutscher Wissenschaftler (VDW) mit.

Print Friendly, PDF & EmailAusdrucken/PDF erstellen:
Teilen Sie diesen Artikel:
Instagram
Vorherigen Post

Genüssliche Gerüchte-Küche zu Habermäusen und Weizsäcken

Schreibe einen Kommentar Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaut mal hier

  • Justizskandal im Sauerland: Das von Charlotte Merz, Ehefrau von Bundeskanzler Friedrich Merz, geleitete Amtsgericht erließ einen rechtswidrigen Durchsuchungsbeschluss gegen eine junge SPD-Frau 08.09.2025
  • Geschichtsrevisionismus: Basteln an der „zweiten Geburt“ 15.4.2025
  • Leak zu Zwei-Klassen-Struktur beim BSW - Sahras Knechte 22.2.2025
  • Sätze aus dem Wahlprogramm der AfD - und was sie bedeuten 18.2.2025
  • Kulturbegriff der AfD : Aufgeladen mit völkischer Ideologie 5.2.2025
  • Das Spiel der Lobbyisten und Politiker: Erik Ahrens – Ein tiefer Fall innerhalb der rechtsextremen Netzwerke 23.1.2025
  • Petition: Finger weg von unserer Demokratie, Herr Musk 3.1.2025

UNSER NEWSLETTER

Abonnieren Sie unseren Newsletter und werden Sie einer unserer 3.011 Abonnenten.

Prüfen Sie Ihren Posteingang und den Spamordner, um Ihr Abonnement zu bestätigen.

Werbung

[the_ad id="27291"]

Letzte Kommentare

  • Theo Schweiger bei Missbrauch in der Kirche: Täter werden geschont
  • Philipp bei Der nächste Energiekrieg. Die Folgen des Irankrieges auf die Preise von Gas und Strom in Europa waren absehbar
  • Dr. Karl-Heinz Klär bei Ermordung eines Staatsoberhaupts – Beerdigung einer Verbots-Norm nach 300 Jahren Bestand?
  • Jürgen Merschmeier bei WOCHENMARKT: Von weinenden Redakteuren und einer Denksportaufgabe für Historiker

UNSER NEWSLETTER

Abonnieren Sie unseren Newsletter und werden Sie einer unserer 3.011 Abonnenten.

Prüfen Sie Ihren Posteingang und den Spamordner, um Ihr Abonnement zu bestätigen.

  • Trending
  • Comments
  • Neueste
Friedensdemo Bonn, Oktober 1981

Grüne und Krieg — Partei-Austritt des Gründungsmitglieds Ulfried Geuter

18. März 2024
Alice Weidel, Elon Musk und Esel, Screenshot Tik Tok

ARD-Wahlarena – Weidels Lügen sind Methode

18. Februar 2025
Feigenblatt

Alice Weidel: Das lesbische Feigenblatt und das Familienbild der AfD

1. Januar 2025
Screenshots von TikTok_Accounts aufgestachelter Bauern oder AfDlern oder anderen "Empörern"

Aufruf zur Bauerndemo in Berlin, AfD-Anhänger und andere Rechtsextreme mobilisieren.

24. Oktober 2024
Friedensdemo Bonn, Oktober 1981

Grüne und Krieg — Partei-Austritt des Gründungsmitglieds Ulfried Geuter

Screenshot ARD-Mediathek zur Sendung von Caren Miosga

Talk bei Miosga: Die Entlarvung der Sahra Wagenknecht

Kriegszerstörungen in der Ukraine

Ukraine: Verantwortungsbewusstes Handeln statt gefährlicher moralischer Überheblichkeit

Mauer in der NS-Ordensburg Vogelsang mit NS-Adler im Mauerwerk

Lasst Höcke regieren!

KI und Verteidigung, AI generiert ChatGPT

KI in der Landesverteidigung – Warum mehr Tempo nicht mehr Sicherheit bedeutet. Gastbeitrag von Axel Fersen und Karl Hans Bläsius

18. März 2026
Carl Friedrich von Weizsäcker und Jürgen Habermas.

Genüssliche Gerüchte-Küche zu Habermäusen und Weizsäcken

18. März 2026
Jürgen Habermas

Auf ein Wort: Zum Tod von Jürgen Habermas

17. März 2026
Hochamt im Dom zu Paderborn

Die neue Missbrauchsstudie der Universität Paderborn geht uns alle an

16. März 2026

BLOG DER REPUBLIK

Blog der Republik

Kategorien

  • Allgemein
  • Buchbesprechungen
  • Contra AfD – Für Demokratie. Jetzt!
  • Gesellschaft & Medien
  • Kultur
  • Politik
  • Wirtschaft

Kategorien

  • Alle Beiträge
  • Politik
  • Wirtschaft
  • Gesellschaft & Medien
  • Kultur
  • Standpunkte

Schlagwörter

AfD CDU Demokratie EU Frieden Merz NoAfD Rechtsextremismus Ukraine wehrhafte Demokratie

© 2026 Blog der Republik.

Kein Ergebnis
Alle Ergebnisse anzeigen
  • Alle Beiträge
  • Politik
  • Wirtschaft
  • Gesellschaft & Medien
  • Kultur
  • Contra AfD – Für Demokratie. Jetzt!

© 2025 Blog der Republik