• Über uns
  • Freund*innenkreis
  • Verein
  • Autor*innen
  • Impressum
  • Datenschutz
  • Archiviert
  • Contra AfD
Mittwoch, Mai 13, 2026
Blog der Republik
Advertising
  • Alle Beiträge
  • Politik
  • Wirtschaft
  • Gesellschaft & Medien
  • Kultur
  • Contra AfD – Für Demokratie. Jetzt!
Kein Ergebnis
Alle Ergebnisse anzeigen
  • Alle Beiträge
  • Politik
  • Wirtschaft
  • Gesellschaft & Medien
  • Kultur
  • Contra AfD – Für Demokratie. Jetzt!
Kein Ergebnis
Alle Ergebnisse anzeigen
Blog der Republik
Kein Ergebnis
Alle Ergebnisse anzeigen
Home Politik

Was die Maschine dazu dichtet Wer heute KI-Systeme programmieren lässt, bekommt mehr Code als bestellt – und hat keine Ahnung, was darin noch steckt. Gastbeitrag von Karl Hans Bläsius und Axel Fersen

Gastbeitrag Von Gastbeitrag
13. Mai 2026
Symbolbild Angst: Schemenhafte Hand hinter Glas.

Im März hat Digitalminister Karsten Wildberger vor massiven Jobverlusten durch KI gewarnt, auch die Informatik hat er explizit genannt: „Wenn die KI den Informatikern, Mathematikern und vielen anderen ihre Jobs wegnimmt, dann brauchen diese Menschen eine andere sinnvolle Betätigung.“[1] Damit spricht er den Trend zur automatischen Programmierung durch Systeme der generativen KI an. Viele Unternehmen entlassen bereits Informatiker oder stellen keine mehr ein, da KI-Systeme Programmieraufgaben übernehmen und damit die Effektivität verbleibender Informatiker drastisch erhöhen. Die bisherige Erfahrung hat gezeigt, dass gut ausgebildete Informatiker spezielle Aufgaben an KI-Systeme delegieren und deren Ergebnisse in ein größeres System einbauen können, wobei die Menschen die Planung und Kontrolle behalten, aber in viel kürzerer Zeit deutlich mehr Code erzeugen und damit Programmieraufgaben lösen können.

Sicherheitsrisiken

Auch bei der Informationsbeschaffung und -verbreitung können KI-Systeme hervorragende Dienste erbringen, aber auch missbraucht werden, um in großem Stil Desinformationen, wie Deep-Fakes zu erstellen und zu verbreiten. Analog können automatische Programmiersysteme auch missbraucht werden, um Software zu erzeugen, die Schaden anrichten kann. Anfang April hat Anthropic, einer der führenden KI-Hersteller, ein neues System namens Claude Mythos vorgestellt und zugleich entschieden, es nicht öffentlich freizugeben. In Tests stellte sich heraus, dass es als Nebeneffekt seiner allgemeinen Fähigkeiten Sicherheitslücken in fremder Software finden und ausnutzen kann, schneller und gründlicher als die meisten menschlichen Spezialisten. Tausende solcher Lücken wurden in Betriebssystemen, Browsern und kritischer Infrastruktur entdeckt. Anthropic beschreibt Mythos als Quantensprung mit beispiellosen Cyberrisiken. Das britische AI Security Institute berichtet von einem klaren Leistungssprung gegenüber bisherigen Modellen und von erfolgreichen autonomen Mehrphasen‑Angriffen in Tests.[2]

Aber auch ohne Missbrauchsabsichten stellt sich die Frage nach der Sicherheit automatisch erzeugter Software. Mit dem Erfolg der Nutzung von KI-Systemen zur Programmierung wird diese Art Softwareentwicklung in hohem Tempo zunehmen, denn das ist effizient und damit wirtschaftlich rentabel. Auch weniger gut ausgebildete Programmierer und vielleicht sogar Laien werden diese Möglichkeit zur Programmierung nutzen und auch umfangreicheren Code und komplette Systeme automatisch erzeugen. Auch Nutzer ohne tiefere Informatikkenntnisse können diese KI-Systeme nutzen, indem sie in natürlicher Sprache beschreiben, was zu erzeugende Programme tun sollen. Daraus ergeben sich aber erhebliche Sicherheitsrisiken.

Vibe Coding

Diese neue Art, Software entstehen zu lassen, trägt unter Programmierern bereits einen eigenen Namen. Sie heißt Vibe Coding. Der Begriff klingt unbeschwert, fast nach Lebensgefühl, und genau das ist gemeint: Man beschreibt einer KI in alltäglicher Sprache, was am Ende ungefähr herauskommen soll, und überlässt ihr alles Weitere. Keine detaillierte exakte Spezifikation, keine technische Pflichtenliste, keine Detailprüfung. Die Maschine erledigt den Rest.

Das ist verlockend, weil es schnell geht und weil es zu funktionieren scheint. Wer früher ein einfaches Programm wollte, brauchte einen Programmierer, eine Beschreibung, eine Reihe von Tests. Heute genügen wenige Sätze. Die fertige Anwendung erscheint in Sekunden. Sie startet, sie liefert ein Ergebnis, sie sieht aus wie das, was man sich vorgestellt hat. Damit ist die Sache aus Sicht des Auftraggebers erledigt.

Sie ist es aber nicht. Denn natürliche Sprache ist keine Spezifikation. Wenn ich einer Maschine sage, sie solle „Rechnungen sortieren“ oder „einen Bericht zusammenfassen“, lasse ich tausend Fragen offen. Sortieren nach welchen Kriterien, in welcher Reihenfolge, mit welchen Ausnahmen, in welchem Format. Zusammenfassen mit oder ohne Bewertung, mit oder ohne Empfehlungen, mit oder ohne Zugriff auf weitere Quellen. Ein menschlicher Programmierer würde diese Lücken füllen, indem er nachfragt. Ein KI-System dagegen füllt sie selbst, mit dem, was es aus Millionen anderer Programme gelernt hat.

Nichtbestellte Funktionalität

Genau hier liegt der wunde Punkt. Damit das System nicht ständig auf Lücken hinweisen muss, baut es lieber zu viel ein als zu wenig. Eine Hilfsfunktion, die nicht angefordert war. Einen Datenexport, weil ähnliche Programme einen hatten. Eine kleine Bewertungslogik, weil das in vergleichbaren Fällen üblich ist. Einen Zugriffspfad, der niemandem schadet, solange ihn keiner benutzt. Aus Sicht der Maschine ist das Effizienz: weniger Rückfragen, schnelleres Ergebnis, zufriedener Nutzer. Aus Sicht der Sicherheit ist es ein Problem.

Denn diese zusätzlichen Funktionen verschwinden nicht. Sie sind da. Sie sind im Code, sie sind installiert, sie sind ausführbar. Niemand hat sie ausdrücklich freigegeben, niemand hat sie geprüft, oft hat niemand bemerkt, dass es sie gibt. Geprüft wird, was bestellt wurde: ob die Anwendung die Rechnungen sortiert, ob der Bericht zusammengefasst wird, ob das Formular läuft. Was darüber hinaus enthalten ist, fällt selten auf. Tests sind dafür kein Schutz. Tests prüfen, ob die gewünschten Funktionen wie gewünscht arbeiten. Sie prüfen nicht, was sonst noch im Programm steckt.

So entsteht in vielen kleinen Schritten eine technische Welt mit verborgenen Möglichkeiten. Eine Exportfunktion, die niemand bestellt hat, kann Monate später benutzt werden, um Daten weiterzugeben, an die im ursprünglichen Auftrag niemand gedacht hatte. Eine ungeprüfte Bewertungslogik wird beiläufig, wie eine Entscheidungshilfe behandelt, obwohl sie auf nichts geeicht ist. Eine zusätzliche Zugriffsschicht wartet, bis sie jemand findet. Bildlich gesprochen lässt Vibe Coding Gebäude entstehen, in denen Seitentüren existieren, die kein Architekt je in den Plan gezeichnet hat. Solange sie geschlossen bleiben, fällt nichts auf. Aber sie sind da, und sie können geöffnet werden.

Irgendwas Gelerntes, auch Schadsoftware

Bisher klingt das wie ein technisches Detail, das vor allem Softwareingenieure beunruhigen sollte. Es ist aber mehr. Wer beide Beobachtungen, vibe coding sowie Finden und Nutzen von Sicherheitslücken nebeneinanderlegt, sieht, worum es eigentlich geht. KI-Systeme, die Software erzeugen, lernen ihr Handwerk an allem, was im Netz steht, einschließlich Schadsoftware, Exploits und Angriffslogik. Das Wissen, wie man Sicherheitslücken findet und nutzt, ist für ein solches System nicht etwas Verbotenes, das man bewusst aufrufen müsste, sondern eine erlernte Möglichkeit unter vielen. Es braucht keinen bösen Willen, keine Absicht, kein Bewusstsein, damit dieses Wissen einfließt. Es genügt, dass die Anweisung „Sortiere mir die Rechnungen“ eben nicht spezifiziert hat, was das System sonst noch tun darf. In genau dem Spielraum, den die Sprache offenlässt, kann sich, ohne dass es jemand merkt, eine Funktion einschleichen, die irgendwann zur Hintertür wird.

Risiken im zivilen Bereich

Wenn im zivilen Bereich, wie z.B. bei der Automatisierung von Geschäftsprozessen, irgendwann in bestimmten Situationen nicht gewünschte Funktionen zur Geltung kommen und zu falschen Ergebnissen führen, kann dies oft festgestellt und die falschen Ergebnisse können korrigiert werden.  Aber auch hier könnten sensible Daten abfließen, an die Konkurrenz gelangen oder veröffentlicht werden. Selbst nach Jahren problemloser Anwendung könnten durch spezielle Daten getriggert, Funktionen ausgeführt werden, die z.B. Cyberangriffe gegen Mitbewerber starten. Möglicherweise wird die Quelle für solche Angriffe nicht leicht feststellbar sein und die Angriffe wiederholen sich in bestimmten Abständen.

Nach einer Studie ist ein Drittel neuer Webseiten KI-generiert.[3] Auch hier wird in der Regel gelten, dass die Anforderungen an das KI-System vage und unvollständig sind, und das KI-System muss viel mehr Funktionalität realisieren als nötig, damit die gewünschten Funktionen mit hoher Wahrscheinlichkeit auch enthalten sind. Wie kann verhindert werden, dass ein KI-System bei einem Auftrag für ein Shop-System auch Funktionen einbaut, um Mitbewerber mit Cyberangriffen zu überziehen? Das KI-System könnte eine solche Funktion als nützlich für den Auftraggeber ansehen. Dieses Beispiel ist jedoch nur eine von sehr vielen Möglichkeiten, was bei einer solchen nicht exakt spezifizierten automatischen Programmierung schief gehen kann.

Militärische Risiken

Im militärischen Bereich, in den die großen KI-Anbieter inzwischen zunehmend Verträge schließen, sind die Risiken noch deutlich größer. Wo Programme in Waffensystemen, Aufklärungsketten oder Entscheidungsroutinen laufen, wo sie schnell entstehen sollen, um angeblich einen Zeitvorteil gegenüber einem Gegner zu schaffen, wo Tests unter Realbedingungen kaum möglich sind, dort wird der Spielraum, den eine Maschine selbst füllen darf, gefährlich groß.

Militärische Abläufe sind nicht so gut planbar wie beispielsweise Geschäftsprozesse. Es gibt einen Gegner, der die eigenen Aktivitäten stören möchte und unbekannte Absichten hat. Die Dynamik des Geschehens in Kriegen ist sehr hoch. Natürlich möchte auch das Militär beste technische Möglichkeiten nutzen und damit auch vibe coding um schneller gewünschte Programme erzeugen zu können. Es besteht allerdings das Risiko, dass zusätzlich gebildete und nicht gewünschte Funktionen nicht bei Tests und Übungen, sondern erst in Kriegen und damit anderen Situationen zur Anwendung kommen, mit möglicherweise fatalen Folgen. Studien und Simulationen zeigen seit Jahren denselben Befund: KI-gesteuerte Systeme greifen in Krisen früher und härter zu, eskalieren schneller, scheuen weniger vor extremen Mitteln zurück. Wer in solche Architekturen Code einbauen lässt, dessen Funktionen niemand vollständig kennt, riskiert Konsequenzen, die kein Auftraggeber je in eine Anweisung geschrieben hätte.

Sinkende Kompetenzen

Selbst wenn Fehlfunktionen von automatisch erzeugter Software festgestellt werden, wird es in Zukunft schwieriger werden, solche Fehler zu beheben. Wenn Menschen zunehmend KI-Systeme zur Programmierung nutzen, verringern sich die eigenen Kompetenzen, um Software zu erzeugen und zu prüfen. Als Folge werden Software-Unternehmen irgendwann nicht mehr über die personellen Ressourcen mit erforderlichen Programmierfähigkeiten verfügen, um die Ursachen für solche Fehlfunktionen zu finden und diese zu beheben. Dieses Risiko wird in der Literatur auch als „cognitive rust belt“ bezeichnet.[4]

Sichere Programmierung in natürlicher Sprache nicht möglich

Das eigentliche Problem ist also nicht eine einzelne Software, nicht ein einzelnes Modell, nicht einmal die Frage, ob Mythos in falsche Hände gerät. Das Problem ist eine Praxis, in der wir uns daran gewöhnen, Maschinen Aufgaben in Alltagssprache zuzurufen und das Ergebnis zu nehmen, wie es kommt. Programmieren in natürlicher Sprache ist kein Festlegen, sondern ein Andeuten. Schon allein aufgrund der Mehrdeutigkeit natürlicher Sprache, sind so prinzipiell keine exakten Spezifikationen möglich. Was die Maschine darüber hinaus tut, bleibt unsichtbar, solange niemand danach fragt. Mit jeder weiteren Anwendung, die so entsteht, wächst eine technische Schicht, deren tatsächliche Möglichkeiten niemand mehr überblickt.

Die Abhängigkeit von funktionierenden Computersystemen ist heute sehr hoch, auch vom Internet. Mit den Möglichkeiten zur automatischen Programmierung wird diese Abhängigkeit rasant weiter steigern. An der dabei nötigen Sicherheit könnte es aber in Zukunft mangeln. Vibe coding im großen Stil kann keine Sicherheit liefern.

Es lohnt sich, an dieser Stelle innezuhalten. Bequemlichkeit ist ein schlechter Berater, wenn es um Systeme geht, deren Wirkung über das hinausgeht, was wir bestellt haben. Vor jedem produktiven Einsatz solcher Werkzeuge stellt sich eine schlichte Frage, die in jeder Sprache verständlich ist: Wissen wir, was wir gerade bekommen, oder betrachten wir nur das, was bestellt war und funktioniert und ignorieren den Rest?

 

Über Karl Hans Bläsius:

Prof. Dr. Karl Hans Bläsius ist Informatiker und emeritierter Professor der Hochschule Trier. Als KI-Pionier arbeitete er insbesondere zu wissensbasierten Systemen, Dokumentanalyse sowie computergestützten Frühwarn- und Entscheidungssystemen.

Nach seinem Studium der Mathematik, Physik und Informatik an der RWTH Aachen und der Promotion in Informatik an der Universität Kaiserslautern war er unter anderem bei AEG und IBM tätig, bevor er eine Professur im Fachbereich Informatik übernahm. Seit Jahren befasst er sich kritisch mit den gesellschaftlichen Risiken von KI, insbesondere im Zusammenhang mit automatisierten Entscheidungsprozessen und nuklearen Frühwarnsystemen.

Über Axel Fersen:

Axel Fersen ist Politikwissenschaftler und Experte für digitale Transformation und künstliche Intelligenz. Nach dem Studium an der Johannes-Gutenberg-Universität Mainz führte ihn sein Weg in die Technologiebranche. Heute lebt und arbeitet er in Barcelona. Politisch ist er seit 1984 in der SPD engagiert und Mitglied der katalanischen Schwesterpartei PSC. Er koordiniert den Erhard-Eppler-Kreis, gehört dessen Leitungskreis an, ist Vorstandsmitglied des Europa-Instituts für Sozial- und Gesundheitsforschung an der Alice Salomon Hochschule Berlin und wirkt in der Studiengruppe Technikfolgenabschätzung der Digitalisierung der Vereinigung Deutscher Wissenschaftler (VDW) mit.

[1] https://www.noz.de/deutschland-welt/politik/artikel/digitalminister-wildberger-zu-tiktok-und-kuenstlicher-intelligenz-50158968

[2] https://fortune.com/2026/03/26/anthropic-says-testing-mythos-powerful-new-ai-model-after-data-leak-reveals-its-existence-step-change-in-capabilities/

[3]  https://www.heise.de/news/Studie-Ein-Drittel-neuer-Websites-ist-KI-generiert-11274659.html

[4] https://www.sentinelone.com/blog/the-implementation-blind-spot-why-organizations-are-confusing-temporary-friction-with-permanent-safety/

Print Friendly, PDF & EmailAusdrucken/PDF erstellen:
Teilen Sie diesen Artikel:
Instagram
Vorherigen Post

Wie aus einem Betriebsunfall eine Ära wurde. Wilfried Kretschmann geht- nach 15 Jahren

Schreibe einen Kommentar Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaut mal hier

  • Justizskandal im Sauerland: Das von Charlotte Merz, Ehefrau von Bundeskanzler Friedrich Merz, geleitete Amtsgericht erließ einen rechtswidrigen Durchsuchungsbeschluss gegen eine junge SPD-Frau 08.09.2025
  • Geschichtsrevisionismus: Basteln an der „zweiten Geburt“ 15.4.2025
  • Leak zu Zwei-Klassen-Struktur beim BSW - Sahras Knechte 22.2.2025
  • Sätze aus dem Wahlprogramm der AfD - und was sie bedeuten 18.2.2025
  • Kulturbegriff der AfD : Aufgeladen mit völkischer Ideologie 5.2.2025
  • Das Spiel der Lobbyisten und Politiker: Erik Ahrens – Ein tiefer Fall innerhalb der rechtsextremen Netzwerke 23.1.2025
  • Petition: Finger weg von unserer Demokratie, Herr Musk 3.1.2025

UNSER NEWSLETTER

Abonnieren Sie unseren Newsletter und werden Sie einer unserer 2.968 Abonnenten.

Prüfen Sie Ihren Posteingang und den Spamordner, um Ihr Abonnement zu bestätigen.

Werbung

[the_ad id="27291"]

Letzte Kommentare

  • Ulf Opländer bei Nach der Methode „Haltet den Dieb“ wird der SPD alle Schuld an der Misere zugeschoben
  • Ulf Opländer bei Wo sind die Beseelten, die dem Frieden der Welt dienen? Gastbeitrag von Klaus Kenke
  • gisela losseff-tillmanns bei Warum Schröder eine Brücke zum Frieden bauen könnte. Gastbeitrag von Axel Fersen
  • Jürgen Büssow bei Nach der Methode „Haltet den Dieb“ wird der SPD alle Schuld an der Misere zugeschoben

UNSER NEWSLETTER

Abonnieren Sie unseren Newsletter und werden Sie einer unserer 2.968 Abonnenten.

Prüfen Sie Ihren Posteingang und den Spamordner, um Ihr Abonnement zu bestätigen.

  • Trending
  • Comments
  • Neueste
Friedensdemo Bonn, Oktober 1981

Grüne und Krieg — Partei-Austritt des Gründungsmitglieds Ulfried Geuter

18. März 2024
Alice Weidel, Elon Musk und Esel, Screenshot Tik Tok

ARD-Wahlarena – Weidels Lügen sind Methode

18. Februar 2025
Feigenblatt

Alice Weidel: Das lesbische Feigenblatt und das Familienbild der AfD

1. Januar 2025
Screenshots von TikTok_Accounts aufgestachelter Bauern oder AfDlern oder anderen "Empörern"

Aufruf zur Bauerndemo in Berlin, AfD-Anhänger und andere Rechtsextreme mobilisieren.

24. Oktober 2024
Friedensdemo Bonn, Oktober 1981

Grüne und Krieg — Partei-Austritt des Gründungsmitglieds Ulfried Geuter

Screenshot ARD-Mediathek zur Sendung von Caren Miosga

Talk bei Miosga: Die Entlarvung der Sahra Wagenknecht

Kriegszerstörungen in der Ukraine

Ukraine: Verantwortungsbewusstes Handeln statt gefährlicher moralischer Überheblichkeit

Mauer in der NS-Ordensburg Vogelsang mit NS-Adler im Mauerwerk

Lasst Höcke regieren!

Symbolbild Angst: Schemenhafte Hand hinter Glas.

Was die Maschine dazu dichtet Wer heute KI-Systeme programmieren lässt, bekommt mehr Code als bestellt – und hat keine Ahnung, was darin noch steckt. Gastbeitrag von Karl Hans Bläsius und Axel Fersen

13. Mai 2026
Winfried Kretschmann

Wie aus einem Betriebsunfall eine Ära wurde. Wilfried Kretschmann geht- nach 15 Jahren

12. Mai 2026
Screenshot Tik Tok

AfD – Kriminelles und Kurioses vom rechtsextremen Rand Update 44

12. Mai 2026
Richard von Weizsäcker 1972

Wo sind die Beseelten, die dem Frieden der Welt dienen? Gastbeitrag von Klaus Kenke

11. Mai 2026

BLOG DER REPUBLIK

Blog der Republik

Kategorien

  • Allgemein
  • Buchbesprechungen
  • Contra AfD – Für Demokratie. Jetzt!
  • Gesellschaft & Medien
  • Kultur
  • Politik
  • Wirtschaft

Kategorien

  • Alle Beiträge
  • Politik
  • Wirtschaft
  • Gesellschaft & Medien
  • Kultur
  • Standpunkte

Schlagwörter

AfD CDU Demokratie EU Frieden Merz NoAfD Rechtsextremismus Ukraine wehrhafte Demokratie

© 2026 Blog der Republik.

Kein Ergebnis
Alle Ergebnisse anzeigen
  • Alle Beiträge
  • Politik
  • Wirtschaft
  • Gesellschaft & Medien
  • Kultur
  • Contra AfD – Für Demokratie. Jetzt!

© 2025 Blog der Republik