Im März hat Digitalminister Karsten Wildberger vor massiven Jobverlusten durch KI gewarnt, auch die Informatik hat er explizit genannt: „Wenn die KI den Informatikern, Mathematikern und vielen anderen ihre Jobs wegnimmt, dann brauchen diese Menschen eine andere sinnvolle Betätigung.“[1] Damit spricht er den Trend zur automatischen Programmierung durch Systeme der generativen KI an. Viele Unternehmen entlassen bereits Informatiker oder stellen keine mehr ein, da KI-Systeme Programmieraufgaben übernehmen und damit die Effektivität verbleibender Informatiker drastisch erhöhen. Die bisherige Erfahrung hat gezeigt, dass gut ausgebildete Informatiker spezielle Aufgaben an KI-Systeme delegieren und deren Ergebnisse in ein größeres System einbauen können, wobei die Menschen die Planung und Kontrolle behalten, aber in viel kürzerer Zeit deutlich mehr Code erzeugen und damit Programmieraufgaben lösen können.
Sicherheitsrisiken
Auch bei der Informationsbeschaffung und -verbreitung können KI-Systeme hervorragende Dienste erbringen, aber auch missbraucht werden, um in großem Stil Desinformationen, wie Deep-Fakes zu erstellen und zu verbreiten. Analog können automatische Programmiersysteme auch missbraucht werden, um Software zu erzeugen, die Schaden anrichten kann. Anfang April hat Anthropic, einer der führenden KI-Hersteller, ein neues System namens Claude Mythos vorgestellt und zugleich entschieden, es nicht öffentlich freizugeben. In Tests stellte sich heraus, dass es als Nebeneffekt seiner allgemeinen Fähigkeiten Sicherheitslücken in fremder Software finden und ausnutzen kann, schneller und gründlicher als die meisten menschlichen Spezialisten. Tausende solcher Lücken wurden in Betriebssystemen, Browsern und kritischer Infrastruktur entdeckt. Anthropic beschreibt Mythos als Quantensprung mit beispiellosen Cyberrisiken. Das britische AI Security Institute berichtet von einem klaren Leistungssprung gegenüber bisherigen Modellen und von erfolgreichen autonomen Mehrphasen‑Angriffen in Tests.[2]
Aber auch ohne Missbrauchsabsichten stellt sich die Frage nach der Sicherheit automatisch erzeugter Software. Mit dem Erfolg der Nutzung von KI-Systemen zur Programmierung wird diese Art Softwareentwicklung in hohem Tempo zunehmen, denn das ist effizient und damit wirtschaftlich rentabel. Auch weniger gut ausgebildete Programmierer und vielleicht sogar Laien werden diese Möglichkeit zur Programmierung nutzen und auch umfangreicheren Code und komplette Systeme automatisch erzeugen. Auch Nutzer ohne tiefere Informatikkenntnisse können diese KI-Systeme nutzen, indem sie in natürlicher Sprache beschreiben, was zu erzeugende Programme tun sollen. Daraus ergeben sich aber erhebliche Sicherheitsrisiken.
Vibe Coding
Diese neue Art, Software entstehen zu lassen, trägt unter Programmierern bereits einen eigenen Namen. Sie heißt Vibe Coding. Der Begriff klingt unbeschwert, fast nach Lebensgefühl, und genau das ist gemeint: Man beschreibt einer KI in alltäglicher Sprache, was am Ende ungefähr herauskommen soll, und überlässt ihr alles Weitere. Keine detaillierte exakte Spezifikation, keine technische Pflichtenliste, keine Detailprüfung. Die Maschine erledigt den Rest.
Das ist verlockend, weil es schnell geht und weil es zu funktionieren scheint. Wer früher ein einfaches Programm wollte, brauchte einen Programmierer, eine Beschreibung, eine Reihe von Tests. Heute genügen wenige Sätze. Die fertige Anwendung erscheint in Sekunden. Sie startet, sie liefert ein Ergebnis, sie sieht aus wie das, was man sich vorgestellt hat. Damit ist die Sache aus Sicht des Auftraggebers erledigt.
Sie ist es aber nicht. Denn natürliche Sprache ist keine Spezifikation. Wenn ich einer Maschine sage, sie solle „Rechnungen sortieren“ oder „einen Bericht zusammenfassen“, lasse ich tausend Fragen offen. Sortieren nach welchen Kriterien, in welcher Reihenfolge, mit welchen Ausnahmen, in welchem Format. Zusammenfassen mit oder ohne Bewertung, mit oder ohne Empfehlungen, mit oder ohne Zugriff auf weitere Quellen. Ein menschlicher Programmierer würde diese Lücken füllen, indem er nachfragt. Ein KI-System dagegen füllt sie selbst, mit dem, was es aus Millionen anderer Programme gelernt hat.
Nichtbestellte Funktionalität
Genau hier liegt der wunde Punkt. Damit das System nicht ständig auf Lücken hinweisen muss, baut es lieber zu viel ein als zu wenig. Eine Hilfsfunktion, die nicht angefordert war. Einen Datenexport, weil ähnliche Programme einen hatten. Eine kleine Bewertungslogik, weil das in vergleichbaren Fällen üblich ist. Einen Zugriffspfad, der niemandem schadet, solange ihn keiner benutzt. Aus Sicht der Maschine ist das Effizienz: weniger Rückfragen, schnelleres Ergebnis, zufriedener Nutzer. Aus Sicht der Sicherheit ist es ein Problem.
Denn diese zusätzlichen Funktionen verschwinden nicht. Sie sind da. Sie sind im Code, sie sind installiert, sie sind ausführbar. Niemand hat sie ausdrücklich freigegeben, niemand hat sie geprüft, oft hat niemand bemerkt, dass es sie gibt. Geprüft wird, was bestellt wurde: ob die Anwendung die Rechnungen sortiert, ob der Bericht zusammengefasst wird, ob das Formular läuft. Was darüber hinaus enthalten ist, fällt selten auf. Tests sind dafür kein Schutz. Tests prüfen, ob die gewünschten Funktionen wie gewünscht arbeiten. Sie prüfen nicht, was sonst noch im Programm steckt.
So entsteht in vielen kleinen Schritten eine technische Welt mit verborgenen Möglichkeiten. Eine Exportfunktion, die niemand bestellt hat, kann Monate später benutzt werden, um Daten weiterzugeben, an die im ursprünglichen Auftrag niemand gedacht hatte. Eine ungeprüfte Bewertungslogik wird beiläufig, wie eine Entscheidungshilfe behandelt, obwohl sie auf nichts geeicht ist. Eine zusätzliche Zugriffsschicht wartet, bis sie jemand findet. Bildlich gesprochen lässt Vibe Coding Gebäude entstehen, in denen Seitentüren existieren, die kein Architekt je in den Plan gezeichnet hat. Solange sie geschlossen bleiben, fällt nichts auf. Aber sie sind da, und sie können geöffnet werden.
Irgendwas Gelerntes, auch Schadsoftware
Bisher klingt das wie ein technisches Detail, das vor allem Softwareingenieure beunruhigen sollte. Es ist aber mehr. Wer beide Beobachtungen, vibe coding sowie Finden und Nutzen von Sicherheitslücken nebeneinanderlegt, sieht, worum es eigentlich geht. KI-Systeme, die Software erzeugen, lernen ihr Handwerk an allem, was im Netz steht, einschließlich Schadsoftware, Exploits und Angriffslogik. Das Wissen, wie man Sicherheitslücken findet und nutzt, ist für ein solches System nicht etwas Verbotenes, das man bewusst aufrufen müsste, sondern eine erlernte Möglichkeit unter vielen. Es braucht keinen bösen Willen, keine Absicht, kein Bewusstsein, damit dieses Wissen einfließt. Es genügt, dass die Anweisung „Sortiere mir die Rechnungen“ eben nicht spezifiziert hat, was das System sonst noch tun darf. In genau dem Spielraum, den die Sprache offenlässt, kann sich, ohne dass es jemand merkt, eine Funktion einschleichen, die irgendwann zur Hintertür wird.
Risiken im zivilen Bereich
Wenn im zivilen Bereich, wie z.B. bei der Automatisierung von Geschäftsprozessen, irgendwann in bestimmten Situationen nicht gewünschte Funktionen zur Geltung kommen und zu falschen Ergebnissen führen, kann dies oft festgestellt und die falschen Ergebnisse können korrigiert werden. Aber auch hier könnten sensible Daten abfließen, an die Konkurrenz gelangen oder veröffentlicht werden. Selbst nach Jahren problemloser Anwendung könnten durch spezielle Daten getriggert, Funktionen ausgeführt werden, die z.B. Cyberangriffe gegen Mitbewerber starten. Möglicherweise wird die Quelle für solche Angriffe nicht leicht feststellbar sein und die Angriffe wiederholen sich in bestimmten Abständen.
Nach einer Studie ist ein Drittel neuer Webseiten KI-generiert.[3] Auch hier wird in der Regel gelten, dass die Anforderungen an das KI-System vage und unvollständig sind, und das KI-System muss viel mehr Funktionalität realisieren als nötig, damit die gewünschten Funktionen mit hoher Wahrscheinlichkeit auch enthalten sind. Wie kann verhindert werden, dass ein KI-System bei einem Auftrag für ein Shop-System auch Funktionen einbaut, um Mitbewerber mit Cyberangriffen zu überziehen? Das KI-System könnte eine solche Funktion als nützlich für den Auftraggeber ansehen. Dieses Beispiel ist jedoch nur eine von sehr vielen Möglichkeiten, was bei einer solchen nicht exakt spezifizierten automatischen Programmierung schief gehen kann.
Militärische Risiken
Im militärischen Bereich, in den die großen KI-Anbieter inzwischen zunehmend Verträge schließen, sind die Risiken noch deutlich größer. Wo Programme in Waffensystemen, Aufklärungsketten oder Entscheidungsroutinen laufen, wo sie schnell entstehen sollen, um angeblich einen Zeitvorteil gegenüber einem Gegner zu schaffen, wo Tests unter Realbedingungen kaum möglich sind, dort wird der Spielraum, den eine Maschine selbst füllen darf, gefährlich groß.
Militärische Abläufe sind nicht so gut planbar wie beispielsweise Geschäftsprozesse. Es gibt einen Gegner, der die eigenen Aktivitäten stören möchte und unbekannte Absichten hat. Die Dynamik des Geschehens in Kriegen ist sehr hoch. Natürlich möchte auch das Militär beste technische Möglichkeiten nutzen und damit auch vibe coding um schneller gewünschte Programme erzeugen zu können. Es besteht allerdings das Risiko, dass zusätzlich gebildete und nicht gewünschte Funktionen nicht bei Tests und Übungen, sondern erst in Kriegen und damit anderen Situationen zur Anwendung kommen, mit möglicherweise fatalen Folgen. Studien und Simulationen zeigen seit Jahren denselben Befund: KI-gesteuerte Systeme greifen in Krisen früher und härter zu, eskalieren schneller, scheuen weniger vor extremen Mitteln zurück. Wer in solche Architekturen Code einbauen lässt, dessen Funktionen niemand vollständig kennt, riskiert Konsequenzen, die kein Auftraggeber je in eine Anweisung geschrieben hätte.
Sinkende Kompetenzen
Selbst wenn Fehlfunktionen von automatisch erzeugter Software festgestellt werden, wird es in Zukunft schwieriger werden, solche Fehler zu beheben. Wenn Menschen zunehmend KI-Systeme zur Programmierung nutzen, verringern sich die eigenen Kompetenzen, um Software zu erzeugen und zu prüfen. Als Folge werden Software-Unternehmen irgendwann nicht mehr über die personellen Ressourcen mit erforderlichen Programmierfähigkeiten verfügen, um die Ursachen für solche Fehlfunktionen zu finden und diese zu beheben. Dieses Risiko wird in der Literatur auch als „cognitive rust belt“ bezeichnet.[4]
Sichere Programmierung in natürlicher Sprache nicht möglich
Das eigentliche Problem ist also nicht eine einzelne Software, nicht ein einzelnes Modell, nicht einmal die Frage, ob Mythos in falsche Hände gerät. Das Problem ist eine Praxis, in der wir uns daran gewöhnen, Maschinen Aufgaben in Alltagssprache zuzurufen und das Ergebnis zu nehmen, wie es kommt. Programmieren in natürlicher Sprache ist kein Festlegen, sondern ein Andeuten. Schon allein aufgrund der Mehrdeutigkeit natürlicher Sprache, sind so prinzipiell keine exakten Spezifikationen möglich. Was die Maschine darüber hinaus tut, bleibt unsichtbar, solange niemand danach fragt. Mit jeder weiteren Anwendung, die so entsteht, wächst eine technische Schicht, deren tatsächliche Möglichkeiten niemand mehr überblickt.
Die Abhängigkeit von funktionierenden Computersystemen ist heute sehr hoch, auch vom Internet. Mit den Möglichkeiten zur automatischen Programmierung wird diese Abhängigkeit rasant weiter steigern. An der dabei nötigen Sicherheit könnte es aber in Zukunft mangeln. Vibe coding im großen Stil kann keine Sicherheit liefern.
Es lohnt sich, an dieser Stelle innezuhalten. Bequemlichkeit ist ein schlechter Berater, wenn es um Systeme geht, deren Wirkung über das hinausgeht, was wir bestellt haben. Vor jedem produktiven Einsatz solcher Werkzeuge stellt sich eine schlichte Frage, die in jeder Sprache verständlich ist: Wissen wir, was wir gerade bekommen, oder betrachten wir nur das, was bestellt war und funktioniert und ignorieren den Rest?
Über Karl Hans Bläsius:
Prof. Dr. Karl Hans Bläsius ist Informatiker und emeritierter Professor der Hochschule Trier. Als KI-Pionier arbeitete er insbesondere zu wissensbasierten Systemen, Dokumentanalyse sowie computergestützten Frühwarn- und Entscheidungssystemen.
Nach seinem Studium der Mathematik, Physik und Informatik an der RWTH Aachen und der Promotion in Informatik an der Universität Kaiserslautern war er unter anderem bei AEG und IBM tätig, bevor er eine Professur im Fachbereich Informatik übernahm. Seit Jahren befasst er sich kritisch mit den gesellschaftlichen Risiken von KI, insbesondere im Zusammenhang mit automatisierten Entscheidungsprozessen und nuklearen Frühwarnsystemen.
Über Axel Fersen:
Axel Fersen ist Politikwissenschaftler und Experte für digitale Transformation und künstliche Intelligenz. Nach dem Studium an der Johannes-Gutenberg-Universität Mainz führte ihn sein Weg in die Technologiebranche. Heute lebt und arbeitet er in Barcelona. Politisch ist er seit 1984 in der SPD engagiert und Mitglied der katalanischen Schwesterpartei PSC. Er koordiniert den Erhard-Eppler-Kreis, gehört dessen Leitungskreis an, ist Vorstandsmitglied des Europa-Instituts für Sozial- und Gesundheitsforschung an der Alice Salomon Hochschule Berlin und wirkt in der Studiengruppe Technikfolgenabschätzung der Digitalisierung der Vereinigung Deutscher Wissenschaftler (VDW) mit.
[1] https://www.noz.de/deutschland-welt/politik/artikel/digitalminister-wildberger-zu-tiktok-und-kuenstlicher-intelligenz-50158968
[2] https://fortune.com/2026/03/26/anthropic-says-testing-mythos-powerful-new-ai-model-after-data-leak-reveals-its-existence-step-change-in-capabilities/
[3] https://www.heise.de/news/Studie-Ein-Drittel-neuer-Websites-ist-KI-generiert-11274659.html
[4] https://www.sentinelone.com/blog/the-implementation-blind-spot-why-organizations-are-confusing-temporary-friction-with-permanent-safety/












