Anthropics Mythos-Modell findet tausende Zero-Day-Schwachstellen – und legt eine unbequeme Wahrheit offen: Die größte Sicherheitslücke in deutschen Unternehmen ist nicht die Technik, sondern fehlendes KI-Verständnis.
Die Dimension des Problems
Als Anthropic vergangene Woche die Ergebnisse seines neuen KI-Modells Claude Mythos Preview veröffentlichte, ging ein Ruck durch die IT-Sicherheitsbranche. Das Modell hatte autonom tausende bislang unbekannte Schwachstellen in allen großen Betriebssystemen und Webbrowsern aufgespürt – darunter eine 27 Jahre alte Lücke in OpenBSD, dem als besonders sicher geltenden Betriebssystem, und einen 16 Jahre alten Bug in der weit verbreiteten Videobibliothek FFmpeg. Im Linux-Kernel verkettete Mythos mehrere Exploits zu einem vollständigen Systemzugriff.
Anthropic reagierte mit einem beispiellosen Schritt: Das Modell wird nicht öffentlich freigegeben. Stattdessen erhalten über das Programm „Project Glasswing” ausschließlich 40 Partnerunternehmen – darunter AWS, Apple, Microsoft, Google, CrowdStrike und JP Morgan Chase – Zugang, um ihre eigenen Systeme defensiv zu überprüfen. Anthropic stellt dafür bis zu 100 Millionen Dollar an Nutzungskrediten bereit.
Die eigentliche Schwachstelle: Der Mensch
Doch während die Debatte um Mythos sich auf die technischen Fähigkeiten des Modells konzentriert, wird ein fundamentaleres Problem übersehen. „Die Technologie ist nicht das Nadelöhr – es sind die Menschen”, sagt Jens Polomski, Co-Founder des Berliner KI-Enablement-Unternehmens snipKI. „Wir arbeiten mit über 600 Unternehmen auf unserer Plattform und sehen ein klares Muster: Die Firmen, die in KI-Infrastruktur investieren, ohne gleichzeitig ihre Mitarbeitenden zu befähigen, schaffen neue Angriffsflächen, statt alte zu schließen.”
Die Zahlen stützen diese Beobachtung. Laut einer aktuellen Gartner-Prognose werden bis Ende 2026 rund 40 Prozent aller Enterprise-Anwendungen über aufgabenspezifische KI-Agenten verfügen. Gleichzeitig zeigen Studien, dass weniger als zehn Prozent der Investitionen in KI-Transformation in die Befähigung von Mitarbeitenden fließen – der Rest geht in Infrastruktur und Lizenzgebühren.
Wenn Nicht-Experten zu Hackern werden
Ein Detail aus dem Mythos-Sicherheitsbericht verdient besondere Aufmerksamkeit: Anthropic berichtet, dass Ingenieure ohne formale Sicherheitsausbildung das Modell anwiesen, über Nacht nach Remote-Code-Execution-Schwachstellen zu suchen – und am nächsten Morgen einen funktionierenden Exploit vorfanden. Forscher bauten Scaffolding-Systeme, die Mythos völlig autonom Schwachstellen in Exploits verwandeln ließen.
„Das ist genau das Szenario, vor dem wir seit zwei Jahren warnen”, sagt Polomski. „Wenn KI die Eintrittshürde für komplexe Tätigkeiten dramatisch senkt, wird die Frage, wer in einem Unternehmen KI kompetent einsetzen kann, zur Sicherheitsfrage.” In über 1.000 getesteten Use Cases habe snipKI festgestellt, dass Mitarbeitende ohne strukturierte KI-Befähigung entweder die Technologie gar nicht nutzen oder – gefährlicher – sie falsch einsetzen.
Das Glasswing-Paradoxon
Das Vorgehen von Anthropic offenbart ein grundsätzliches Dilemma: Dieselbe Technologie, die Systeme verwundbar macht, ist auch die beste Verteidigung dagegen. Newton Chang, Leiter von Anthropics Red Team, formuliert es so: „Wir denken, das ist nicht nur ein Anthropic-Problem. Es ist ein branchenweites Problem, mit dem sowohl private Unternehmen als auch Regierungen umgehen müssen.”
CrowdStrike-CTO Elliot Zatzv ergänzt: „Das Zeitfenster zwischen der Entdeckung einer Schwachstelle und ihrer Ausnutzung durch einen Angreifer ist zusammengebrochen. Was früher Monate dauerte, passiert jetzt in Minuten mit KI.”
Für Unternehmen bedeutet das: Die klassische IT-Sicherheitsarchitektur, die auf menschliche Reaktionszeiten ausgelegt ist, reicht nicht mehr. Und KI-gestützte Verteidigung setzt voraus, dass es in jeder Abteilung Menschen gibt, die verstehen, wie diese Systeme funktionieren.
Was deutsche Unternehmen jetzt tun sollten
Polomski empfiehlt einen Dreischritt:
- KI-Kompetenz als Sicherheitsfaktor begreifen – nicht als Nice-to-have.
- Nicht nur die IT-Abteilung schulen, sondern alle Mitarbeitenden, die mit digitalen Systemen arbeiten.
- Maßgeschneiderte Befähigungsprogramme statt generischer Schulungen – denn jede Rolle hat andere KI-Berührungspunkte.
Der KI-Führerschein, ein achtwöchiges Programm, das snipKI für Unternehmen wie Schott, BioNTech, Hugo Boss und Zeiss durchführt, setzt genau hier an: Jeder Teilnehmende arbeitet an seinen echten Aufgaben und entwickelt dabei ein Verständnis dafür, was KI kann, wo ihre Grenzen liegen – und wo die Risiken beginnen.
Die Botschaft von Mythos
Anthropics Entscheidung, sein mächtigstes Modell unter Verschluss zu halten, ist beispiellos in der KI-Industrie. Doch die eigentliche Botschaft liegt nicht in den Benchmark-Ergebnissen – SWE-bench Pro springt von 53,4 auf 77,8 Prozent, Terminal Bench von 65,4 auf 92,1 Prozent. Die Botschaft ist: KI-Systeme entwickeln emergente Fähigkeiten, die niemand vorhergesagt hat. Und Unternehmen, die ihre Belegschaft nicht auf diesen Wandel vorbereiten, stehen nicht nur vor einem Produktivitätsproblem, sondern vor einem Sicherheitsproblem.
Quellen
- Anthropic: Project Glasswing – Securing critical software for the AI era
- Anthropic Red Team: Claude Mythos Preview – Cybersecurity Capability Review
- TechCrunch: Anthropic debuts preview of powerful new AI model Mythos in new cybersecurity initiative
- The Hacker News: Anthropic’s Claude Mythos Finds Thousands of Zero-Day Flaws Across Major Systems
- Axios: Anthropic’s newest AI model could wreak havoc. Most in power aren’t ready
- Fortune: Anthropic is giving some firms early access to Claude Mythos to bolster cybersecurity defenses