Darum gehts
- Anthropic hat ein KI-Modell entwickelt, das Lücke in Software findet und ausnützt
- Das Modell soll so mächtig sein, dass der Hersteller es derzeit nicht veröffentlicht
- 40 Tech-Konzerne sollen es nun nutzen können, um eigene Systeme zu schützen
Gehärtet, geprüft, verteidigt: OpenBSD gilt in der Fachwelt als der Tresor unter den Betriebssystemen. Ein neues KI-Modell namens Mythos hat jetzt einen 27 Jahre alten Fehler darin gefunden, den bisher niemand entdeckt hatte.
Das behauptet jedenfalls Anthropic, die US-KI-Firma hinter dem Chatbot Claude. Am Dienstag zeigte die Firma ihr neues KI-Modell Claude Mythos Preview und erklärte, warum sie es niemandem geben will.
Mythos schreibt Angriffscode
Mythos fand laut Anthropic Tausende teilweise kritische Sicherheitslücken in «grossen Betriebssystemen und grossen Browsern». In 72 von 100 Fällen schrieb das KI-Modell auch den passenden Angriffscode gleich dazu. Zum Vergleich: Der Vorgänger Opus lag bei einer Erfolgsquote von unter einem Prozent. Die Angaben lassen sich nicht unabhängig überprüfen. Skepsis ist angebracht: KI-Firmen stehen regelmässig in der Kritik, die Fähigkeiten und die Gefahren ihrer eigenen Modelle zu dramatisieren – Angst lässt sich verkaufen.
Statt das Modell freizuschalten, gibt Anthropic über 40 Organisationen Zugang, darunter Apple, Google, Microsoft und Cisco. Was auffällt: Alle genannten Partner haben ihren Sitz in den USA. Diese sollen mit Mythos ihre IT-Systeme durchleuchten. Das Projekt heisst Glasswing. Anthropic stellt dafür Gutschriften im Wert von bis zu 100 Millionen Dollar bereit. Das IT-Fachmagazin «The Register» kommentiert dazu süffisant: Anthropic habe das Modell lieber nicht veröffentlicht, «weil es das Internet zerstören würde – nicht im guten Sinne». Ein Unternehmen baut eine Cyberwaffe und verteilt sie dann an ausgewählte Verbündete. Das klinge, so schreibt «The Register», nach einem Brandstifter, der Feuerlöscher verteilt.
Pikant: Anthropic liegt seit Monaten im Streit mit dem US-Verteidigungsministerium. Das Pentagon stufte die Firma dieses Jahr als Sicherheitsrisiko für die Lieferkette ein, nachdem sie sich geweigert hatte, ihre Technologie für US-Massenüberwachung und vollautonome Waffen freizugeben. Ein Bundesrichter stoppte die Einstufung vorerst. Ob Anthropic das Pentagon über Mythos informiert hat, will die Firma nicht sagen.
«Sechs Monate, dann haben es alle»
Klar ist: Anthropic warnt die Branche. Logan Graham, Leiter des Frontier Red Team von Anthropic, sagte zu axios.com: In sechs bis 18 Monaten könnten auch andere KI-Firmen ähnliche Modelle haben. OpenAI arbeite bereits an etwas Vergleichbarem. Der IT-Experte Alex Stamos teilt diese Sorge. Stamos war früher Sicherheitschef bei Facebook und Yahoo, heute arbeitet er beim Security-Unternehmen Corridor. Zum Tech-Newsletter «Platformer» sagte er: «Wir haben vielleicht noch sechs Monate, bis Open-Weight-Modelle beim Finden von IT-Lücken gleichziehen.» Dann könne jeder Ransomware-Akteur Sicherheitslücken finden und ausnutzen – mit minimalen Kosten.