Anthropic schlägt Alarm
Wie Kriminelle KI in eine Cyber-Superwaffe verwandeln

Ein neuer Sicherheitsbericht zeigt: KI wird von Kriminellen missbraucht. Mit ihrer Hilfe erpressen sie Spitäler, Behörden und Unternehmen. Sogar Nordkorea profitiert.
Publiziert: 11:42 Uhr
Teilen
Anhören
Kommentieren
1/4
So stellt sich die Bilder-KI Midjourney die Superwaffe für Hacker vor.
Foto: Midjourney / Tobias Bolzern

Darum gehts

  • KI-gesteuerte Cyberangriffe: Neue Generation von Hacks durch KI-Modelle wie Claude
  • Hacker nutzten KI für komplexe Angriffe auf 17 Organisationen weltweit
  • Anthropic sperrte Konten, entwickelt neue Filter und warnt nun vor KI-Waffen
Die künstliche Intelligenz von Blick lernt noch und macht vielleicht Fehler.
nnnnnnn.jpg
Tobias BolzernRedaktor Digital

Die nächste Generation der Cyberangriffe ist da und sie wird von künstlicher Intelligenz (KI) gesteuert. Ein Bericht des US-Unternehmens Anthropic zeigt, wie Cyberkriminelle dessen Sprachmodell Claude missbrauchen. Die genannten Beispiele lesen sich wie aus einem Thriller.

Kriminelle setzten das KI-Tool Claude Code ein, um allein im vergangenen Monat 17 Ziele weltweit zu attackieren, darunter Behörden, Spitäler und Rettungsdienste. Die KI übernahm fast alles: Sie spähte Netzwerke aus, stahl Zugangsdaten, durchsuchte Datenbanken nach sensiblen Informationen und schrieb die Erpresserschreiben. Teilweise forderte die Täterschaft über eine halbe Million Dollar Lösegeld pro Fall.

Nordkorea und Liebesbetrug

Anders als bei klassischer Ransomware verschlüsselten die Angreifer die Systeme jedoch nicht. Stattdessen drohten sie, die Beute zu veröffentlichen: Patientendaten, Finanzunterlagen, Regierungsdokumente. «Früher brauchte es dafür ein ganzes Team von Spezialisten. Heute reicht eine Person mit KI», sagt Anthropics Sicherheitschef Jacob Klein gegenüber dem Tech-Portal theverge.com.

Der Bericht (Threat Intelligence Report) nennt weitere Fälle: Nordkoreanische IT-Arbeiter sollen sich mit Hilfe von Claude in westliche Tech-Firmen eingeschlichen haben, um mit Remote-Jobs – ohne entsprechendes Know-How – Geld für das Waffenprogramm des Regimes zu verdienen. In einem anderen Szenario half die KI bei sogenannten Romance Scams in den USA, Japan und Südkorea: Sie textete schmeichelnde Nachrichten für Betrüger, die damit Opfer köderten.

«KI-Systeme als Waffe»

Das Unternehmen hat als Reaktion zahlreiche Konten gesperrt, neue Filter entwickelt und Hinweise an Ermittlungsbehörden und Partner weitergegeben. Anthropic gibt sich dabei offen und veröffentlichte den Bericht bewusst, um die Branche zu warnen und gemeinsame Abwehrstrategien zu entwickeln.

Anthropic sagt, viele Attacken seien gestoppt worden. Doch die Praxis zeigt: Cybercrime wird einfacher. KI erlaubt auch Anfängern Angriffe, die früher nur Profis konnten – vom Schadsoftware-Baukasten bis zur Erpressung. Für Verteidiger gelten neue Regeln. Denn Komplexität ist kein Indiz mehr für die Erfahrung der Angreifer. Oder wie es in dem Bericht heisst: «KI-Systeme werden zu Waffen umfunktioniert.»

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.
Teilen
Fehler gefunden? Jetzt melden
Was sagst du dazu?
Heiss diskutiert
    Meistgelesen
      Meistgelesen