Darum gehts
- Das Pentagon nutzte KI Claude bei Maduros Festnahme in Venezuela
- Anthropic verbietet militärischen Einsatz von Claude, doch Schranken wurden umgangen
- Palantir-Aktie stieg um 8 Prozent, Vertrag mit US-Armee über 10 Milliarden
Das Pentagon hat offenbar das KI-System Claude bei der Gefangennahme von Venezuelas Ex-Präsident Nicolás Maduro (63) eingesetzt. Maduro war am 3. Januar von US-Elitekommandos aus dem nächtlichen Ehebett in Caracas entführt und nach New York gebracht worden. Die Operation warf schon so viele Fragen auf – US-Präsident Donald Trump (79) sprach im Anschluss von einer Geheimwaffe, die zum Einsatz gekommen sei. Die neueste Enthüllung wirft heikle Fragen über die Rolle von KI im Militär auf.
Bei der Razzia zur Festnahme des venezolanischen Diktators soll das US-Verteidigungsministerium auf künstliche Intelligenz zurückgegriffen haben, berichten das «Wall Street Journal» und das Newsportal Axios. Konkret soll das Sprachmodell Claude des kalifornischen Unternehmens Anthropic zum Einsatz gekommen sein – allerdings nicht direkt, sondern über die Software des umstrittenen Datenanalyse-Konzerns Palantir Technologies.
Die Rolle von Palantir
Palantir, gegründet von Tech-Milliardär Peter Thiel (58), ist seit Jahren tief in US-Geheimdienstoperationen verstrickt. Die Firma liefert Analyse-Plattformen wie Gotham und Foundry, die riesige Datenmengen in Echtzeit auswerten – etwa bei Militäreinsätzen mit Hunderten Flugzeugen und Drohnen. Palantir war bereits an hochsensiblen Operationen beteiligt, darunter die Jagd auf Osama bin Laden (1957-2011) und der Einsatz in der Ukraine.
Die Aktie von Palantir legte nach Bekanntwerden der Venezuela-Operation um 8 Prozent zu – Investoren wittern Milliardenaufträge. Allein mit der US-Armee hat Palantir einen Vertrag über 10 Milliarden Dollar.
Ethische Zwickmühle
Brisant: Anthropic verbietet in seinen Nutzungsbedingungen ausdrücklich den Einsatz von Claude für militärische Gewalt, Waffenentwicklung oder Überwachung. Doch durch die Integration über Palantir in klassifizierten Netzwerken werden solche Schranken offenbar umgangen.
Anthropic selbst schweigt. «Wir können nicht kommentieren, ob Claude oder ein anderes KI-Modell für eine bestimmte Operation, ob geheim oder nicht, eingesetzt wurde», zitiert das «Wall Street Journal» einen Sprecher von Anthropic. Auch das Pentagon, das Weisse Haus und Palantir haben die Berichte bislang weder bestätigt noch dementiert.
Pentagon drängt auf KI-Zugang
Das US-Verteidigungsministerium macht Druck auf KI-Firmen wie Anthropic, OpenAI und Google, ihre Modelle für geheime Militärnetzwerke freizugeben – ohne kommerzielle Einschränkungen. Claude ist laut Medienberichten der erste grosse generative KI-Dienst, der über Drittanbieter in solchen Netzwerken verfügbar ist.
Die Entwicklung befeuert eine grundsätzliche Debatte: Wo verlaufen die ethischen Grenzen beim Einsatz von KI im Militär? Und wie glaubwürdig sind Nutzungsverbote, wenn sie sich durch technische Umwege aushebeln lassen?
Ukraine-Einsatz
Die Venezuela-Operation zur Festnahme Maduros ist der erste öffentlich bekanntgewordene Fall, in dem Claude bei einer aktiven Militäroperation eingesetzt wurde.
Claude ist derzeit das einzige KI-System eines grossen kommerziellen Anbieters, das auf den klassifizierten Netzwerken des Pentagon verfügbar ist, wo die sensibelsten militärischen Operationen stattfinden – von Waffentests bis zu Live-Kommunikation.
Während Claude selbst nicht explizit in Ukraine-Operationen erwähnt wird, ist Palantir – der Partner, über den Claude ins Militär gelangt – tief in den Ukraine-Krieg involviert und laut CEO Alex Karp (58) für den Grossteil der Zielerfassung in der Ukraine verantwortlich. Ob dabei auch Claude zum Einsatz kommt, ist unklar.