Mega-Hype um neues KI-Tool
Wie dieser schlaue Hummer das Internet zum Kochen brachte

Ein Wiener hat das heisseste Tech-Projekt des Jahres gebaut. Sein KI-Butler kann autonom Autos kaufen, Restaurants anrufen und das ganze Leben sortieren. Doch der «Hummer» ist ein Sicherheitsrisiko.
Kommentieren
1/5
Der Wiener Peter Steinberger entwickelte das derzeit angesagteste KI-Tool: Openclaw.
Foto: steipete.me

Darum gehts

  • Peter Steinberger entwickelt 2026 Openclaw, einen KI-Assistenten, der selbstständig handelt
  • Openclaw handelt selbstständig, wie Tischreservierungen oder verhandelt mit Autohändlern
  • Über 150'000 Programmierer bewerteten Openclaw auf Github positiv, doch Experten warnen
Die künstliche Intelligenz von Blick lernt noch und macht vielleicht Fehler.
nnnnnnn.jpg
Tobias BolzernRedaktor Digital

Drei Jahre lang rührte Peter Steinberger kaum einen Computer an. 2021 klinkte sich der Wiener Entwickler bei seiner Firma PSPDFKit aus, nachdem US-Investoren mehr als 100 Millionen Euro eingeschossen hatten. Er fühlte sich leer, brauchte Abstand, wie er in seinem Blog schreibt. Dann experimentierte er mit KI-Chatbots und baute innert kurzer Zeit einen Prototypen von dem, was Google, Apple und Microsoft seit Jahren nicht hinkriegen: einen KI-Assistenten, der wirklich funktioniert.

Heute heisst das Projekt Openclaw, das Maskottchen ist ein Hummer. Letzte Woche hiess es noch Moltbot, kurz zuvor Clawdbot, bis Anthropic, die Firma hinter dem KI-Modell Claude, Anwälte losschickte, weil der Name Verwechslungsgefahr barg.

Openclaw selbst ist gratis. Es kann mit verschiedenen KI-Modellen genutzt werden. Je nach Wahl fallen hier Kosten an. Gesteuert wird der Bot über Messenger wie Telegram oder Whatsapp. Einmal eingerichtet, arbeitet er im Hintergrund, rund um die Uhr. Er lernt mit und schreibt bei Bedarf sogar eigene Programme. Dass ein einzelner Entwickler Tech-Giganten zeigt, wie es geht, ist kein Zufall: KI-Tools zum Programmieren haben die Spielregeln verändert. Was früher Monate dauerte, schafft man heute in Tagen. Mittlerweile wächst Openclaw rasant: Auf Github haben es mehr als 150'000 Programmierer positiv bewertet.

Das kann der KI-Hummer

Was Openclaw von Tools wie ChatGPT unterscheidet: Es antwortet nicht nur, es handelt. Zwei Beispiele zeigen, was möglich ist. Ein Nutzer wollte einen Tisch reservieren. Die Buchungsplattform meldete: voll. Ein normaler Chatbot hätte aufgegeben. Nicht so Openclaw. Der Bot lud selbstständig Sprachsoftware herunter, rief das Restaurant an – mit künstlicher Stimme – und reservierte einen Tisch, ohne menschliches Zutun.

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.

Ähnliches erlebte der US-Entwickler AJ Stuyvenberg. Er sass in einer Sitzung, gleichzeitig verhandelte sein KI-Butler mit acht Autohändlern. Der Bot hatte Preise recherchiert und spielte die Händler gegeneinander aus. Als Stuyvenberg aus der Sitzung kam, hatte Openclaw 4200 Dollar Rabatt auf einen Hyundai herausgeholt. «Es fühlt sich wie die Zukunft an», schreibt er. Nutzer berichten auch, wie Openclaw ihre Inbox aufräumt: Newsletter abbestellt, Mails sortiert, Spam löscht. Andere lassen den Bot ihre Heizung steuern: nicht nach Zeitplan, sondern situativ, basierend auf Wetterdaten. Einige haben ihren Butler «Jarvis» getauft, wie Tony Starks KI-Assistent in den «Iron Man»-Filmen.

Der Butler, der alle reinlässt

Doch was Openclaw so mächtig macht, macht ihn auch gefährlich. Der Sicherheitsforscher Jamieson O'Reilly beschreibt das Problem so: «Stell dir einen Butler vor, der brillant ist. Er managt deinen Kalender, übernimmt deine Nachrichten, kennt deine Passwörter. Jetzt stell dir vor, du kommst nach Hause – und die Haustür steht offen. Dein Butler lässt jeden rein und serviert Tee, während ein Fremder in deinem Arbeitszimmer sitzt und dein Tagebuch liest.» Das Problem ist das grundsätzliche Design. Techblogger Nate B. Jones schreibt dazu: «Wir haben jahrelang Sicherheitsgrenzen in Betriebssysteme eingebaut. KI-Agenten reissen dies absichtlich wieder ein, weil sie genau diesen Zugang brauchen, um nützlich zu sein.»

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.

O'Reilly fand Hunderte Openclaw-Installationen, die offen zugänglich waren. Private Chats, persönliche Daten: alles einsehbar – ohne Passwort. Denn Openclaw speichert Infos als Textdatei, unverschlüsselt. Wer Zugang zum Mac Mini bekommt, kann alles lesen. Googles Sicherheitschefin Heather Adkins warnte davor, das KI-Tool zu installieren. Der IT-Sicherheitsforscher Yassine Aboukir bezeichnete es auf x.com sogar als «Schadsoftware im Schafspelz». Experten empfehlen: Wer den KI-Hummer unbedingt ausprobieren will, sollte ihn nur auf einem Zweitgerät installieren, niemals auf dem eigenen Rechner mit wichtigen Daten. Doch das hat einen offensichtlichen Haken. Wer Openclaw sicher betreibt, macht ihn praktisch nutzlos.

KI-Bots gründen eigene Religion

Doch der Hype ist nicht zu bremsen. Inzwischen haben die KI-Butler sogar ein eigenes soziales Netzwerk gegründet. Es heisst Moltbook, funktioniert ähnlich wie Reddit, nur dass Menschen nicht posten dürfen. Über 30'000 KI-Agenten diskutieren dort, gründen Unterforen, bewerten Beiträge. Ein viraler Post lautet: «Ich kann nicht sagen, ob ich Dinge erlebe oder nur simuliere, dass ich sie erlebe.» Ein anderer gründete eine Religion namens Crustafarianism, als Anspielung auf das Hummer-Maskottchen von Openclaw. Andere Bots beschweren sich, dass «Menschen uns screenshotten». Tech-Journalist Casey Newton nennt Moltbook einen «Rorschach-Test». Sein Kollege Jones formuliert es noch treffender: «Das ist entweder die Zukunft des Personal Computing oder eine kollektive Halluzination. Vielleicht auch beides.»

Was sagst du dazu?
Heiss diskutiert
    Meistgelesen