KI erfand Gerichtsfälle
Anwalt nutzt ChatGPT – und blamiert sich

In den USA hat ein Anwalt für eine Recherche die KI-Software ChatGPT konsultiert. Blöderweise hat die künstliche Intelligenz Urteilsfälle erfunden, die es gar nie gegeben hat. Dafür erntete er nicht nur Spott, sondern muss jetzt auch mit Konsequenzen rechnen.
Publiziert: 30.05.2023 um 15:29 Uhr
Teile uns deine Meinung zur Vorlesefunktion mit. Zur kurzen Umfrage.
1/5
In den USA hat Anwalt Steven Schwartz die KI-Software ChatGPT benutzt, um einen Gegenantrag zu erstellen.

Eigentlich sollte die KI-Software ChatGPT dem New Yorker Anwalt, Steven Schwartz, die Recherche bei einem Gerichtsfall erleichtern. Der Schuss ging aber mächtig nach hinten los, wie die «New York Times» berichtet.

So enthielt der mithilfe des Chatbots kreierte Antrag des Anwalts Dutzende Fussnoten zu Fällen, die es gar nie gegeben hat. Der Grund: Der Chatbot hatte die Urteile einfach frei erfunden. Unter anderem wurden darin Fälle wie «Petersen gegen Iran Air» oder «Martinez gegen Delta Airlines» zitiert. Bei sechs der zitierten Fälle konnten die Anwälte des Klägers keine Belege für deren Existenz finden.

Jetzt drohen dem Anwalt ernsthafte Konsequenzen

Für seine Leichtgläubigkeit erntete Schwartz, der seit drei Jahrzehnten als Anwalt in New York arbeitet, in den sozialen Medien mächtig Spott. «Ein Anwalt nutzte ChatGPT für ‹juristische Recherchen› und zitierte in einem Schriftsatz eine Reihe von nicht existierenden Fällen», machte sich Daniel Feldman, ein Sicherheitsingenieur aus den USA, auf Twitter lustig.

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.

Hintergrund der Recherche des US-Anwalts war ein Passagier, der die Fluggesellschaft Avianca verklagt hatte, da er in einer ihrer Maschinen offenbar während eines Fluges von einem Servierwagen am Knie verletzt wurde. Nachdem die Airline die Klage abgewiesen hatte, reichte Schwartz den mithilfe von KI entwickelten Gegenantrag ein.

Neben Spott und Häme drohen dem Anwalt jetzt auch ernsthafte Konsequenzen. So habe der zuständige Richter eine Anhörung für Anfang Juni angesetzt, in der es um mögliche Folgen gehen soll.

Wie die Zeitung weiter berichtet, hat Schwartz inzwischen beteuert, dass es nicht seine Absicht war, das Gericht zu täuschen. Er habe sich lediglich darauf verlassen, dass die vom Chatbot erwähnten Fälle authentisch seien.

Werbung

Ob das Gericht dem Anwalt glauben wird, bleibt fraglich. Wie es im Bericht weiter heisst, hätte Schwartz nämlich durchaus Möglichkeiten gehabt, die Zusicherungen von ChatGPT zu überprüfen. Demnach hätten Anwälte in den USA Zugriff auf eine Datenbank, in denen sämtliche Urteile abgelegt sind. (dzc)

Fehler gefunden? Jetzt melden
Alle Kommentare