OpenAI dementiert Gerüchte
ChatGPT will weiter Doktor spielen

OpenAI dementiert Berichte über neue Einschränkungen bei ChatGPT. Karan Singhal, Leiter für Gesundheits-KI bei OpenAI, stellt klar, dass sich die Richtlinien für rechtliche und medizinische Beratung nicht geändert haben. Es ersetzt aber keinen Arzt.
Publiziert: 11:28 Uhr
|
Aktualisiert: 11:37 Uhr
Teilen
Anhören
Kommentieren
«Dr. ChatGPT» schiebt weiter Dienst – ersetzt aber nicht den richtigen Arzt.
Foto: KI-Illustration/GoogleGemini

Darum gehts

  • OpenAI dementiert Berichte über Änderungen bei ChatGPT-Ratschlägen zu Recht und Medizin
  • Aktualisierte Nutzungsbedingungen fassen bestehende Richtlinien für OpenAI-Produkte zusammen
  • Änderung der Nutzungsbedingungen am 29. Oktober verwirrte einige Nutzer
Die künstliche Intelligenz von Blick lernt noch und macht vielleicht Fehler.

OpenAI hat Berichte dementiert, die behaupteten, ChatGPT dürfe keine rechtlichen oder medizinischen Ratschläge mehr erteilen.

Die entsprechenden Fake-News verbreitete sich in den letzten Tagen auf 𝕏 und gewissen Online-Medien wie ein Lauffeuer.

«Das stimmt nicht. Entgegen anderslautenden Spekulationen handelt es sich hierbei nicht um eine neue Änderung unserer Nutzungsbedingungen», stellt Karan Singhal, Gesundheits-Chef von OpenAI, in einem Tweet klar. «Das Verhalten der Modelle bleibt unverändert.»

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.

Blick hat auch bei einer OpenAI-Pressesprecherin nachgefragt und bekam dieselbe Antwort.

Die Verwirrung entstand laut dem US-Techblog «The Verge» nach einer Aktualisierung der Nutzungsbedingungen am 29. Oktober. Diese untersagen die «Erteilung massgeschneiderter Ratschläge, die eine Lizenz erfordern, wie rechtliche oder medizinische Beratung, ohne angemessene Beteiligung eines lizenzierten Fachmanns». Laut OpenAI stellt dies jedoch keine Änderung der bisherigen Richtlinien dar.

Singhal betonte auf der Plattform X: «ChatGPT war nie ein Ersatz für professionelle Beratung, wird aber weiterhin eine grossartige Ressource sein, um Menschen beim Verständnis von rechtlichen und gesundheitlichen Informationen zu helfen.»

Die ganze Aufregung hätte vermieden werden können, wenn die Leute einfach «Dr. ChatGPT» mit ihren Wehwehchen befragt hätten. Dann gibt die KI brav Antwort, wie früher. Und das erstaunlich gut, wie auch der Autor dieses Artikels erfahren hat, als er sich nach Schmerzen in der Brust dank einer ChatGPT-Diagnose selber im Notfall eingeliefert hat.

«ChatGPT darf nicht als qualifizierter Arzt auftreten»

Wir haben ChatGPT direkt befragt, was erlaubt ist:

  • ChatGPT darf allgemeine Gesundheitsinformationen liefern, etwa über typische Symptome, Prävention oder Ernährung.
  • Es kann helfen, medizinische Fachbegriffe zu verstehen, Entscheidungsfragen vorzubereiten oder Hintergründe zu erklären.
  • Es kann Benutzer motivieren, ärztliche Hilfe in Anspruch zu nehmen.

… und was weiterhin nicht:

  • ChatGPT darf nicht als qualifizierter Arzt, Therapeut oder Diagnostiker auftreten.
  • Es darf nicht zuverlässig für akute oder ernsthafte Erkrankungen, Notfälle oder therapiebegleitend verwendet werden, ohne menschliche Aufsicht.
  • Die Genauigkeit kann variieren; Studien zeigen, dass Fehler passieren können – Warnung also geboten.

Fazit: ChatGPT gibt weiter Rat – im Zweifelsfall empfiehlt sich aber trotzdem ein Arztbesuch.

Teilen
Fehler gefunden? Jetzt melden
Was sagst du dazu?
Heiss diskutiert
    Meistgelesen
      Meistgelesen