Warum Sie ChatGPT als Therapeut vermeiden sollten: Erkenntnisse von Sam Altman und Warnungen
Seien Sie vorsichtig, was Sie ChatGPT erzählen.
Laut Sam Altman, CEO von OpenAI, greift man auf ChatGPT für emotionale Unterstützung Eine gute Idee, und zwar aus einem ganz einfachen Grund: KI-gesteuerte Chatbots unterliegen nicht den gleichen Gesetzen zur beruflichen Schweigepflicht wie menschliche Ärzte und Therapeuten.
In einem kürzlichen Podcast-Auftritt sagte Altman: „Die Leute – insbesondere junge Menschen – nutzen ihn als Therapeuten oder persönlichen Coach, um ihre emotionalen Probleme anzusprechen und zu fragen: ‚Was soll ich tun?‘“ Letztes Wochenende mit Theo Von.

„Wenn Sie derzeit mit einem Therapeuten, einem Anwalt oder einem Arzt über diese Themen sprechen, unterliegen diese Gespräche dem gesetzlichen Privileg“, fügte er hinzu.
Er fuhr fort: „Es besteht ärztliche Schweigepflicht, gesetzliche Schweigepflicht usw. Wir haben dieses Problem bezüglich Ihrer Gespräche mit ChatGPT noch nicht gelöst.“
Altman weist darauf hin, dass OpenAI im Falle einer Klage möglicherweise dazu verpflichtet wäre, Aufzeichnungen von Gesprächen mit ChatGPT herauszugeben. Das Unternehmen befindet sich bereits in einem Rechtsstreit mit der New York Times über die Aufbewahrung gelöschter Gespräche. Im Mai ordnete ein Gericht an, dass OpenAI „alle Ausgabeprotokolldaten, die hätten gelöscht werden müssen“, aufbewahren muss, selbst wenn der Nutzer oder Datenschutzgesetze deren Löschung verlangen.
Im Podcast äußerte Altman seine Überzeugung, dass KI „für Gespräche mit ihr das gleiche Datenschutzkonzept haben sollte wie mit einem Therapeuten oder anderen Personen – etwas, woran vor einem Jahr noch niemand gedacht hätte.“ Dies unterstreicht die Bedeutung von Gesetzen und Vorschriften für den Einsatz von KI in sensiblen Bereichen wie der psychischen Gesundheit, um den Schutz der Privatsphäre und der Daten der Nutzer zu gewährleisten.
Nutzen Menschen künstliche Intelligenz für die Psychotherapie?

Anfang des Jahres analysierte Anthropic, der Entwickler des ChatGPT-Konkurrenten Claude, 4.5 Millionen Gespräche, um herauszufinden, ob Nutzer Chatbots für romantische Gespräche nutzten. Laut der Studie drehten sich nur 2.9 Prozent der Interaktionen mit Claudes KI um romantische Gespräche, während Kameradschaft und Rollenspiele nur 0.5 Prozent ausmachten.
Im Rahmen eines Rechtsstreits könnte OpenAI gesetzlich dazu verpflichtet sein, Aufzeichnungen eines Gesprächs herauszugeben, das jemand mit ChatGPT geführt hat.
Obwohl ChatGPT weitaus mehr Nutzer hat als Claude, wird dieser Chatbot immer noch relativ selten für emotionale Kommunikation genutzt. Entgegen Altmans obigen Kommentaren heißt es in einer gemeinsamen Studie von OpenAI und dem MIT: „Emotionale Interaktionen mit ChatGPT sind im realen Einsatz selten.“
In der Zusammenfassung heißt es weiter: „Emotionale Hinweise (Aspekte von Interaktionen, die auf Empathie, Zuneigung oder Unterstützung hinweisen) waren in der überwiegenden Mehrheit der Gespräche auf der von uns ausgewerteten Plattform nicht vorhanden, was darauf hindeutet, dass emotionales Engagement ein seltener Anwendungsfall für ChatGPT ist.“
So weit, so gut. Doch das Fazit: Konversations-KI wird in puncto Interaktivität und Nuancen immer besser werden, was leicht dazu führen könnte, dass sich mehr Menschen bei persönlichen Problemen an sie wenden.
Aktualisieren GPT-5 ChatGPT steht kurz vor der Einführung und bietet eine Vielzahl natürlicherer Interaktionen und mehr Kontext. Obwohl es einfacher wird, mehr Details mit KI zu teilen, sollten Benutzer sorgfältig überlegen, was sie sagen möchten.
Kommentarfunktion ist geschlossen.