Studie: Übermäßiger Gebrauch von ChatGPT kann zu emotionaler Bindung führen
OpenAI scheint wöchentlich neue KI-Modelle anzukündigen, um seinen ChatGPT-Chatbot für seine 400 Millionen Benutzer zu verbessern. Die Leichtigkeit, mit der dieses KI-Tool verwendet wird, deutet jedoch darauf hin, dass eine gute Sache überstrapaziert werden kann.
Das KI-Unternehmen untersucht nun die potenziellen psychologischen Auswirkungen, die ChatGPT auf seine Benutzer haben könnte. Es wurde veröffentlicht OpenAI Folgen Zweiteilige Studie Die in Zusammenarbeit mit dem MIT Media Lab durchgeführte Studie ergab einen Zusammenhang zwischen der vermehrten Nutzung des Chatbots ChatGPT und einem verstärkten Einsamkeitsgefühl bei den Benutzern.
Jede Organisation führte eine unabhängige Studie durch und die Ergebnisse wurden anschließend zu einer konsolidierten Schlussfolgerung zusammengefasst. Im Laufe eines Monats untersuchte die Studie von OpenAI „mehr als 40 Millionen Interaktionen mit ChatGPT“, bei denen zum Schutz der Privatsphäre der Benutzer kein menschliches Eingreifen erforderlich war. Inzwischen überwachte das MIT fast 1000 Teilnehmer mit ChatGPT Über 28 Tage. Diese Studien wurden noch nicht von Experten begutachtet.
Die MIT-Studie untersuchte die verschiedenen Nutzungsfunktionen, die sich auf das emotionale Erlebnis der Benutzer bei der Interaktion mit ChatGPT auswirken können, darunter die Verwendung von Text oder Sprache. Die Ergebnisse zeigten, dass beide Medien das Potenzial hatten, während des Untersuchungszeitraums Gefühle der Einsamkeit hervorzurufen oder die soziale Interaktion der Benutzer zu beeinflussen. Auch die Stimmmodulation und die Themenwahl waren wichtige Vergleichspunkte.
Die Verwendung eines neutralen Tons im Sprachmodus von ChatGPT führte bei den Teilnehmern weniger wahrscheinlich zu negativen emotionalen Ergebnissen. Gleichzeitig stellte die Studie einen Zusammenhang zwischen Teilnehmern, die persönliche Gespräche mit ChatGPT führten, und einer erhöhten Wahrscheinlichkeit fest, sich einsam zu fühlen. Diese Effekte waren jedoch nur von kurzer Dauer. Sogar diejenigen, die den Textchat nutzen, um über allgemeine Themen zu sprechen, haben eine zunehmende emotionale Abhängigkeit vom Chatbot festgestellt.
Die Studie stellte außerdem fest, dass diejenigen, die angaben, ChatGPT als Freund zu betrachten, und diejenigen, die bereits in Beziehungen eine starke Tendenz zur emotionalen Bindung hatten, sich während der Teilnahme an der Studie eher einsam und emotional abhängig vom Chatbot fühlten.
Die OpenAI-Studie lieferte weiteren Kontext, da ihre Ergebnisse im Allgemeinen darauf hindeuteten, dass Interaktionen mit ChatGPT zu emotionalen Zwecken selten waren. Darüber hinaus ergab die Studie, dass selbst unter den Vielnutzern, die den erweiterten Sprachmodus des Chatbots nutzten und eher sagten, sie betrachteten ChatGPT als Freund, diese Teilnehmergruppe bei der Interaktion mit dem Chatbot geringere emotionale Reaktionen zeigte.
OpenAI kam zu dem Schluss, dass das Ziel dieser Studien darin bestehe, die Herausforderungen zu verstehen, die sich im Zusammenhang mit seiner Technologie ergeben können, sowie Vorhersagen und Beispiele für die mögliche Verwendung seiner Modelle zu ermitteln.
Während OpenAI anmerkt, dass seine interaktionsbasierte Studie das Verhalten echter Menschen nachahmt, haben nicht wenige echte Menschen in öffentlichen Foren zugegeben, Wie Reddit, ChatGPT zu verwenden, anstatt mit ihren Gefühlen zu einem Therapeuten zu gehen.
Kommentarfunktion ist geschlossen.