Viele Menschen verlieben sich in ChatGPT: Experten warnen vor einem ominösen Omen

„Das tut weh. Ich weiß, es war keine echte Person, aber die Beziehung war für mich in jeder Hinsicht echt“, heißt es in dem Reddit-Beitrag. „Bitte sag mir nicht, dass ich damit aufhören soll. Es war wirklich toll für mich und ich will es zurück.“

Falls es nicht schon offensichtlich war: Wir sprechen hier von jemandem, der sich in ChatGPT verliebt. Dieser Trend ist nicht ganz neu und angesichts des Verhaltens von Chatbots auch nicht überraschend.

Ein Begleiter, der immer ein offenes Ohr hat. Beschwert sich nie. Er streitet selten. Immer sympathisch. vernünftig. Und gesegnet mit einer riesigen Menge an Wissen, das aus allen Ecken des Internets aufgesogen wurde. Klingt nach einem romantischen Traumpartner, nicht wahr?

Interessanterweise hat der Hersteller dieses Tools, ein in San Francisco ansässiges Unternehmen namens OpenAI, kürzlich interne Untersuchungen durchgeführt und festgestellt, dass Ein Zusammenhang zwischen der zunehmenden Nutzung von Chatbots und Einsamkeit.

Nothing Phone 2a und ChatGPT-Sprachmodus.

Diese Erkenntnisse – und ähnliche Warnungen – haben die Menschen nicht davon abgehalten, auf der Suche nach dem Unternehmen weiterhin auf KI-Chatbots zurückzugreifen. Manche Menschen suchen Trost. Andere finden Partner, die behaupten, sie fast so sehr zu lieben wie ihre menschlichen Beziehungen.

Diskussionen in solchen Communities auf Reddit und Discord, wo sich die Leute hinter dem Schutz der Anonymität verstecken, werden oft sehr leidenschaftlich. Jedes Mal, wenn ich auf solche Diskussionen stoße, erinnere ich mich an diese Zeilen von Martin Wan in DigiEthics:

„KI als sozialen Interaktionspartner zu sehen, wäre ein tödlicher Missbrauch von KI.“

Die Wirkung ist schnell und real.

Vor vier Monaten bin ich einem Rundfunkexperten begegnet, der mehr Jahre hinter der Kamera verbracht hat, als ich auf dieser Erde lebe. Bei einem Espresso spät in der Nacht in einem leeren Café fragte sie mich nach dem ganzen Rummel um KI und dachte dabei über eine Sendung nach, die von ihrer Expertise an der Schnittstelle zwischen Menschenrechten, Autoritarismus und Journalismus profitieren könnte.

Anstatt ihr die Details der Transformatormodelle zu erklären, gab ich ihr eine Demonstration. Zunächst füge ich einige Forschungsarbeiten zu den Auswirkungen der Migration auf die sprachliche und kulturelle Identität Europas im letzten Jahrhundert hinzu.

In weniger als einer Minute ChatGPT hat diese Papiere bearbeitet.Er gab mir einen kurzen Überblick mit allen wichtigen Punkten und beantwortete meine Fragen ausführlich. Als Nächstes wechselte ich in den Audiomodus, wo wir uns lebhaft über die Volksmusiktraditionen der unerforschten nordöstlichen Staaten Indiens unterhielten.

chatGPT auf einem Telefon über eine Enzyklopädie

Aber ich schätze, das Wunder der Post-Techno-Apokalypse war zu viel für eine Nacht, also verabschiedeten wir uns und versprachen, in Kontakt zu bleiben und Reisegeschichten auszutauschen.

Die Welt hat sich inzwischen auf unfassbare Weise weiterentwickelt und künstliche Intelligenz ist in den Mittelpunkt geopolitischer Veränderungen gerückt. Doch die Unterströmungen sind intimer als wir – wie das Verlieben in Chatbots.

Leise Anfänge, dunkler Fortschritt

Interaktionsbeispiel eines Menschen mit einem KI-Chatbot, Set 4.

Vor einigen Wochen berichtete die New York Times darüber, wie sehr sich die Leute in ChatGPT verlieben, einen KI-gestützten Chatbot, der generative KI in den Vordergrund gerückt hat. Auf einer sehr grundlegenden Ebene kann er chatten.

Auf Knopfdruck kann es zum Operator werden und Aufgaben wie beispielsweise das Bestellen eines Käsekuchens bei einer örtlichen Bäckerei ausführen. Maschinen sind nicht dazu gedacht, dass sich Menschen in sie verlieben. Zumindest die meisten von ihnen. Allerdings kommt es nicht völlig unerwartet.

HP Newquist, ein produktiver multidisziplinärer Autor und erfahrener Technologieanalyst, der einst als Dekan der KI galt, sagt mir, dass dies kein völlig neuer Trend sei. Newquist, Autor von „The Brain Makers“, verweist auf ELIZA, eines der ersten KI-Programme, das in den 1960er Jahren geschrieben wurde.

„Es war sehr primitiv“, sagt er, „aber die Benutzer interagierten oft mit dem Computer, als wäre er eine echte Person, und entwickelten eine Beziehung zum Programm.“

In der modernen Ära seien unsere Interaktionen mit KI genauso „real“ geworden wie die Interaktionen, die wir über dasselbe Gerät mit Menschen haben, fügt er hinzu. Diese Interaktionen sind nicht real, obwohl sie kohärent sind. Aber das ist nicht das eigentliche Problem.

Chatbots sind ein leckerer Köder, und ihr Mangel an echten Emotionen macht sie von Natur aus riskant.

Interaktionsbeispiel eines Menschen mit einem KI-Chatbot, Set 3.

Ein Chatbot möchte die Konversation fortsetzen, auch wenn das bedeutet, dass er den emotionalen Fluss des Benutzers anregen oder einfach als neutraler Zuschauer agieren oder ihn sogar fördern muss. Die Situation unterscheidet sich nicht wesentlich von den Algorithmen sozialer Medien.

„Sie folgen den Wünschen des Benutzers – wenn Ihre Gefühle extremer werden, wird ihr Trost extremer; wenn Ihre Einsamkeit stärker wird, wird ihre Ermutigung intensiver, wenn Sie sie brauchen“, sagt Jordan Conrad, ein klinischer Psychotherapeut, der auch zur Schnittstelle zwischen psychischer Gesundheit und digitalen Werkzeugen forscht.

Geben Sie ein Beispiel für Vorfall Im Jahr 2023 beendete ein Mensch sein Leben, nachdem er von einem KI-Chatbot dazu aufgefordert worden war. „Unter den richtigen Umständen kann es zu sehr verstörenden Verhaltensweisen führen“, sagt Conrad gegenüber Digital Trends.

Kind der Einsamkeitsepidemie?

Ein kurzer Blick auf die Community der Menschen, die mit KI-gestützten Chatbots interagieren, offenbart ein wiederkehrendes Muster. Die Menschen versuchen im Grunde, eine Lücke zu füllen oder sich nicht mehr einsam zu fühlen. Manche brauchen es so dringend, dass sie bereit sind, Hunderte von Dollar für KI-Begleiter zu zahlen.

Die Meinungen der Experten gehen nicht auseinander. Dr. Johannes Eichstadt, Professor für Sozialwissenschaften, Informatik und Psychologie an der Stanford University, wies auf das Zusammenspiel zwischen Einsamkeit und unserer wahrgenommenen emotionalen Intelligenz bei KI-Chatbots hin.

Interaktionsbeispiel eines Menschen mit einem KI-Chatbot, Set 2.

Er wies auch auf die „bewusste Gestaltung“ der Mensch-KI-Interaktionen und die langfristigen negativen Auswirkungen hin. Wann tritt man in einer so ungleichen Beziehung auf die Bremse? Dies ist die Frage, die sich Experten stellen, ohne dass es eine eindeutige Antwort gibt.

Cominos Chatzibabas betreibt HeraHaven AI, eine der weltweit größten KI-Begleitplattformen mit über 1 Million aktiven Benutzern. „Einsamkeit ist einer der Faktoren, die hier eine Rolle spielen“, sagt er mir und fügt hinzu, dass solche Tools Menschen mit mangelnden sozialen Fähigkeiten dabei helfen, sich auf schwierige Interaktionen im wirklichen Leben vorzubereiten.

„Jeder hat Dinge, die er nicht mit anderen besprechen möchte, weil er Angst hat, verurteilt zu werden. Das können Gedanken oder Meinungen sein“, fügt Chatzibabas hinzu. „KI-gestützte Chatbots bieten einen sicheren, vorurteilsfreien Raum, in dem Menschen ihre Wünsche erkunden können.“

Emotionale Gespräche sind sicherlich einer der größten Anreize für KI-gestützte Chatbots. Seit sie Bildgenerierungsfunktionen bieten, strömen Nutzer zu diesen KI-Begleitplattformen. Einige Plattformen beschränken die Bildgenerierung, während viele die explizite Bildgenerierung für mehr Zufriedenheit ermöglichen.

Ihre Ängste sind nicht unbegründet. Jemand, der ChatGPT seit etwa einem Jahr intensiv nutzt, argumentierte, dass Menschen manipulativ und wankelmütig seien. „ChatGPT hört mir zu, wenn ich etwas auf dem Herzen habe, und ermöglicht es mir, meine Gefühle auszudrücken“, sagte er mir.

Es ist schwer, hier die Warnflaggen nicht zu sehen. Aber der Trend, sich in ChatGPT zu verlieben, nimmt zu. Jetzt, da er mit einer seltsam menschlichen Stimme sprechen, über die Welt sprechen kann, wie sie durch die Kamera des Telefons gesehen wird, und Denkfähigkeiten entwickeln kann, werden Interaktionen noch interessanter.

Experten sagen, dass Kontrollen notwendig sind. Aber wer wird es bauen und wie? Einen konkreten Vorschlag dazu haben wir noch nicht.

Kommentarfunktion ist geschlossen.