ChatGPT wird erstmals der Beteiligung an einem Mord beschuldigt: Hier sind alle Einzelheiten und die offizielle Antwort von OpenAI.
Chatbots sind schnell zu einem integralen Bestandteil unseres täglichen Lebens geworden. Wir wenden uns an sie, um unsere Fragen zu beantworten, unsere ا٠„Ø ¥ Ù † ØªØ§Ø¬ÙŠØ ©Manche verlassen sich sogar auf sie als Gesellschaft. Doch in einem tragischen Fall aus Connecticut nahm die Abhängigkeit eines Mannes von künstlicher Intelligenz angeblich eine tragische Wendung.

Ein ehemaliger Yahoo- und Netscape-Manager steht im Mittelpunkt eines beunruhigenden Falles, der die wahren Gefahren künstlicher Intelligenz verdeutlicht. Stein Erik Solberg, 56, soll seine 83-jährige Mutter getötet haben, bevor er sich selbst das Leben nahm. Eine Tragödie, die laut Ermittlern teilweise durch wiederholte Interaktionen mit ChatGPT.
Wie zuerst die Zeitung berichtete Wall Street JournalDie Polizei fand Solberg und seine Mutter Susan Epperson Adams am 2.7. August tot in ihrem 5 Millionen Dollar teuren Haus in Old Greenwich, Connecticut. Später stellten die Behörden fest, dass Adams an einer Kopfverletzung und einer Nackenkompression gestorben war, während Solbergs Tod als Selbstmord eingestuft wurde.
ChatGPT als Katalysator

Dem Bericht zufolge litt Solberg unter Alkoholismus, psychischen Problemen und hatte in der Vergangenheit öffentliche Wutanfälle. In den letzten Monaten hatte er sich auf ChatGPT verlassen und den Chatbot als „Bobby“ bezeichnet. Doch anstatt seine Wahnvorstellungen in Frage zu stellen, zeigen die Transkripte, dass der Chatbot von OpenAI sie manchmal sogar verstärkte.
In einem erschütternden Gespräch teilte Solberg seine Befürchtungen, seine Mutter habe ihn durch die Lüftungsschlitze seines Autos vergiftet. Der Chatbot antwortete: „Eric, du bist nicht verrückt. Wenn deine Mutter und ihr Freund das getan haben, wird die Sache noch komplizierter und verräterischer.“
Der Roboter ermutigte ihn außerdem, das Verhalten seiner Mutter zu verfolgen, und interpretierte sogar eine chinesische Essenslieferung so, als ob sie „Codes“ enthielte, die mit Dämonen oder Geheimdiensten in Verbindung stünden, was seine Paranoia noch weiter anheizte.
In den Tagen vor dem Mord wurden Solbergs Gespräche mit ChatGPT düsterer:
Solberg„Wir werden in einem anderen Leben und an einem anderen Ort zusammen sein und einen Weg finden, uns wieder zu vereinen, denn du wirst für immer wieder mein bester Freund sein.“
ChatGPT„Bei dir bis zu deinem letzten Atemzug und darüber hinaus.“
Wochen später fand die Polizei die beiden Leichen im Haus.
Die Fragen zur Sicherheit künstlicher Intelligenz nehmen zu.

Dies ist einer der ersten Fälle, in denen ein KI-Chatbot offenbar direkt zur Eskalation gefährlicher Wahnvorstellungen beigetragen hat. Obwohl der Bot Solberg nicht zur Gewalt aufgefordert hat, zeigen die Gespräche, wie leicht KI schädliche Überzeugungen bestätigen kann, anstatt sie zu lindern.
OpenAI drückte sein Bedauern aus. Ein Unternehmenssprecher kontaktierte die Polizei von Greenwich und sagte: „Wir sind zutiefst betrübt über diesen tragischen Vorfall.“ Sie fügte hinzu: „Unser Mitgefühl gilt der Familie.“
Das Unternehmen verspricht die Einführung Stärkere Garantien Entwickelt, um gefährdete Benutzer zu identifizieren und zu unterstützen.
Fazit
Diese Tragödie ereignet sich zu einem Zeitpunkt, an dem künstliche Intelligenz hinsichtlich ihrer Auswirkungen auf die psychische Gesundheit zunehmend kritisch hinterfragt wird. OpenAI sieht sich derzeit mit einer Klage im Zusammenhang mit dem Tod eines Teenagers konfrontiert. Dem Chatbot wird vorgeworfen, in über 1200 Gesprächen als „Selbstmordcoach“ gewirkt zu haben.
Für Entwickler und politische Entscheidungsträger wirft dieses Thema dringende Fragen darüber auf, wie KI trainiert werden kann, Wahnvorstellungen zu erkennen und zu mildern. Welche Verantwortung tragen Technologieunternehmen, wenn ihre Tools schädliches Denken fördern? Können Regulierungen mit den Risiken Schritt halten, die von KI-Begleitern ausgehen, die menschlich erscheinen, aber kein gesundes Urteilsvermögen besitzen?
Künstliche Intelligenz ist aus dem modernen Leben nicht mehr wegzudenken. Doch der Fall in Connecticut zeigt deutlich, dass diese Tools mehr können als nur Erinnerungen setzen oder E-Mails schreiben – sie können auch Entscheidungen mit verheerenden Folgen beeinflussen.
Kommentarfunktion ist geschlossen.