Macht die Nutzung von ChatGPT dümmer? Eine MIT-Studie legt nahe, dass die Fähigkeiten von Menschen, die sich auf KI-Tools verlassen, nachlassen.
Einer aktuellen Studie von Forschern des Massachusetts Institute of Technology zufolge kann die Verwendung von ChatGPT und anderen KI-Tools zu einer verminderten Gehirnaktivität und möglicherweise zu einer langfristigen Hirnatrophie führen.
Mit dem großen Boom der Technologie Generative künstliche IntelligenzForscher untersuchen derzeit die Auswirkungen dieser Tools auf die Nutzer. Frühere Studien haben gezeigt, dass eine übermäßige Abhängigkeit von ChatGPT Ähnliche Tools können zu Folgendem führen: Suchtverhalten und Schäden an der psychischen Gesundheit, Verkümmerung des kritischen Denkens und Gefühle der Einsamkeit und sozialen Isolation.
Eine neue Studie hebt die potenziellen Risiken von Tools für große Sprachmodelle (LLM) wie ChatGPT hervor. Forscher am Media Lab des Massachusetts Institute of Technology fanden heraus, dass Die Verwendung von ChatGPT und ähnlichen Tools zum Schreiben von Artikeln führte zu einer signifikanten Abnahme der Gehirnaktivität. Die Studie mit dem Titel „Die Auswirkungen von ChatGPT auf das Gehirn: Anhäufung kognitiver Schulden bei der Verwendung eines KI-Assistenten für Aufsatzschreibaufgaben“...dass Menschen, die sich auf KI-Tools verließen, beim Schreiben von Aufsätzen schlechter wurden, wenn sie aufgefordert wurden, dieselbe Aufgabe ohne die Hilfe von ChatGPT oder ähnlichen Tools auszuführen.

Die Studie umfasste eine kleine Stichprobe von 54 Personen im Alter zwischen 18 und 39 Jahren. Die Teilnehmer wurden in drei Gruppen aufgeteilt: eine „Nur-Gehirn“-Gruppe (die sich ausschließlich auf ihre geistigen Fähigkeiten verließ), eine Gruppe, die eine herkömmliche Suchmaschine verwenden konnte, und eine Gruppe, die Tools für große Sprachmodelle (LLM) wie ChatGPT verwenden konnte.
Die Ergebnisse zeigten, dass diejenigen, die große Sprachmodelle (LLMs) zur Lösung der Aufgabe verwendeten, eine um 32 % geringere kognitive Belastung aufwiesen als diejenigen, die traditionelle Softwareschnittstellen nutzten. Sie berichteten auch von weniger Frustration während des Prozesses.
Ein wichtiges Ergebnis ist, dass Personen, die während der Studie große Sprachmodelle (LLMs) verwendeten, weniger geistige Anstrengung aufwendeten, um Informationen zu beschaffen. Das ist zwar nicht überraschend, erklärt aber, warum manche Menschen dazu neigen, KI-Tools zur Erledigung von Aufgaben zu nutzen.
Zusätzlich zur Aufzeichnung einer höheren Gehirnaktivität berichteten die Teilnehmer der „Nur-Gehirn“-Gruppe von einer größeren Zufriedenheit mit ethischen Überlegungen.
Zweifellos haben große Sprachmodelle (LLMs) den Aufwand für die Beantwortung von Teilnehmerfragen im Vergleich zu herkömmlichen Suchmaschinen reduziert. Dieser Komfort geht jedoch mit kognitiven Kosten einher: Nutzer neigen weniger dazu, die Ergebnisse oder „Meinungen“ von LLMs (probabilistische Antworten basierend auf Trainingsdatensätzen) kritisch zu bewerten. Dies verdeutlicht eine beunruhigende Entwicklung des „Echokammer“-Effekts: Anstatt zu verschwinden, hat er sich angepasst und prägt nun die Nutzerpräsenz durch algorithmisch kuratierte Inhalte. Was als „am besten“ gilt, wird letztlich von den Prioritäten der LLM-Mitwirkenden beeinflusst.
Auf den ersten Blick erscheinen die Schlussfolgerungen der Studie eindeutig. Es ist keine Überraschung, dass das Schreiben eines Essays mehr geistige Anstrengung erfordert, als einfach ein Werkzeug zu verwenden, um denselben Essay zu schreiben. Ich bin sicher, dass es auch nur minimale Gehirnleistung erfordern würde, jemand anderen für das Schreiben des Essays zu bezahlen.

Doch Wissenschaft ist mehr als nur Intuition. Sie erfordert Beweise und Hypothesentests. Angesichts der Möglichkeit, dass sich Regierungspolitik und Bildungsstandards aufgrund der Auswirkungen von ChatGPT und ähnlichen Tools ändern, ist es wichtig, so viele Informationen wie möglich zu sammeln.
Dies bestätigten die Forscher des MIT im Fazit der Studie.
„Wir glauben, dass Längsschnittstudien erforderlich sind, um die langfristigen Auswirkungen von LLMs auf das menschliche Gehirn zu verstehen, bevor LLMs als etwas Positives für den Menschen anerkannt werden können.“
Die MIT-Studie wurde noch nicht einem Peer-Review unterzogen und die Stichprobengröße war gering. Obwohl die Studie einen guten Schritt zur Erfassung relevanter Informationen darstellt, sind weitere Untersuchungen erforderlich.
Macht ChatGPT die Leute dümmer?
Die Studie untersuchte auch die Auswirkungen der Verwendung eines großen Sprachmodells (LLM) wie ChatGPT zum Schreiben eines Aufsatzes auf die Leistung, wenn die Teilnehmer später gebeten wurden, dieselbe Aufgabe ohne KI-Unterstützung zu erledigen.
Forscher vermuten, dass dieser Trend auf die „kognitive Erschöpfung“ durch KI zurückzuführen ist. Anders ausgedrückt: Die Nutzung von Tools wie ChatGPT reduziert das Denken, was möglicherweise zu einem langfristigen Rückgang der kognitiven Fähigkeiten führt. Dieses Phänomen, das Experten als „digitale Hirnatrophie“ bezeichnen, deutet darauf hin, dass die übermäßige Abhängigkeit von KI unsere grundlegenden geistigen Fähigkeiten beeinträchtigen könnte.
In einer Studie von Microsoft-Forschern in Zusammenarbeit mit der Carnegie Mellon University wurden die Auswirkungen generativer KI auf das kritische Denken untersucht. Die Forscher verglichen die Auswirkungen des Einsatzes generativer KI mit Muskelschwund und erklärten, dass der Mangel an kognitiven Fähigkeiten ebenso wie der Mangel an Muskeln zu Schwäche führt.
Sollten die Daten weiterhin die Theorie stützen, dass der Einsatz generativer KI-Modelle zu einem langfristigen Rückgang der Gehirnaktivität und des kritischen Denkens führt, könnte dies weitreichende Folgen haben. Bildungseinrichtungen und Unternehmen müssen die Integration dieser Tools überdenken, um sicherzustellen, dass sie die kognitive Entwicklung nicht behindern.
Eine von der Zeitung durchgeführte Umfrage ergab, dass The Guardianund veröffentlichte es KI-KommissionGenerative KI-Tools wie ChatGPT werden von Studierenden häufig zum Schummeln eingesetzt. Dieser unethische Einsatz wirft ernsthafte Bedenken hinsichtlich der akademischen Integrität und der Auswirkungen von KI auf Bildungswerte auf.
Wenn Studierende und Berufstätige übermäßig auf ChatGPT und ähnliche Tools angewiesen sind, kann ihre Fähigkeit, bestimmte Aufgaben selbstständig zu erledigen, beeinträchtigt sein. Diese Abhängigkeit kann zu einem Rückgang grundlegender Fähigkeiten wie Schreiben, kritischem Denken und Problemlösung führen und so die Wettbewerbsfähigkeit auf dem Arbeitsmarkt gefährden.
Kommentarfunktion ist geschlossen.