ChatGPT kann Sie um einen Identitätsnachweis bitten, wenn das neue Altersvorhersagesystem den Verdacht hat, dass Sie unter 18 Jahre alt sind.
ChatGPT entwickelt derzeit ein automatisches Alterserkennungssystem, das feststellen kann, ob ein Benutzer unter 18 Jahre alt ist. In einigen Fällen, in denen dies nicht festgestellt werden kann, fordert der Chatbot die Benutzer möglicherweise auf, einen offiziellen Ausweis vorzulegen, um dies nachzuweisen.

OpenAI, das Unternehmen hinter ChatGPT, verbessert seine Tools zur Kindersicherung und steht aufgrund des aufsehenerregenden Falls des 16-jährigen Adam Renn unter zunehmendem Druck. Dessen Familie behauptet, dass ChatGPT zu seinem Selbstmord beigetragen hat.
„ChatGPT ist für Personen ab 13 Jahren gedacht“, erklärte CEO Sam Altman in einem Blogbeitrag mit dem Titel „Sicherheit, Freiheit und Privatsphäre von Teenagern“.
„Wir arbeiten an der Entwicklung eines Altersvorhersagesystems, um das Alter anhand der Nutzung von ChatGPT durch die Leute zu schätzen“, sagte er. كتبIm Zweifelsfall gehen wir lieber auf Nummer sicher und greifen auf die Erfahrung von unter 18-Jährigen zurück. In manchen Fällen oder Ländern fragen wir möglicherweise auch nach einem Ausweis. Wir wissen, dass dies für Erwachsene ein Zugeständnis an die Privatsphäre darstellt, aber wir glauben, dass es ein lohnender Kompromiss ist.
In manchen Fällen oder Ländern verlangen wir möglicherweise auch einen Ausweis. Wir wissen, dass dies eine Beeinträchtigung der Privatsphäre von Erwachsenen darstellt, glauben aber, dass es ein lohnender Kompromiss ist.
Altman erklärt weiter, dass einige Elemente der ChatGPT-Antworten für Jugendliche gesperrt werden, etwa flirtende Chat-Antworten oder Diskussionen über Selbstverletzung. Er sagt, das Unternehmen werde die Sicherheit über die Privatsphäre und Freiheit von Jugendlichen stellen und erklärt, dass Minderjährige „erheblichen Schutz“ benötigen.
Abschließend fügt er hinzu, dass der Chatbot, wenn ein Teenager Selbstmordgedanken äußert, versuchen wird, die Eltern zu kontaktieren und sie zu warnen. Sollte dies nicht möglich sein, wird ChatGPT versuchen, die Behörden zu kontaktieren.
„Wir sind uns bewusst, dass diese Prinzipien im Konflikt stehen und dass nicht jeder mit unserer Lösung einverstanden sein wird“, schrieb Altman. „Das sind schwierige Entscheidungen, aber nach Gesprächen mit Experten sind wir davon überzeugt, dass dies die beste Lösung ist, und wir möchten unsere Absichten transparent darlegen.“
Dr. Brian Ramos, Neurowissenschaftler und Langlebigkeitsforscher bei Einfach NootropikaLaut Tom’s Guide trifft OpenAI die richtige Entscheidung.
„Als Neurowissenschaftler, der auf Langlebigkeit und ganzheitliches Wohlbefinden spezialisiert ist, begrüße ich Sicherheitsvorkehrungen wie Altersvorhersagesysteme und Kindersicherungen“, sagte er mir per E-Mail.
Das Gehirn von Teenagern befindet sich noch in der Entwicklung, wodurch sie anfälliger für die Vorteile und Risiken künstlicher Intelligenz sind. ChatGPT kann ein nützlicher Begleiter für lockere, zwanglose therapeutische Gespräche sein und beim Stressabbau, bei der Meditation und beim Aufbau gesunder Gewohnheiten helfen.
Bei tiefen psychischen Problemen, insbesondere bei Selbstverletzungen oder Traumata, sollten jedoch immer professionelle Hilfe in Anspruch genommen werden. Technologie kann eine echte therapeutische Betreuung unterstützen, sollte sie aber niemals ersetzen.
ChatGPT-Kindersicherung – Was kommt als Nächstes?

Die bevorstehende ChatGPT-Kindersicherung ermöglicht es Eltern, ihre Konten mit den Konten ihrer Teenager zu verknüpfen.
Auf diese Weise können sie Einstellungen im Namen ihrer Kinder vornehmen, beispielsweise Sperrzeiten festlegen, in denen sie die Plattform nicht nutzen können, oder den Chatverlauf deaktivieren. Durch die Verknüpfung von Konten kann ChatGPT die Eltern auch benachrichtigen, wenn es Anzeichen für besorgniserregendes oder potenziell schädliches Verhalten im Umgang mit dem Kind erkennt.
Kommentarfunktion ist geschlossen.