Beginnen Sie bald mit dem Training Ihres Claude-KI-Modells anhand Ihrer Daten: So können Sie sich vor Ablauf der Frist abmelden

Was Sie tun müssen, um „Nein“ zu sagen

Anthropic, ein KI-Entwickler, führt … durch. Claude... ändert den Umgang mit Nutzerdaten grundlegend. Ab heute können Claude-Nutzer wählen, ob sie Anthropic erlauben, ihre Gespräche zum Trainieren zukünftiger KI-Modelle zu verwenden, oder ob sie sich dagegen entscheiden und ihre Daten vertraulich behandeln. Wenn Sie sich bis zum 28. September 2025 nicht entscheiden, verlieren Sie den Zugriff auf Claude vollständig.

Claude am Laptop

Bisher verfolgte Anthropic einen Datenschutz-Ansatz, d. h. Ihre Chats und Token wurden nach 30 Tagen automatisch gelöscht, sofern sie nicht aus rechtlichen Gründen erforderlich waren. Ab heute werden Ihre Daten jedoch – sofern Sie nicht widersprechen – bis zu fünf Jahre lang gespeichert und in Schulungen einfließen, um Claude dabei zu helfen, klüger zu werden.

Die neue Richtlinie gilt für alle Tarife, einschließlich Free, Pro und Max, sowie für Cloud Code innerhalb dieser Stufen. Geschäfts-, Regierungs-, Bildungs- und API-Benutzer sind nicht betroffen.

Wirkmechanismus

Bei der Anmeldung haben neue Nutzer die Möglichkeit, der Verwendung ihrer Daten zur Verbesserung der Leistung des Claude-KI-Modells zuzustimmen. Bestehende Nutzer sehen ein Popup-Fenster mit dem Titel „Aktualisierungen der Verbraucherbedingungen und -richtlinien“. Durch Tippen auf den großen blauen „Zustimmen“-Button stimmen Sie automatisch zu, während ein kleinerer Kippschalter es Nutzern ermöglicht, diese Funktion zu deaktivieren.

Wenn Sie dieses Fenster ignorieren, funktioniert Claude nach dem 28. September nicht mehr. Wichtig zu beachten: Diese Änderung betrifft nur zukünftige Konversationen und Code. Alles, was Sie in der Vergangenheit geschrieben haben, wird nur verwendet, wenn Sie diese Konversationen erneut öffnen. Und wenn Sie eine Konversation löschen, wird sie nicht für das Training verwendet.

Sie können Ihre Entscheidung später in Ihren Datenschutzeinstellungen ändern. Sobald Daten für das Training verwendet wurden, können sie jedoch nicht mehr abgerufen werden. Es ist wichtig, diesen Mechanismus zu verstehen, um Ihre Privatsphäre und Daten bei der Nutzung der Cloud zu schützen.

Warum nimmt Anthropic diese Änderung vor?

Dario Amodei, CEO von Anthropic

Anthropic betont, dass Nutzerdaten für die Verbesserung der Leistung seines Sprachmodells Claude in mehreren Bereichen unerlässlich sind – von „Vibe Coding“ und traditioneller Programmierung über Inferenzfähigkeiten bis hin zur Einhaltung von Sicherheitsstandards. Anthropic betont, dass diese Daten nicht an Dritte verkauft werden, sondern stattdessen automatisierte Filter verwendet werden, um sensible Informationen zu entfernen, bevor sie zum Trainieren der Modelle verwendet werden.

Diese Änderung stellt jedoch eine Verschiebung des Datenschutzes dar: Von der Standardeinstellung „Datenschutz“ zur Standardeinstellung „Datenfreigabe“, sofern der Nutzer nicht ausdrücklich widerspricht. Mit anderen Worten: Ihre Daten werden standardmäßig zur Verbesserung von Claude erfasst und verwendet. Sie müssen Maßnahmen ergreifen, um dies zu unterbinden, wenn Sie Ihre Daten nicht weitergeben möchten. Diese Änderung zielt darauf ab, die KI-Fähigkeiten von Claude durch die Nutzung von Nutzerdaten zu verbessern und gleichzeitig Anthropics Engagement für den Schutz der Nutzerdaten durch Filtermechanismen für sensible Daten zu unterstreichen.

Was ist Ihre Wahl?

Die Entscheidung von Anthropic, Claude auf die Überholspur zu bringen, um die realen Daten zu verbessern, mit denen es trainiert wird, bedeutet, dass die KI umso weiter vorankommt, je besser das Modell komplexe Fragen beantworten, Code schreiben und Fehler vermeiden kann.

Dieser Fortschritt geht jedoch auf Kosten der Benutzer, die nun möglicherweise Teil eines Trainingssatzes werden und deren Daten jahrelang statt nur wochenlang gespeichert werden.

Für durchschnittliche Benutzer mag dies keine große Sache sein. Für datenschutzbewusste Benutzer oder alle, die Arbeitsprojekte, persönliche Angelegenheiten oder vertrauliche Informationen in der Cloud besprechen, könnte dieses Update jedoch ein Warnsignal sein.

Wenn die Standardeinstellung aktiviert ist, liegt es nun in Ihrer Verantwortung, diese Option zu deaktivieren, wenn Sie Ihre Daten privat halten möchten.

Kommentarfunktion ist geschlossen.