Anthropic bricht mit Prinzipien: „Claude“ will deine Daten – es sei denn, du widersprichst
Letzte Aktualisierung am: 1. September 2025
Das KI-Unternehmen Anthropic, bekannt für sein Sprachmodell Claude, hat eine weitreichende Änderung seiner Datenschutzrichtlinien angekündigt. Künftig sollen sämtliche Nutzergespräche standardmäßig für das Training der KI-Modelle verwendet werden – es sei denn, Nutzerinnen und Nutzer widersprechen aktiv. Die neue Regelung gilt für alle Privatkundinnen und -kunden der Produkte Claude Free, Claude Pro und Claude Max. Enterprise-Kundschaft ist davon ausgenommen.
Was auf den ersten Blick wie eine reine Formalität erscheint, hat es in sich. Wer der neuen Datenverwendung nicht zustimmen möchte, muss bis zum 28. September 2025 aktiv widersprechen – durch das Deaktivieren eines kleinen, unscheinbaren Schalters unter dem prominent platzierten „Akzeptieren“-Button. Diese Gestaltung birgt die Gefahr, dass viele Nutzerinnen und Nutzer die Änderung übersehen oder versehentlich akzeptieren, ohne sich der Konsequenzen bewusst zu sein.
Fünf Jahre statt 30 Tage: Speicherfrist massiv verlängert
Besonders kritisch ist zudem die Veränderung der Speicherfrist. Während Nutzergespräche bislang nach 30 Tagen gelöscht wurden, sollen sie künftig bis zu fünf Jahre lang archiviert und potenziell für das KI-Training genutzt werden. Dieser drastische Schritt erhöht nicht nur das verfügbare Trainingsmaterial, sondern auch das Risiko für Datenlecks, ungewollte Zugriffe durch Dritte oder staatliche Anfragen.
Gemeinschaftsdienst oder Datensammlung? Anthropics Begründung im Fokus
Anthropic begründet die Entscheidung mit dem Ziel, die Sicherheit der Modelle zu verbessern, Fehlalarme zu reduzieren und das Nutzererlebnis insgesamt zu optimieren. Indem Nutzerinnen und Nutzer ihre Daten zur Verfügung stellen, würden sie zur Verbesserung der KI beitragen, so die offizielle Kommunikation. Kritiker sehen darin allerdings vor allem eine Umdeutung eines tiefgreifenden Eingriffs in die Privatsphäre – getarnt als Gemeinschaftsdienst.
Von der Ethik zur Wirtschaftlichkeit: Ein Bruch mit den eigenen Grundsätzen
Besonders brisant ist der Vorgang vor dem Hintergrund der Unternehmensgeschichte. Anthropic wurde 2021 von ehemaligen OpenAI-Mitarbeitenden gegründet – mit dem Anspruch, sich als ethische Alternative zur datengetriebenen Konkurrenz zu positionieren. „Constitutional AI“ und ein besonders verantwortungsvoller Umgang mit Trainingsdaten galten lange als Kernversprechen. Die jetzige Kehrtwende stellt dieses Selbstbild ernsthaft infrage.
Zwei-Klassen-Datenschutz: Unternehmen werden bevorzugt behandelt
Hinzu kommt die Einführung eines Zwei-Klassen-Datenschutzes: Während zahlende Großkundschaft (z. B. Unternehmen) von der neuen Regelung verschont bleibt, trifft sie Privatnutzerinnen und -nutzer mit voller Wucht. Damit folgt Anthropic einem Muster, das auch OpenAI bereits etabliert hat – und das zunehmend kritisiert wird: Wer zahlt, bleibt privat. Wer nicht zahlt, liefert Trainingsmaterial.
Was Unternehmen jetzt tun sollten
Unterm Strich zeigt die neue Datenschutzpraxis, dass auch bei vermeintlich „ethischen KI-Anbietern“ wirtschaftlicher Druck und Wettbewerbsfähigkeit über einstige Grundsätze siegen können. Für Nutzerinnen und Nutzer bedeutet das vor allem eines: Genau hinschauen, bewusst entscheiden – und Datenschutzeinstellungen regelmäßig überprüfen.
Anthropics Richtungswechsel unterstreicht, wie wichtig es ist, bei der Auswahl von KI-Tools nicht nur auf Funktionalität und Performance zu achten, sondern auch auf Transparenz, Datenverwendung und langfristige Vertrauenswürdigkeit. Unternehmen und Fachkräfte sollten diese Entwicklung als Anlass nehmen, ihre eigenen Richtlinien im Umgang mit KI kritisch zu hinterfragen – und gegebenenfalls neu zu justieren.
Quellen: TechCrunch