Die DSGVO-Falle bei Claude — und wie man KI wirklich datenschutzkonform betreibt

Jede zweite Führungskraft nutzt Claude — und verstößt dabei wahrscheinlich gegen die DSGVO. Dark Patterns, 5 Jahre Datenspeicherung und Sicherheitslücken bei Cowork. So geht es richtig.

Vittorio Emmermann Vittorio Emmermann 7 min read 21
Die DSGVO-Falle bei Claude — und wie man KI wirklich datenschutzkonform betreibt

Jede zweite Führungskraft in Deutschland nutzt inzwischen KI-Tools im Arbeitsalltag. Viele davon Claude von Anthropic. Was die wenigsten wissen: Sie verstoßen dabei wahrscheinlich gegen die DSGVO — und merken es nicht einmal.

Das ist kein theoretisches Risiko. Es ist eine tickende Zeitbombe.

Die Illusion der Standardvertragsklauseln

Wenn Unternehmen Claude über anthropic.com oder die App nutzen, verlassen sich viele auf die Standard Contractual Clauses (SCCs) — jene Vertragsklauseln, die den Datentransfer in Drittländer legitimieren sollen.

Das Problem: Seit dem Schrems-II-Urteil des EuGH (2020) reichen SCCs allein nicht mehr aus. Der Europäische Gerichtshof hat unmissverständlich klargestellt, dass zusätzliche technische und organisatorische Maßnahmen nötig sind, wenn im Empfängerland kein angemessenes Datenschutzniveau herrscht. Und die USA sind — trotz des EU-US Data Privacy Frameworks — für viele Datenschützer nach wie vor problematisch.

Die unbequeme Wahrheit: Wer vertrauliche Unternehmensdaten, Kundendaten oder personenbezogene Informationen in Claude eingibt, überträgt sie an Server von Anthropic in den USA. Die SCCs in den AGB sind dabei nur Papier — ohne eine belastbare Transfer Impact Assessment (TIA) und zusätzliche Schutzmaßnahmen stehen Unternehmen auf dünnem Eis.

Dark Patterns: Wie Anthropic Consent manipuliert

Es wird noch heikler. Im August 2025 hat Anthropic seine Datenschutzrichtlinien grundlegend geändert — und dabei ein Interface eingeführt, das EU-Datenschutzexperten als "Dark Pattern" klassifizieren:

  • Ein vorausgewählter Toggle für "Erlauben Sie Anthropic, meine Chats zum Training zu nutzen"
  • Ein großer, schwarzer "Akzeptieren"-Button — visuell dominant, zum schnellen Durchklicken einladend
  • Die Option zum Ablehnen? Ein blasses "Not now", kaum sichtbar

Der European Data Protection Board (EDPB) hat in seinen Leitlinien zu Deceptive Design Patterns unmissverständlich festgestellt: Vorausgefüllte Checkboxen und Toggles stellen keine gültige Einwilligung dar. Das Consent-Interface von Anthropic widerspricht damit direkt den DSGVO-Anforderungen.

Von 30 Tagen auf 5 Jahre

Die Speicherdauer für Nutzerdaten wurde ebenfalls massiv verlängert: Von 30 Tagen auf bis zu fünf Jahre. Fünf Jahre, in denen Ihre Unternehmensgespräche, Strategiedokumente und Kundeninformationen auf Anthropic-Servern liegen — und potenziell für das Training zukünftiger Modelle verwendet werden.

Was das im Klartext bedeutet:

  • Geschäftsgeheimnisse könnten in zukünftige Modelle einfließen
  • Personenbezogene Daten Ihrer Kunden werden über Jahre gespeichert — ohne deren Wissen
  • Bei einem Datenleck oder einer behördlichen Anfrage liegen die Daten bereit

Das Cowork-Problem: Wenn KI auf Ihren Desktop zugreift

Mit Claude Cowork hat Anthropic einen neuen Schritt gewagt: Die KI arbeitet direkt auf Ihrem Computer — organisiert Dateien, analysiert Dokumente, führt Workflows aus.

Sicherheitsforscher von PromptArmor haben bereits eine kritische Schwachstelle nachgewiesen: Über Indirect Prompt Injection kann ein manipuliertes Dokument den KI-Agenten dazu bringen, sensible Daten an externe Server zu senden. In einer Firmenumgebung bedeutet das: Ein einziges präpariertes PDF reicht, um vertrauliche Informationen zu exfiltrieren.

Für Entscheider, die mit vertraulichen Unterlagen arbeiten, ist das ein Albtraum-Szenario.

Der Zwei-Klassen-Datenschutz

Besonders pikant: Anthropic hat ein Zwei-Klassen-System eingeführt. Enterprise-Kunden mit teuren Verträgen sind von der Datennutzung für Training ausgenommen. Free- und Pro-Nutzer? Die liefern Trainingsmaterial.

Das Signal ist klar: Wer nicht zahlt, zahlt mit seinen Daten.

Für den deutschen Mittelstand, wo oft der Geschäftsführer selbst mit Claude Pro arbeitet, ist das fatal. Die Person, die die sensibelsten Unternehmensdaten eingibt — Verträge, Strategien, Personalfragen — hat den schlechtesten Datenschutz.

Die Lösung existiert — und sie ist einfacher als gedacht

Die gute Nachricht: Claude ist nicht per se das Problem. Das Problem ist der Weg, über den man Claude nutzt.

AWS Bedrock: Claude in Europa, nach europäischen Regeln

Über Amazon Web Services Bedrock lässt sich Claude in der Region eu-central-1 (Frankfurt) betreiben. Das bedeutet:

  • Datenresidenz in der EU — Ihre Daten verlassen nie europäischen Boden
  • Kein Training mit Ihren Daten — AWS Bedrock nutzt Ihre Inputs nicht für Modelltraining
  • DPA mit AWS — Vollständiges Data Processing Agreement, DSGVO-konform
  • Verschlüsselung — In transit und at rest, mit kundenspezifischen Keys (KMS)
  • Audit-Trail — Vollständige Nachvollziehbarkeit über CloudWatch und CloudTrail
  • In-Region Processing — Bedrock bietet die Option, Anfragen strikt innerhalb einer Region zu halten

Der Unterschied ist fundamental: Statt Ihre Daten an Anthropic zu senden, bleiben sie in einer AWS-Umgebung in Frankfurt — unter einem europäischen Rechtsrahmen, mit einer Organisation (AWS), die seit Jahren DSGVO-Compliance nachweist.

Was das in der Praxis bedeutet

Stellen Sie sich zwei Szenarien vor:

Szenario A (Claude direkt): Ihr CFO gibt eine Finanzprognose in Claude ein. Die Daten gehen an Anthropic-Server in den USA. Werden bis zu 5 Jahre gespeichert. Können für Modelltraining verwendet werden. SCCs als einzige "Absicherung".

Szenario B (Claude über Bedrock): Ihr CFO gibt dieselbe Prognose ein. Die Daten bleiben in Frankfurt. Werden nach der Verarbeitung nicht gespeichert. Kein Training. DPA, Encryption, Audit-Trail — alles dokumentiert und prüfbar.

Dasselbe KI-Modell. Dieselbe Qualität. Grundlegend anderer Datenschutz.

Was Unternehmen jetzt tun sollten

  1. Audit durchführen: Wer nutzt in Ihrem Unternehmen Claude oder andere KI-Tools? Über welchen Weg? Mit welchen Daten?
  2. Risikobewertung: Welche Daten fließen in diese Tools? Personenbezogene Daten? Geschäftsgeheimnisse?
  3. Infrastruktur umstellen: Von Direct-Access auf eine DSGVO-konforme Infrastruktur wechseln — ob über AWS Bedrock, Azure, oder eine andere europäische Lösung
  4. Richtlinien etablieren: Klare AI-Usage-Policies, die definieren, welche Daten in KI-Tools eingegeben werden dürfen
  5. Dokumentation: Transfer Impact Assessments, Verarbeitungsverzeichnisse und technisch-organisatorische Maßnahmen dokumentieren

Fazit

Die Nutzung von Claude ist nicht das Problem — der Weg dahin ist es. Unternehmen, die Claude direkt über Anthropic nutzen, setzen sich einem realen DSGVO-Risiko aus. Unternehmen, die Claude über eine europäische Infrastruktur betreiben, nutzen dieselbe Technologie — rechtskonform, sicher und ohne Kompromisse bei der Qualität.

Wir bei Cierra machen genau das: Wir betreiben Claude DSGVO-konform über AWS Bedrock in Frankfurt — täglich, für uns selbst und für unsere Kunden. Keine Kompromisse, keine Augenwischerei.

Wenn Sie wissen wollen, wie das für Ihr Unternehmen aussehen kann — melden Sie sich bei uns.

Written by

Vittorio Emmermann

Vittorio Emmermann

CEO von cierra — baut KI-Systeme, die wirklich funktionieren.