[sven seele]
Alle Insights
  • DSGVO
  • Claude
  • Architektur

DSGVO und Claude: was Geschäftsführer wirklich wissen müssen

Ein ehrlicher Leitfaden zum Thema Datenschutz bei Claude-basierten KI-Agents, inklusive der Stellen, an denen auch Claude an Grenzen stößt. Ohne dass Sie selbst Datenschutzbeauftragter werden müssen.

Von Sven Seele 9 Min. Lesezeit

Fragen Sie Ihren Datenschutzbeauftragten, ob er ChatGPT freigibt. Er wird zögern. Zu Recht.

Fragen Sie ihn, ob er Claude freigibt. Er wird noch mehr zögern. Weil die meisten Beauftragten den Unterschied zwischen den beiden noch nicht kennen und im Zweifelsfall lieber sagen, das gehe nicht, als etwas Halbfertiges durchzuwinken.

Dieser Artikel erklärt Ihnen als Geschäftsführer, was Sie wirklich wissen müssen, damit Sie in einem Gespräch mit Ihrem DPO, Ihrem IT-Leiter oder einem möglichen KI-Anbieter souverän bleiben. Inklusive der Stellen, an denen auch Claude an Grenzen stößt, denn ein ehrlicher Leitfaden muss das benennen.

Das Missverständnis vorweg

Viele Leute behandeln “KI-Tools” als monolithische Kategorie. Das ist der Kern des Problems.

ChatGPT und Claude sind aus Datenschutzsicht in verschiedenen Kategorien, obwohl sie oberflächlich ähnlich aussehen. Die Unterschiede liegen im Geschäftsmodell der Anbieter, in den Default-Einstellungen und in den Enterprise-Varianten.

Wenn Ihr DPO “KI geht nicht” sagt, weil er an Gratis-ChatGPT denkt, dann vergleicht er das Schlechteste am Markt mit Ihrer Geschäftsrealität. Die Frage muss konkret gestellt werden: Welches Modell, auf welchen Servern, unter welchem Vertrag, für welche Daten? Erst dann wird die Antwort belastbar.

Was Claude technisch anders macht

Anthropic hat Claude mit dem expliziten Anspruch “Privacy by Design” gestartet. Das ist Marketing-Sprache, aber dahinter stehen ein paar konkrete Dinge.

Kein Training auf Enterprise-Input. Die Enterprise-API trainiert die Modelle nicht mit Ihren Eingaben. Das steht explizit im Vertrag und ist technisch so umgesetzt. Bei der kostenlosen Consumer-Version ist das anders, und es ist ein Grund, warum der Consumer-Chat nicht in Ihrem Büro benutzt werden sollte.

Datenverarbeitungsverträge standardisiert. Anthropic bietet einen Standard-DPA, der EU-konform ist. Sie unterschreiben, Sie haben es.

EU-Endpoints. Über die Enterprise-API können Sie Ihre Anfragen gezielt an europäische Inferenz-Endpoints routen. Das bedeutet: Die Sprachverarbeitung findet innerhalb der EU statt. Das ist der Knackpunkt für DSGVO-Prüfungen, und Claude bietet hier eine klare Antwort.

Zero Data Retention (optional). Für besonders sensible Datenverarbeitung kann Anthropic Zero-Retention konfigurieren: Ihre Eingaben werden nach der Antwort nicht gespeichert, nicht geloggt, nicht gesichert. Das ist für Mandanten- oder Gesundheitsdaten relevant.

EU-Endpoints: der Kernpunkt

Viele Anbieter erzählen Ihnen, dass ihr “KI-Tool DSGVO-konform” sei. Prüfen Sie das durch eine einzige Frage:

Wo wird die Inferenz ausgeführt?

Inferenz ist der technische Begriff für den Schritt, bei dem Ihr Input durch das Sprachmodell läuft und eine Antwort erzeugt wird. In diesem Moment verarbeitet ein Server Ihre Daten.

Bei Claude können Sie das konfigurieren. Bei vielen Integratoren, die “Claude-basiert” sind, geht diese Konfiguration im Zwischenlayer verloren, und Ihre Anfragen laufen doch in die USA. Das ist ein häufiger stiller Fehler in Integrationen.

Wo auch Claude an Grenzen stößt

Ein ehrlicher Leitfaden muss das benennen, sonst ist es Werbung.

Kosten pro Token. Claude ist je nach Modell zwei- bis fünffach teurer als vergleichbare Modelle von Wettbewerbern. Für Massenverarbeitung von Textklassifikation (hunderttausende Vorgänge pro Monat) ist das ein spürbarer Faktor. Wir kombinieren daher in der Praxis oft: ein kleineres Modell für Massen-Filterung, Claude für die anspruchsvollen Einzelvorgänge.

Latenz bei langen Kontexten. Wenn Sie lange Verträge oder vollständige Aktenordner in einen einzigen Request schicken, reagiert Claude spürbar. Fünf bis zwanzig Sekunden sind normal. Für Echtzeit-Chats im Kundendialog zu langsam, für Hintergrundverarbeitung egal.

Kleinere native Integrationen als Microsoft-Stack. Wenn Sie tief in Microsoft 365 stecken, finden Sie für Copilot mehr sofortige Integrationen. Claude erfordert in der Regel eine eigene Architektur mit dazwischenliegenden Services. Das ist mehr Aufwand beim Aufbau, dafür hinterher eine sauberer abgegrenzte Datenverarbeitung.

Keine bundesbehördliche “ausdrücklich freigegeben”-Stempel. Keine generativen KI-Tools am Markt haben diesen Status. Sie arbeiten mit EU-US Framework, Standardvertragsklauseln und DPIAs. Das ist rechtlich belastbar, aber nicht “stempelgenehmigt”. Wenn Ihr DPO das verlangt, müssen Sie das getrennt diskutieren.

On-Premise und hybride Architekturen

Für die meisten Büro-Betriebe ist eine reine Cloud-Lösung mit EU-Endpoints ausreichend. Es gibt aber Fälle, in denen mehr nötig ist.

Hybrid: Sensible Daten werden lokal vorverarbeitet, anonymisiert oder pseudonymisiert, nur das gefilterte Destillat geht ins Modell. Die Antwort kommt zurück und wird lokal mit den echten Daten wieder verknüpft. Das funktioniert gut für Hausverwaltungen (Mieternamen müssen nicht ins Modell, um einen Betriebskosten-Entwurf zu erstellen).

On-Premise: Claude ist nicht on-premise verfügbar. Für echte lokale Verarbeitung würden wir in bestimmten Kontexten auf Open-Source-Modelle (etwa Llama, Mistral) in einer lokalen Installation ausweichen. Das ist technisch anspruchsvoller und liefert in der Regel schwächere Ergebnisse, aber es ist der Weg für Fälle wie Strafverteidigung mit sehr sensiblen Mandaten oder Behörden-Use-Cases mit eingestufter Information.

Das DPA-Ritual: Checkliste

Bevor ein Claude-Agent produktiv wird, prüfen wir mit Ihrem DPO diese Punkte. Sie können die Liste auch als Startpunkt für eigene Auswahl-Gespräche nutzen:

  1. Steht im DPA explizit, dass Ihre Daten nicht zum Training verwendet werden?
  2. Ist der Inferenz-Serverstandort in der Vereinbarung festgelegt (EU)?
  3. Ist der rechtliche Rahmen für den Transfer in die USA (falls Fallback) geregelt (SCC, EU-US-DPF)?
  4. Sind Logging-Regeln und Aufbewahrungsfristen definiert?
  5. Wie funktioniert das Löschen auf Mitarbeiter- bzw. Kunden-Wunsch technisch?
  6. Welche Subunternehmer sind eingebunden (Hoster, Monitoring, Support)?
  7. Wie wird die technisch-organisatorische Trennung zwischen Produktion und Test/Entwicklung gewährleistet?

Das ist kein vollständiges DPIA-Programm. Es ist die Short-List, die in 80 Prozent der Fälle ausreicht, um Ihr DPO-Gespräch konstruktiv zu machen.

Beispiel-Architektur: Hausverwaltung

Damit das konkret wird, hier eine typische Architektur für eine Hausverwaltung mit 1.500 Einheiten:

So eine Architektur baut sich in etwa sechs bis zehn Wochen, inklusive DPO-Abstimmung. Sie ist DSGVO-konform, nachweisbar, und sie läuft.

Das Fazit

Claude und ChatGPT sind aus Datenschutzsicht unterschiedliche Kategorien.

EU-Endpoints existieren, man muss sie aktiv konfigurieren.

Auch Claude hat Grenzen (Kosten, Latenz, Integrationstiefe), die Sie bei der Architektur mitdenken müssen.

Ein produktiver Enterprise-Agent ist mit DSGVO kompatibel, wenn Sie die Architektur und den DPA ernst nehmen. Das ist kein Grund, KI nicht zu nutzen. Es ist der Grund, KI richtig zu nutzen.

Wenn Sie das in einem konkreten Kontext durchspielen wollen: Der KI-Readiness-Check umfasst genau diese Datenschutz-Vorklärung für Ihren spezifischen Fall. In einem Tag haben Sie die Architekturskizze, die Ihr DPO prüfen kann.

Über den Autor

Sven Seele führt die Seele Consulting & Management GmbH und baut Claude-basierte KI-Agents für Büro-Betriebe im Mittelstand.

30-Minuten-Gespräch vereinbaren

// Kontakt

Reden wir über Ihr Büro.

Dreißig Minuten. Keine Folien. Wir schauen, wo bei Ihnen der größte Hebel liegt. Und ob es Sinn ergibt, weiterzusprechen.