EU AI Act Hosting: Was sich für KI-Workloads ändert

EU AI Act Hosting: Was sich für Betreiber von KI-Workloads jetzt ändert
Seit August 2024 gilt der EU AI Act offiziell. Die erste umfassende KI-Regulierung weltweit. Was für viele Unternehmen zunächst abstrakt klingt, wird zunehmend konkret: Wer KI-Systeme einsetzt, integriert oder auf seiner Infrastruktur betreibt, hat damit Pflichten, die sich nicht mehr ignorieren lassen. Gerade für Hosting-Kunden, die KI-Workloads in ihrer Umgebung betreiben oder SaaS-Tools mit KI-Funktionen nutzen, stellen sich drängende Fragen.
Was ist der EU AI Act?
Der EU AI Act folgt einem risikobasierten Ansatz. KI-Systeme werden in vier Kategorien eingeteilt:
- Unakzeptables Risiko: Verboten (z. B. Social Scoring durch Behörden, biometrische Echtzeit-Überwachung im öffentlichen Raum)
- Hohes Risiko: Strenge Anforderungen an Dokumentation, Konformität und Monitoring (z. B. KI in HR, Kreditvergabe, medizinischen Geräten)
- Begrenztes Risiko: Transparenzpflichten gegenüber Nutzern (z. B. Chatbots)
- Minimales Risiko: Keine besonderen Pflichten (z. B. Spam-Filter, KI in Spielen)
Die Verbote für Hochrisiko-Systeme der Kategorie "unakzeptables Risiko" gelten seit Februar 2025. Vollständige Anforderungen für Hochrisiko-KI-Systeme greifen ab August 2026. Neben dem AI Act stellt auch die NIS2-Richtlinie technische Anforderungen an Logging und Monitoring.
Wer ist betroffen? Provider, Deployer, Importer
Der AI Act unterscheidet klare Rollen:
- Provider (Anbieter): Wer ein KI-System entwickelt oder in Verkehr bringt.
- Deployer (Betreiber): Wer ein KI-System im eigenen Kontext einsetzt, also Unternehmen, die KI-Tools in ihren Prozessen nutzen.
- Importer und Distributor: Wer KI-Systeme aus Drittstaaten einführt oder weitergibt.
Für Hosting-Kunden ist die Deployer-Rolle besonders relevant. Wer OpenAI, Azure Cognitive Services, oder andere KI-APIs in eigene Anwendungen einbaut und diese auf Hosting-Infrastruktur betreibt, gilt als Deployer, mit den entsprechenden Pflichten.
Das gilt auch dann, wenn das zugrundeliegende Modell bei einem Drittanbieter liegt. Der Einsatz der KI im eigenen Produkt oder Prozess ist entscheidend, nicht die Entwicklung des Modells.
Welche Pflichten entstehen für Deployers?
Die konkreten Anforderungen hängen von der Risikoeinstufung des jeweiligen KI-Systems ab. Für Systeme mit begrenztem Risiko reicht oft eine Transparenzpflicht: Nutzer müssen wissen, wenn sie mit einer KI interagieren.
Bei Hochrisiko-Systemen ist der Aufwand deutlich höher:
- Technische Dokumentation: Das System muss dokumentiert sein: Zweck, Funktionsweise, bekannte Limitierungen.
- Logging und Monitoring: Betreiber müssen Logs vorhalten, um die Nachvollziehbarkeit von KI-Entscheidungen sicherzustellen. Je nach Anwendungsbereich gelten Aufbewahrungsfristen von mindestens sechs Monaten.
- Risikoabschätzung: Eine interne Prüfung, ob und wie das System die Grundrechte von Personen beeinflussen kann.
- Menschliche Aufsicht: Hochrisiko-Systeme dürfen nicht vollständig autonom agieren. Es muss Mechanismen zur menschlichen Kontrolle geben.
- Registrierung: Bestimmte Hochrisiko-KI-Systeme müssen in einer EU-weiten Datenbank registriert werden.
Wer also KI-gestützte Bewerberauswahl, automatisierte Kreditentscheidungen oder medizinische Diagnosetools betreibt, muss hier sorgfältig prüfen, in welche Kategorie das System fällt.
Hochrisiko-KI: Besondere Anforderungen an Systeme in sensiblen Bereichen
Anhang III des AI Acts listet die Bereiche, in denen KI-Systeme grundsätzlich als hochriskant gelten:
- Biometrische Identifikation und Kategorisierung
- Kritische Infrastruktur (Energie, Wasser, Verkehr)
- Bildung und Berufsausbildung
- Beschäftigung und Personalverwaltung (z. B. automatisierte CV-Analyse)
- Wesentliche Dienstleistungen (Kredit, Sozialleistungen)
- Strafverfolgung
- Migration und Grenzkontrolle
- Justiz und demokratische Prozesse
Wer KI in einem dieser Bereiche einsetzt, auch wenn es "nur" ein zugekauftes Tool ist, sollte jetzt die Klassifizierung prüfen. Der AI Act verpflichtet Deployers ausdrücklich, eigenständig zu beurteilen, ob ein System unter die Hochrisiko-Kategorie fällt.
AI Act und DSGVO: Wo sich die Regelwerke überlappen
Der EU AI Act und die DSGVO sind keine Alternativen, sie gelten parallel. Überall dort, wo KI-Systeme personenbezogene Daten verarbeiten, greifen beide Regelwerke gleichzeitig.
Konkret bedeutet das:
- Automatisierte Entscheidungen mit erheblichen Auswirkungen (Artikel 22 DSGVO) brauchen weiterhin eine Rechtsgrundlage und sind für Betroffene anfechtbar.
- Die technischen Anforderungen des AI Acts, insbesondere Logging und Nachvollziehbarkeit, können sich mit den DSGVO-Prinzipien der Datensparsamkeit und Zweckbindung reiben. Hier braucht es durchdachte Konzepte.
- Datenschutz-Folgenabschätzungen (DSFA) nach DSGVO können mit der AI-Act-Risikobewertung kombiniert werden. Das spart Aufwand und schafft konsistente Dokumentation.
Ein häufiger Fehler: Unternehmen denken die DSGVO-Compliance sei ausreichend. Der AI Act ergänzt sie jedoch um systemische Anforderungen, die über den Datenschutz hinausgehen.
Infrastruktur als Compliance-Hebel: Warum der Betriebsort zählt
Ein Aspekt, der in vielen AI-Act-Diskussionen untergeht: Wo KI-Workloads laufen, hat direkte Compliance-Relevanz.
Wer KI-Inferenz auf US-amerikanischen Cloud-Diensten betreibt, hat nicht nur ein DSGVO-Problem durch mögliche Drittlandübertragungen, er verliert auch die Kontrolle über technische Maßnahmen wie Logging, Auditierbarkeit und Zugriffsbeschränkungen, die der AI Act fordert. Der Cloud Act und die DSGVO stehen dabei in direktem Konflikt.
Europäische, souveräne Infrastruktur bietet hier einen strukturellen Vorteil:
- Datenlokalisierung und Souveränität: KI-Verarbeitungen bleiben in der EU – keine Transfer-Problematik.
- Volle technische Kontrolle: Logging-Anforderungen lassen sich ohne Einschränkungen durch Drittanbieter umsetzen.
- Auditierbarkeit: Bei behördlichen Prüfungen können alle Nachweise lückenlos bereitgestellt werden.
- Vertragliche Klarheit: Mit einem europäischen Anbieter, der das EU Cloud Sovereignty Framework erfüllt, lassen sich Auftragsverarbeitungsverträge und AI-Act-konforme Vereinbarungen direkt und ohne Rechtsrisiken abschließen.
Was sollten Hosting-Kunden jetzt tun?
Der AI Act läuft schrittweise ein. Wer heute handelt, hat einen klaren Vorsprung. Konkret empfehlenswert sind folgende Schritte:
1. Inventarisierung der KI-Systeme
Welche KI-Tools und -APIs werden in welchen Prozessen genutzt? Dazu zählen auch eingebettete KI-Funktionen in SaaS-Produkten, die man selbst betreibt.
2. Risikoeinstufung vornehmen
Für jedes identifizierte System: Fällt es unter hohes, begrenztes oder minimales Risiko? Die EU-Kommission hat Guidance-Dokumente veröffentlicht, die dabei helfen.
3. Dokumentationslücken schließen
Hochrisiko-Systeme brauchen vollständige technische Dokumentation. Wer bisher keine hat, sollte damit beginnen, unabhängig davon, ob das System selbst entwickelt oder eingekauft wurde.
4. Logging und Monitoring einrichten
Technische Maßnahmen zur Nachvollziehbarkeit von KI-Entscheidungen gehören in den Betrieb integriert. Das ist kein einmaliges Projekt, sondern ein laufender Prozess.
5. Infrastruktur überprüfen
Wo laufen KI-Workloads? Wer auf nicht-europäische Dienste angewiesen ist, sollte prüfen, ob eine Migration auf souveräne Infrastruktur sinnvoll ist – aus Compliance- und operativen Gründen.
6. Interne Verantwortlichkeiten klären
Der AI Act schreibt keine dedizierte "KI-Beauftragte" vor, aber klare Zuständigkeiten für KI-Governance sind sinnvoll. Wer ist intern für die Risikobewertung und Dokumentation zuständig?
Fazit: Der AI Act ist kein zukünftiges Problem
Ein verbreiteter Irrtum ist die Annahme, der AI Act sei noch Zukunftsmusik. Die ersten Verbote gelten seit Anfang 2025, die vollen Hochrisiko-Anforderungen ab August 2026, aber die Vorbereitungszeit läuft jetzt. Wer seine KI-Systeme erst kurz vor dem Stichtag analysiert, wird Probleme bekommen.
Für Hosting-Kunden bedeutet das konkret: den eigenen KI-Einsatz verstehen, die Deployer-Pflichten kennen und die Infrastruktur so aufstellen, dass technische Compliance-Anforderungen erfüllbar sind. Souveräne, europäische Infrastruktur ist dabei kein Nice-to-have – sie ist ein struktureller Vorteil, der Aufwand spart und Risiken reduziert.
Die DevOps-as-a-Service-Plattform ist eine Kubernetes basierte Anwendung, die vollständig in Deutschland betrieben wird. Wer KI-Workloads AI-Act-konform betreiben möchte, mit voller Datenkontrolle, lückenlosem Logging und klaren vertraglichen Grundlagen – findet hier eine solide technische Basis.
Was ist PaaS? Platform as a Service einfach erklärt
Erfahren Sie, wie Platform as a Service funktioniert, welche Vorteile PaaS bietet und warum Kubernetes-basierte Lösungen für moderne Teams ideal sind.
Docker Compose Tutorial: Multi-Container-Apps einfach verwalten
Lerne Docker Compose von Grund auf - Dieses Tutorial erklärt, wie du Multi-Container-Anwendungen mit einer einzigen YAML-Datei verwaltest und warum Docker Compose für Selfhosting unverzichtbar ist.