Der EU AI Act ist seit August 2024 in Kraft, und 2026 wird das Jahr, in dem er für viele Mittelständler praktisch relevant wird. Der nächste große Stichtag ist der 2. August 2026 — ab dann greifen die Pflichten für Hochrisiko-KI-Systeme nach Anhang III. Wir sind drei Monate davor und sehen, dass viele Unternehmen das Thema noch unterschätzen. Hier die Übersicht, was kommt — und was du noch in den nächsten Wochen klären solltest.
Ausführliche Hintergründe zum AI Act findest du auf unserer Themenseite AI Act im Detail. In diesem Blogbeitrag konzentrieren wir uns auf das, was 2026 konkret passiert.
Stichtag 2. August 2025: GPAI-Pflichten — was du als Anwender davon mitbekommst
Bereits seit August 2025 gelten die Pflichten für Anbieter von General-Purpose-AI-Modellen (GPAI). Das betrifft im Kern OpenAI, Anthropic, Google, Meta, Mistral und einige weitere. Was heißt das für dich als Anwender?
- Mehr Transparenz über Trainingsdaten und Urheberrechte. Anbieter müssen Trainingsdatenquellen offenlegen und ein Konzept zur Wahrung des Urheberrechts vorlegen. Das schützt dich vor unangenehmen Überraschungen, etwa wenn ein Modell systematisch geschützte Inhalte reproduziert.
- Modellkarten mit klaren Fähigkeiten und Grenzen. Du bekommst belastbare Informationen, was ein Modell kann, wo es scheitert, mit welchen Daten es trainiert wurde. Wir nutzen das in Audits, um die richtige Modellauswahl für unsere Kunden zu treffen.
- Risiko-Bewertung für GPAI mit systemischem Risiko. Modelle ab einer bestimmten Trainingsdaten-Größe (10^25 FLOPS) gelten als systemisch riskant — GPT-5, Claude Opus 4.7, Llama 4 Behemoth fallen darunter. Anbieter müssen Risiko-Bewertungen, Cybersecurity-Tests und Reporting an die EU-Behörde liefern.
Praktisch heißt das für dich: Wenn du in den letzten Monaten neue AGB von OpenAI oder Anthropic bekommen hast, in denen Trainingsdaten-Hinweise und Compliance-Statements aktualisiert wurden — das war diese Pflichtenwelle. Behalte sie zur Dokumentation.
Stichtag 2. August 2026: Hochrisiko-Pflichten greifen voll
Hier wird es ernst. Ab diesem Datum greifen alle Pflichten aus Kapitel III, Abschnitt 2 für Hochrisiko-KI-Systeme nach Anhang III. Die Liste der Hochrisiko-Anwendungen umfasst unter anderem:
- KI in der Personalauswahl und im Bewerbungsprozess
- KI in der Bewertung von Mitarbeiterleistung und der Aufgabenzuweisung
- KI im Bildungsbereich mit Auswirkung auf Bildungswege
- KI in der Bonitäts- und Kreditbewertung von Privatpersonen
- Biometrische Identifikation und Kategorisierung
- KI in kritischen Infrastrukturen (Energie, Wasser, Verkehr)
- KI in Migration, Asyl und Grenzkontrolle (vermutlich nicht euer Use-Case)
Wer ist betroffen? Anbieter solcher Systeme — und auch Anwender, wenn auch in geringerem Umfang.
Anbieter-Pflichten (Auswahl):
- Konformitätsbewertungsverfahren mit CE-Kennzeichnung
- Technische Dokumentation nach Anhang IV (umfangreich)
- Risikomanagementsystem über den gesamten Lebenszyklus
- Datenqualitätsanforderungen für Trainings-, Validierungs- und Testdaten
- Logging mit fälschungssicherer Aufzeichnung
- Menschliche Aufsicht designtechnisch eingebaut
- Robustheit, Genauigkeit, Cybersecurity nach Stand der Technik
- Registrierung in der EU-Datenbank für Hochrisiko-KI
Anwender-Pflichten (Auswahl):
- System nach Anweisung verwenden (Anbietervorgaben einhalten)
- Menschliche Aufsicht durch geschultes Personal
- Logs über mindestens 6 Monate aufbewahren (länger bei spezifischen Sektoren)
- Risiko-Folgenabschätzung in bestimmten Fällen (öffentliche Einrichtungen, kritische Versorger)
- Beschäftigte und Betriebsrat informieren, bevor das System sie betrifft
- Bei schwerwiegenden Vorfällen: Meldepflicht an Behörden binnen 72 Stunden
Was es für den Mittelstand bedeutet. Die meisten Mittelständler sind Anwender, nicht Anbieter. Wer kein Hochrisiko-System einsetzt, ist nur indirekt betroffen — typischerweise durch die generellen Transparenz- und AI-Literacy-Pflichten. Wer aber ein Recruiting-Tool mit KI-Vorauswahl einsetzt, ein Performance-Management-System mit KI-Bewertung, oder ein Bonitäts-Scoring im B2B-Geschäft nutzt: Da gilt es, die Anbieter-Dokumentation einzufordern, eigene Logs aufzusetzen, Schulungen nachzuholen und gegebenenfalls den Betriebsrat einzubinden.
Was du in den nächsten 90 Tagen tun solltest
Wir gehen mit unseren Kunden eine schlanke Vier-Schritte-Liste durch:
Schritt 1: KI-Inventur abschließen. Eine vollständige Liste aller eingesetzten KI-Systeme — auch der Module, die in eurer bestehenden Software stecken (Recruiting-Tools, ERP-Plugins, Microsoft Copilot-Funktionen). Pro Eintrag: Anbieter, Zweck, verarbeitete Daten, Risiko-Klasse.
Schritt 2: Hochrisiko-Treffer identifizieren. Filter die Liste auf Systeme, die nach Anhang III hochrisikorelevant sind. Bei Treffern: Anbieter kontaktieren, Konformitätserklärung einfordern, technische Dokumentation anfragen.
Schritt 3: Eigene Anwender-Pflichten aufsetzen. Logging, Schulungspflicht, Information der Beschäftigten. Für jedes Hochrisiko-System eine Mini-Dokumentation: Verantwortliche Person, Schulungsstand, Logs-Speicherort.
Schritt 4: AI-Literacy aufrechterhalten. Die Schulungspflicht aus Artikel 4 gilt seit Februar 2025. Wer noch nicht geschult hat, dringend nachholen. Unser Standard-Workshop dauert 90 Minuten und deckt das, was Mitarbeiter im Mittelstand wissen müssen.
Was du nicht tun solltest
Drei Reaktionen, die wir bei Kunden und in Branchengesprächen sehen — und für problematisch halten:
Verbote ohne Alternative. “Wir verbieten ChatGPT” ist als Reaktion verlockend, schafft aber Schatten-IT. Mitarbeiter unter Zeitdruck nutzen private Accounts, ohne AVV, ohne Schulung. Schlechter als regulierte Nutzung.
Compliance-Theater. Eine Hochglanz-KI-Charta auf der Website ohne praktische Verankerung im Tagesgeschäft. Bringt rechtlich nichts und schadet, wenn jemand nachfragt und ihr nicht liefern könnt.
Maximalvariante einkaufen. Externe Beratung mit umfangreichen Compliance-Paketen für Großkonzerne. Im Mittelstand reicht meistens ein 8–15-Seiten-Dokument plus Schulung. Mehr ist verkaufstechnisch interessant, sachlich oft Overkill.
Was kommt nach 2026?
Der nächste Stichtag ist der 2. August 2027. Dann greifen die Hochrisiko-Pflichten für Systeme, die in regulierten Produkten eingebettet sind (Anhang I — Medizinprodukte, Spielzeug, Aufzüge, Fahrzeuge). Das betrifft typischerweise Hersteller, weniger Anwender.
Mittelfristig ist mit weiteren Konkretisierungen zu rechnen — Leitlinien der EU-Kommission, harmonisierte Normen, Praxis aus den ersten Bußgeldverfahren. Wir halten unsere Kunden über die wichtigsten Entwicklungen auf dem Laufenden, im Newsletter und in den jährlichen Compliance-Reviews.
Unsere Empfehlung
Wenn du unsicher bist, ob euer Unternehmen vom August-Stichtag betroffen ist, frag uns. 30 Minuten reichen meist, um zu klären, ob ihr im Hochrisiko-Bereich aktiv seid und welche Schritte nötig sind. Lieber jetzt klären als drei Wochen vor dem Stichtag in Hektik geraten.
Mehr Hintergrund zum Thema in unseren Beiträgen AI Act im Detail und DSGVO und KI.
