KI-Governance für KMU: Der Weg zur AI-Act-Compliance

Der EU AI Act tritt im August 2026 in Kraft. Erfahre, wie du als KMU KI-Risiken systematisch erfasst, in ISO 27001 und ISO 42001 integrierst und compliant bleibst.

KI-Governance für KMU: Der Weg zur AI-Act-Compliance
|Lesezeit: 7 Minuten

87 % der befragten Sicherheitsverantwortlichen benennen KI-bezogene Sicherheitslücken als das am schnellsten wachsende Cyber-Risiko. Das geht aus dem Global Cybersecurity Outlook 2026 hervor, einer jährlichen Erhebung des World Economic Forum unter mehr als 300 Führungskräften und Sicherheitsexperten weltweit.

Gleichzeitig setzen immer mehr KMU auf KI-gestützte Tools: Chatbots im Kundenservice, automatisierte Datenanalyse, KI-basierte Code-Generierung. Während Großkonzerne eigene AI-Governance-Teams aufbauen, fehlen im Mittelstand oft Ressourcen und Know-how, um KI-Risiken strukturiert zu managen.

Der EU AI Act ändert das. Ab August 2026 gelten verbindliche Anforderungen für alle Unternehmen, die KI-Systeme entwickeln, einsetzen oder vertreiben. Die Unternehmensgröße spielt dabei keine Rolle.

Was der EU AI Act regelt

Der EU AI Act ist die weltweit erste umfassende KI-Regulierung. Er folgt einem risikobasierten Ansatz und kategorisiert KI-Systeme in vier Klassen:

Unannehmbares Risiko. Verbotene KI-Systeme, etwa Social Scoring oder biometrische Echtzeit-Überwachung im öffentlichen Raum. Diese Verbote gelten bereits seit dem 2. Februar 2025. Für die meisten KMU nicht direkt relevant, aber die Grenzen solltest du kennen.

Hohes Risiko. Hier greifen die strengsten Anforderungen. Betroffen sind KI-Systeme in Bereichen wie Personalrekrutierung, Kreditwürdigkeitsprüfung, kritische Infrastrukturen oder Bildung. Die vollständige Liste steht in Annex III der Verordnung. Gefordert werden umfassende Dokumentation, Risikomanagementsysteme, menschliche Aufsicht und technische Robustheit.

Begrenztes Risiko. KI-Systeme wie Chatbots unterliegen Transparenzpflichten. Nutzer müssen wissen, dass sie mit einer KI interagieren.

Minimales Risiko. Die meisten KI-Anwendungen fallen hierhin, etwa Spam-Filter oder KI-gestützte Empfehlungssysteme. Keine spezifischen Pflichten, freiwillige Verhaltenskodizes werden empfohlen.

Warum auch "Nutzer" betroffen sind

Viele KMU gehen davon aus, dass sie als reine Anwender von KI-Tools nicht betroffen sind. Das ist falsch. Der AI Act unterscheidet zwischen Anbietern (Providers) und Betreibern (Deployers). Auch Betreiber haben konkrete Pflichten: geschultes Aufsichtspersonal, Protokollierung für mindestens sechs Monate, Sicherung relevanter Eingabedaten.

Ein Beispiel: Setzt du ein KI-basiertes Bewerbermanagement-Tool ein, giltst du als Betreiber eines Hochrisiko-KI-Systems. Mit allen Konsequenzen.

Erster Schritt: Das KI-Inventar

Bevor du Risiken managen kannst, brauchst du Transparenz. Ein strukturiertes KI-Inventar zeigt, welche KI-Systeme in deinem Unternehmen im Einsatz sind, auch jene, von denen die IT-Abteilung nichts weiß.

Denn das passiert häufiger als gedacht: Mitarbeiter nutzen ChatGPT, Copilot oder Midjourney eigenständig, ohne Genehmigung und ohne Datenschutzprüfung. In der Fachsprache heißt das "Shadow AI", also KI-Nutzung, die an den offiziellen IT-Prozessen vorbeiläuft.

Für jedes identifizierte KI-System solltest du erfassen:

Systemidentifikation. Name, Anbieter, Version, Einsatzbereich und verantwortliche Abteilung.

Risikoklassifizierung. In welche der vier AI-Act-Kategorien fällt das System? Ein Abgleich mit Annex III gibt Klarheit.

Datengrundlage. Welche Daten verarbeitet das System? Sind personenbezogene Daten betroffen? Hier überschneiden sich AI Act und DSGVO direkt.

Entscheidungsreichweite. Trifft das System autonome Entscheidungen oder unterstützt es menschliche Entscheidungsträger? Je höher die Autonomie, desto strenger die Anforderungen.

Lieferantenbeziehung. Wer ist der Anbieter? Welche vertraglichen Garantien bestehen bezüglich Compliance, Updates und Transparenz?

Integration in ISO 27001 und ISO 42001

Du musst nicht bei null anfangen. Wer bereits ein ISMS nach ISO 27001 betreibt, hat eine tragfähige Grundlage. Und mit ISO 42001 gibt es seit Dezember 2023 einen eigenen Standard für KI-Managementsysteme.

Was ISO 27001 bereits abdeckt

ISO 27001:2022 bietet mit seinem risikobasierten Ansatz mehrere Annex-A-Kontrollen, die direkt auf KI-Risiken anwendbar sind:

A.5.1 Informationssicherheitsrichtlinien. Erweitere bestehende Policies um KI-spezifische Regelungen: Welche Tools sind zugelassen? Welche Daten dürfen in KI-Systeme eingespeist werden? Wer genehmigt den Einsatz neuer Anwendungen?

A.8.9 Konfigurationsmanagement. KI-Systeme benötigen dokumentierte Konfigurationen: Parameter, Modellversionen, Update-Zyklen.

A.8.28 Sichere Softwareentwicklung. Wer KI-Systeme selbst entwickelt oder anpasst, muss Anforderungen an sichere Entwicklungsprozesse, Testing und Validierung erfüllen.

A.5.21 IKT-Lieferkettensicherheit. KI-Tools von Drittanbietern sind Teil deiner Lieferkette. Vendor Risk Management wird damit zum zentralen Baustein.

Was ISO 42001 ergänzt

ISO/IEC 42001 schließt die Lücke, die ISO 27001 bei KI-spezifischen Risiken offen lässt. Beide Standards nutzen die gleiche High-Level-Structure und lassen sich deshalb integriert betreiben, ohne Prozesse doppelt aufzubauen.

ISO 27001 sichert deine Informationen. ISO 42001 sichert deine KI-Systeme. Wo ISO 27001 endet, fängt ISO 42001 an: mit 39 KI-spezifischen Kontrollen in Annex A. Darunter fallen Datenqualität und Datenherkunft (Data Provenance), Bias-Monitoring und Fairness, menschliche Überwachung (Human Oversight), Modell-Evaluierung und -Validierung sowie Transparenz und Erklärbarkeit.

Der Standard skaliert nach Unternehmensgröße. Unternehmen mit wenigen KI-Systemen kommen erfahrungsgemäß schneller durch den Prozess als Konzerne mit hunderten Anwendungen. Zertifizierungen sind möglich und werden bereits erteilt. IBM erhielt sie im November 2025 für ihr Granite-Modell, Darktrace ließ sich im Juli 2025 durch BSI zertifizieren.

Wichtig: ISO 42001 ist aktuell kein harmonisierter Standard für die direkte AI-Act-Konformität. Er liefert aber das strukturelle "Wie", während der AI Act das regulatorische "Was" definiert. Wer beides kombiniert, hat eine belastbare Governance-Grundlage.

Wer noch tiefer einsteigen will: ISO 42005 ergänzt das Framework um AI Impact Assessments, also die systematische Bewertung, welche Auswirkungen KI-Systeme auf Einzelpersonen und Gesellschaft haben.

KI-Risikobewertung als Teil deines ISMS

Integriere KI-Risiken in deinen bestehenden Risikomanagement-Prozess. Für jedes identifizierte KI-System bewertest du Eintrittswahrscheinlichkeit und Auswirkung:

Bias und Diskriminierung. KI-Systeme können voreingenommene Entscheidungen treffen. Besonders kritisch bei HR-Tools, Kundenbewertungen oder Kreditentscheidungen.

Datenschutzverletzungen. KI-Systeme, die personenbezogene Daten verarbeiten, können diese unbeabsichtigt preisgeben. Ein Beispiel ist die sogenannte Prompt Injection, bei der böswillig formulierte Eingaben das Modell dazu bringen, vertrauliche Trainingsdaten offenzulegen.

Fehlerhafte Outputs. Sogenannte Halluzinationen, also frei erfundene, aber überzeugend klingende Antworten von Sprachmodellen, können geschäftskritische Konsequenzen haben. Das gilt ebenso für falsche Klassifizierungen bei Bilderkennungssystemen oder fehlerhafte Prognosen.

Abhängigkeit von Drittanbietern. Wenn ein Geschäftsprozess von einem KI-Service abhängt, der ausfällt oder seine Bedingungen ändert, entsteht ein Verfügbarkeitsproblem.

Mangelnde Nachvollziehbarkeit. Wer nicht erklären kann, warum ein KI-System eine bestimmte Entscheidung getroffen hat, hat ein Transparenz- und Compliance-Problem. Spätestens wenn die Aufsichtsbehörde fragt.

Umsetzung in 6 Phasen

Wie setzt du KI-Governance konkret um, ohne dein Team zu überlasten?

Phase 1: Bestandsaufnahme (Woche 1–2)

Erstelle dein KI-Inventar. Befrage Abteilungsleiter, prüfe IT-Beschaffungslisten, monitore den Netzwerkverkehr auf unbekannte KI-Services. Ein einfaches Spreadsheet reicht für den Anfang. Wichtig ist, dass du überhaupt anfängst.

Phase 2: Risikoklassifizierung (Woche 3–4)

Klassifiziere jedes identifizierte System nach dem Risikoschema des AI Act. Priorisiere Hochrisiko-Systeme und solche, die personenbezogene Daten verarbeiten.

Phase 3: Policy-Entwicklung (Woche 5–6)

Erstelle eine KI-Nutzungsrichtlinie mit klaren Regeln. Lege Genehmigungsprozesse fest, definiere Verantwortlichkeiten. Die Richtlinie muss lebbar sein; ein 50-seitiges Dokument, das niemand liest, bringt nichts. Die ENISA-Leitlinien zur KI-Sicherheit bieten eine gute Orientierung für den Aufbau.

Phase 4: Technische Maßnahmen (Woche 7–10)

Implementiere Zugangsbeschränkungen für KI-Systeme, Logging und Monitoring der KI-Nutzung, Datenklassifizierung für Inputs und automatisierte Compliance-Checks.

Phase 5: Schulung und Awareness (Woche 11–12)

Schule deine Mitarbeiter. Praxisnah, nicht als Compliance-Vortrag. Welche KI-Tools dürfen genutzt werden? Welche Daten dürfen nicht eingegeben werden? An wen wendet man sich bei Unsicherheiten?

Phase 6: Laufendes Monitoring

KI-Governance ist kein einmaliges Projekt. Neue Tools kommen auf den Markt, bestehende Systeme ändern sich, regulatorische Anforderungen entwickeln sich weiter. Ohne laufende Überwachung und regelmäßige Reviews veraltet deine Compliance schnell. Ob du das manuell, per Spreadsheet oder mit einer GRC-Plattform abbildest, hängt von der Größe deines KI-Portfolios ab.

Überschneidungen mit NIS2 und DSGVO

KI-Governance steht nicht isoliert. Die Überschneidungen mit bestehenden Regularien sind erheblich und bieten Synergien.

DSGVO. Jedes KI-System, das personenbezogene Daten verarbeitet, unterliegt der Datenschutz-Grundverordnung. Artikel 22 DSGVO regelt automatisierte Einzelentscheidungen und gibt Betroffenen das Recht, nicht einer rein automatisierten Entscheidung unterworfen zu werden. Der AI Act verschärft diese Anforderungen weiter.

NIS2. Fällt dein Unternehmen unter die NIS2-Richtlinie, gehören KI-Systeme zur zu schützenden Infrastruktur. Risikomanagement, Vorfallmeldung und Supply-Chain-Sicherheit gelten auch für KI-Komponenten.

Wer bereits ein ISMS nach ISO 27001 betreibt und DSGVO-konform arbeitet, hat die Strukturen. Sie müssen um die KI-Dimension erweitert werden, nicht von Grund auf neu gebaut.

Bußgelder: Was bei Verstößen droht

Der AI Act sieht drei Bußgeldstufen vor:

Verstöße gegen verbotene KI-Praktiken (Art. 5): bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes. Verstöße gegen Hochrisiko-Anforderungen: bis zu 15 Millionen Euro oder 3 %. Falsche oder unvollständige Angaben gegenüber Behörden: bis zu 7,5 Millionen Euro oder 1 %. Maßgeblich ist jeweils der höhere Betrag.

Für KMU gelten teilweise niedrigere Obergrenzen. Die Beträge bleiben dennoch substanziell. Hinzu kommt die persönliche Haftung der Geschäftsleitung, ein Thema, das durch NIS2 bereits auf vielen Agenden steht und durch den AI Act weiter an Gewicht gewinnt.

Fazit

Der EU AI Act ist Realität. Bis August 2026 müssen die Anforderungen umgesetzt sein. Wer jetzt mit der Bestandsaufnahme beginnt, KI-Risiken in bestehende Managementsysteme integriert und Mitarbeiter schult, schafft das in überschaubarem Zeitrahmen.

Die Grundlage dafür ist da: ISO 27001 liefert die Struktur, ISO 42001 die KI-spezifische Tiefe, der AI Act den regulatorischen Rahmen. Wer diese drei Bausteine zusammenbringt, hat eine belastbare Governance-Grundlage. Vorausgesetzt, man fängt jetzt damit an.