AI Act Risikoklassen: Wie KMU ihr KI-System einordnen

Kurz zusammengefasst: Die EU KI-Verordnung teilt KI-Systeme in vier Risikoklassen ein: verboten, Hochrisiko, begrenztes Risiko und minimales Risiko. Die Klasse bestimmt, welche Pflichten gelten. Die gute Nachricht für die meisten KMU: ChatGPT, Copilot und vergleichbare Tools für Texterstellung fallen in "minimales Risiko" — mit überschaubaren Auflagen. Nur wer KI in sensiblen Bereichen wie Recruiting, Kreditvergabe oder Medizin einsetzt, muss mit Hochrisiko-Anforderungen rechnen. Frist: 2. August 2026.

Das Risikoklassen-Prinzip: Je mehr auf dem Spiel steht, desto strenger

Die EU KI-Verordnung folgt einem risikobasierten Ansatz. Nicht jede KI wird gleich reguliert — das wäre weder praktikabel noch verhältnismäßig. Stattdessen gilt: Je größer das potenzielle Risiko für Menschen, desto strenger die Anforderungen.

Das Prinzip kennen Sie bereits aus dem Medizinprodukterecht oder dem Datenschutzrecht: Ein einfaches Pflaster braucht keine klinische Studie — ein Herzschrittmacher schon. Beim AI Act funktioniert es genauso.

Die Risikoklasse hängt nicht vom KI-System selbst ab, sondern vom Einsatzzweck. Dasselbe Sprachmodell kann in einer Anwendung minimales Risiko darstellen und in einer anderen Hochrisiko sein — je nachdem, welche Entscheidungen es beeinflusst.

Die vier Risikoklassen im Überblick

Klasse 1: Verbotene KI-Praktiken

Was es ist: KI-Systeme die so gefährlich oder unethisch sind, dass sie komplett verboten wurden — ohne Ausnahme.

Beispiele: Social-Scoring-Systeme, manipulative KI die Entscheidungen unbewusst beeinflusst, Emotionserkennung am Arbeitsplatz (außer Sicherheitsanwendungen), biometrische Echtzeit-Überwachung im öffentlichen Raum.

Gilt seit: 2. Februar 2025. [Art. 5 KI-VO]

Für KMU relevant? Selten — aber nicht unmöglich. Wer "Wellbeing-Tools" oder "Produktivitäts-Monitoring mit Emotionsanalyse" einsetzt, sollte prüfen.

Klasse 2: Hochrisiko-KI

Was es ist: KI-Systeme in sensiblen Bereichen, die erhebliche Auswirkungen auf Grundrechte, Sicherheit oder wichtige Lebensbereiche haben können. Abschließend in Anhang III gelistet.

Beispiele für KMU-relevante Bereiche: Recruiting und Personalentscheidungen, Kreditwürdigkeitsbewertung, Bildung und Berufsausbildung, Sicherheitskomponenten bei Produkten.

Pflichten: Technische Dokumentation, Konformitätsbewertung, menschliche Aufsicht, FRIA, EU-Datenbankregistrierung, laufende Überwachung. [Art. 9–15, 26, 27 KI-VO]

Für KMU relevant? Ja — wenn einer der Anhang-III-Bereiche zutrifft.

Klasse 3: Begrenztes Risiko (Transparenzpflicht)

Was es ist: KI-Systeme die direkt mit Kunden oder Menschen interagieren. Kein umfangreicher Pflichtenkatalog — aber eine klare Transparenzpflicht.

Beispiele: Chatbots, KI-generierte Texte im Kundenkontakt, Deepfakes oder synthetisch generierte Medien.

Pflichten: Offenlegen, dass Kunden mit einer KI interagieren — klar, verständlich, zum Zeitpunkt der Interaktion. [Art. 50 KI-VO]

Für KMU relevant? Ja — wer ChatGPT als Kundenservice-Bot oder automatisierte E-Mail-Kommunikation einsetzt.

Klasse 4: Minimales Risiko

Was es ist: Alle KI-Systeme die in keine der obigen Kategorien fallen. Das ist die weitaus größte Kategorie — und trifft auf die meisten Standard-KMU-Anwendungsfälle zu.

Beispiele: ChatGPT für Texterstellung, Microsoft Copilot für Office-Aufgaben, KI-Spam-Filter, KI-gestützte Suchanfragen, Empfehlungsalgorithmen ohne Sicherheitsrelevanz.

Pflichten: Grundlegende Betreiberpflichten: KI-Inventar führen, KI-Kompetenz sicherstellen (Art. 4), bei Kundenkontakt: Transparenzhinweis. Kein umfangreicher Konformitätsprozess.

Für KMU relevant? Fast alle KMU fallen hier rein — mit überschaubaren Anforderungen.

Hochrisiko-Bereiche für KMU — Anhang III im Überblick

Anhang III der KI-Verordnung listet die Bereiche ab, in denen KI automatisch als Hochrisiko gilt. Diese Liste ist abschließend — was nicht drinstehe, ist kein Hochrisiko nach Anhang III [Art. 6 Abs. 2 KI-VO]. Die für KMU relevantesten Bereiche:

Bereich (Anhang III) Konkrete KMU-Beispiele Häufig betroffen
Nr. 1 — Biometrie Gesichtserkennung für Zutrittskontrolle, Zeiterfassung per Fingerabdruck-KI Produktion, Sicherheit
Nr. 4 — Beschäftigung & HR KI-gestützte Bewerbungsauswahl, Leistungsbewertung, Kündigung HR-Abteilungen, Recruiter
Nr. 5 — Wesentliche Dienste Kreditwürdigkeitsprüfung, Bonitäts-Scoring, KI bei Bankentscheidungen Finanz, Leasing, Versicherung
Nr. 3 — Bildung KI die über Zulassung, Bewertung oder Einstufung entscheidet Bildungseinrichtungen, E-Learning
Nr. 6 — Strafverfolgung Relevant für öffentliche Einrichtungen, kaum für private KMU Behörden

Wichtig: Hochrisiko entsteht durch den Einsatzzweck — nicht durch das KI-Tool selbst. Wenn Sie ChatGPT nutzen um Texte zu schreiben: minimales Risiko. Wenn Sie ChatGPT nutzen um automatisch Bewerbungen auszusortieren: Hochrisiko nach Anhang III Nr. 4. Dasselbe Tool, komplett unterschiedliche Regulierungsstufe.

Wie KMU die Risikoklassifizierung durchführen

Die Klassifizierung ist keine einmalige Aufgabe — sie gehört in Ihr KI-Inventar und muss bei neuen Tools wiederholt werden. Der Prozess in vier Fragen:

  1. Ist das System verboten? — Prüfen Sie Art. 5 KI-VO. Wenn ja: sofort einstellen.
  2. Ist der Einsatzzweck in Anhang III? — Prüfen Sie die Liste. Wenn ja: Hochrisiko-Anforderungen gelten ab 2. August 2026.
  3. Interagiert das System direkt mit Kunden oder Nutzern? — Wenn ja: Transparenzpflicht nach Art. 50 (Hinweis "Diese Antwort wurde von KI erstellt").
  4. Keines der obigen Kriterien trifft zu? — Minimales Risiko. Basispflichten (KI-Inventar, Schulung) ausreichend.

Das Ergebnis dieser vier Fragen tragen Sie ins KI-Inventar ein — inklusive einer kurzen Begründung. Das ist Ihre Compliance-Dokumentation für den Prüfungsfall.

Praxisbeispiel: Risikoklassifizierung eines Logistikunternehmens

Ein Logistikbetrieb mit 35 Mitarbeitern hat folgende KI-Tools im Einsatz:

KI-Tool Einsatzzweck Risikoklasse Begründung
ChatGPT Kundenanfragen vorformulieren Minimal Kein Anhang-III-Bereich, interner Prozess
Routenoptimierungs-KI Lieferrouten berechnen Minimal Kein Hochrisiko-Bereich, keine Personenentscheidung
KI-Chatbot Website Sendungsstatus automatisch beantworten Art. 50 Kundenkontakt: Transparenzhinweis ergänzt
HR-Screening-Tool Fahrerbewerbungen vorfiltern Hochrisiko Anhang III Nr. 4 — Personalentscheidung

Konsequenz: Das HR-Screening-Tool wurde auf menschliche Aufsicht umgestellt (KI-Empfehlung, Mensch entscheidet). Technische Dokumentation und FRIA wurden mit dem Compliance Kit erstellt — Aufwand: ein Tag. Alle anderen Tools: Basispflichten erledigt, keine weiteren Maßnahmen notwendig.

Was kostet die Risikoklassifizierung?

Für Unternehmen ohne Hochrisiko-Systeme: Die Risikoklassifizierung ist eine Frage von Stunden, nicht Wochen. Mit dem richtigen Template ist sie Teil des KI-Inventar-Prozesses — zusammen unter 4 Stunden für ein normales KMU.

Für Unternehmen mit Hochrisiko-Systemen: Hier ist der Aufwand größer. Technische Dokumentation, FRIA, Konformitätsbewertung — das kann ohne Vorbereitung Wochen dauern. Mit fertigen Vorlagen aus dem Compliance Kit reduziert sich das auf wenige Tage.

Risikoklassifizierung in einem Nachmittag erledigen

Das AI Act Compliance Kit enthält ein fertiges Risikoklassifizierungs-Tool, KI-Inventar-Vorlage und alle weiteren Dokumente — fertig ausgefüllt in 2–4 Stunden. Einmalkauf ab 149 €, kein Abo.

Compliance Kit ansehen – ab 149 €

Häufige Fragen zur Risikoklassifizierung

Was ist wenn ich nicht sicher bin, welche Klasse mein KI-System hat?

Im Zweifel dokumentieren Sie Ihre Einschätzung mit Begründung — auch wenn Sie zu "minimales Risiko" kommen. Was Sie vermeiden sollten: gar nichts tun und hoffen. Wer nachweisbar geprüft hat und zu einer begründeten Einschätzung gekommen ist, steht im Prüfungsfall deutlich besser da als jemand der das Thema ignoriert hat.

Kann ein KI-System gleichzeitig in zwei Risikoklassen fallen?

Ja — wenn ein System mehrere Einsatzzwecke hat. Dann gilt für jeden Einsatzzweck die entsprechende Klasse. Ein KI-Tool das intern Texte erstellt (minimal) und gleichzeitig als Kundenbot dient (Art. 50 Transparenzpflicht), braucht für den Kundenkontakt-Teil den Transparenzhinweis.

Werden neue KI-Systeme die nach August 2026 erscheinen auch eingestuft?

Ja. Die KI-Verordnung gilt für alle KI-Systeme, die in der EU eingesetzt werden — unabhängig vom Erscheinungsdatum. Wer nach der Deadline ein neues KI-Tool einführt, muss es sofort klassifizieren und ins KI-Inventar aufnehmen.

Was passiert wenn mein Anbieter sagt, das Tool sei "kein Hochrisiko"?

Vertrauen Sie dem Anbieter nicht blind. Der Anbieter klassifiziert das System — aber Sie sind für den Einsatzzweck verantwortlich. Wenn ein Anbieter ein "Analyse-Tool" als minimales Risiko verkauft, Sie es aber für Personalentscheidungen nutzen, sind Sie als Betreiber für die korrekte Einstufung des Einsatzes zuständig [Art. 26 Abs. 2 KI-VO].

Weiterführende Artikel:
KI-Inventar erstellen: Schritt-für-Schritt Anleitung
AI Act Bußgelder: Was KMU bei Verstößen droht
AI Act Pflichten für KMU 2026: Der vollständige Überblick