Published on

EU AI Act für Fertiger: Was Sie 2026 tun müssen

Authors

TL;DR

Der EU AI Act tritt stufenweise bis August 2026 in Kraft. Fertigungsbetriebe im Mittelstand sind betroffen, wenn sie KI für Qualitätskontrolle, Predictive Maintenance oder Personalentscheidungen einsetzen. Die meisten Systeme fallen unter "begrenztes Risiko" mit überschaubaren Pflichten. Handlungsbedarf besteht vor allem bei Dokumentation und Transparenz.


EU AI Act: Was Fertiger wissen müssen

Der EU AI Act (KI-Verordnung, EU 2024/1689) reguliert KI-Systeme nach Risikoklassen. Für Fertigungsbetriebe im Mittelstand klingt das bedrohlich, ist aber meist handhabbar. Die meisten industriellen KI-Anwendungen fallen in die Kategorie "begrenztes Risiko" oder sind gar nicht reguliert.

Die Risikoklassen im Überblick

RisikoklasseBeispiele FertigungPflichten
Unannehmbares RisikoSocial Scoring von MitarbeiternVerboten
Hohes RisikoKI für Einstellungsentscheidungen, SicherheitsbauteileUmfangreiche Dokumentation, Konformitätsbewertung
Begrenztes RisikoChatbots, KI-generierte BerichteTransparenzpflicht
Minimales RisikoQualitätskontrolle, Predictive Maintenance, ProzessoptimierungKeine speziellen Pflichten

Die gute Nachricht: Die häufigsten KI-Anwendungen in der Fertigung – Qualitätsprüfung per Computer Vision, vorausschauende Wartung, Produktionsplanung – fallen unter "minimales Risiko" und sind praktisch unreguliert.

Welche KI-Systeme in der Fertigung betroffen sind

Hohes Risiko (Pflichten erfüllen!)

Diese Systeme müssen die strengsten Anforderungen erfüllen:

  1. KI für Personalentscheidungen: Bewerbungsscreening, Leistungsbewertung, Schichteinteilung nach KI-Empfehlung
  2. Sicherheitsrelevante KI: KI-gesteuerte Maschinen, die als Sicherheitsbauteil nach EU-Maschinenverordnung gelten
  3. Biometrische Identifikation: Gesichtserkennung am Werkstor

Begrenztes Risiko (Transparenz nötig)

  • KI-Chatbots im Kundenservice: Kunden müssen wissen, dass sie mit KI sprechen
  • KI-generierte Dokumente: Berichte, Angebote oder Analysen mit KI-Kennzeichnung
  • Deepfake/Synthese: KI-generierte Bilder oder Videos (Marketing)

Minimales Risiko (keine besonderen Pflichten)

  • Qualitätskontrolle per Computer Vision
  • Predictive Maintenance
  • Produktionsplanung und -optimierung
  • Energiemanagement
  • Prozessüberwachung mit Anomalieerkennung

Zeitplan: Was bis wann erledigt sein muss

Februar 2025: Verbote in Kraft (Social Scoring etc.)
August 2025: Pflichten für GPAI (General Purpose AI)
August 2026: Pflichten für Hochrisiko-KI-Systeme
August 2027: Erweiterung auf bestimmte Produktkategorien

Für Fertiger relevant: August 2026 – bis dahin müssen Hochrisiko-Systeme compliant sein.

Checkliste für Fertigungsbetriebe

Schritt 1: KI-Inventar erstellen (bis Juni 2026)

Listen Sie alle KI-Systeme auf, die in Ihrem Betrieb im Einsatz sind:

# KI-Inventar Beispiel
ki_systeme:
  - name: "Qualitätsprüfung Oberfläche"
    anbieter: "Eigenentwicklung + YOLOv8"
    einsatz: "Inline-Prüfung Spritzguss"
    risikoklasse: "minimal"
    handlungsbedarf: "keiner"

  - name: "Predictive Maintenance Fräsmaschine"
    anbieter: "Siemens MindSphere"
    einsatz: "Verschleißvorhersage"
    risikoklasse: "minimal"
    handlungsbedarf: "keiner"

  - name: "Bewerbungsscreening"
    anbieter: "Personio + KI-Modul"
    einsatz: "Vorauswahl Bewerber"
    risikoklasse: "hoch"
    handlungsbedarf: "Dokumentation, Risikobewertung, menschliche Aufsicht"

Schritt 2: Hochrisiko-Systeme identifizieren (bis Juli 2026)

Prüfen Sie für jedes System:

  • Trifft es Entscheidungen über Menschen (Einstellung, Bewertung)?
  • Ist es ein Sicherheitsbauteil nach EU-Maschinenverordnung?
  • Verwendet es biometrische Daten?

Falls ja: Hochrisiko. Falls nein: wahrscheinlich minimal oder begrenzt.

Schritt 3: Dokumentation erstellen (für Hochrisiko-Systeme)

AnforderungWas zu tun istAufwand
RisikomanagementsystemRisiken identifizieren und bewerten2-4 Tage
Technische DokumentationFunktionsweise, Trainingsdaten, Leistungsmetriken3-5 Tage
DatenqualitätTrainingsdaten dokumentieren und auf Bias prüfen2-3 Tage
Menschliche AufsichtProzess für menschliche Überprüfung definieren1-2 Tage
TransparenzBetroffene Personen informieren1 Tag
LoggingAutomatische Protokollierung einrichten2-3 Tage

Geschätzter Gesamtaufwand: 2-4 Wochen pro Hochrisiko-System.

Kosten der Compliance

PostenKosten
KI-Inventar erstellen1.000-3.000 € (intern)
Risikoklassifizierung (Rechtsberatung)2.000-5.000 €
Dokumentation pro Hochrisiko-System5.000-15.000 €
Anpassung an Anforderungen10.000-30.000 €
Externe Konformitätsbewertung5.000-20.000 €
Typischer Fertiger (1-2 Hochrisiko-Systeme)15.000-40.000 €

Für Betriebe ohne Hochrisiko-Systeme: Kosten von 3.000-8.000 € für Inventar und Basisprüfung.

Strafen bei Verstößen

VerstoßBußgeld
Verbotene KI-PraktikenBis 35 Mio. € oder 7 % des Jahresumsatzes
Hochrisiko-Pflichten nicht erfülltBis 15 Mio. € oder 3 % des Jahresumsatzes
Falsche AngabenBis 7,5 Mio. € oder 1,5 % des Jahresumsatzes

Für KMU gelten reduzierte Obergrenzen. Trotzdem: Die Strafen sind empfindlich.

Was Fertiger jetzt tun sollten

  1. KI-Inventar erstellen: Was setzen Sie ein? (2 Stunden)
  2. Risikoklassen zuordnen: Meist minimal (1 Stunde)
  3. Hochrisiko prüfen: Personal-KI und Sicherheits-KI identifizieren
  4. Bei Hochrisiko: Rechtsberatung einholen, Dokumentation starten
  5. Bei minimalem Risiko: Freiwillige Best Practices umsetzen

Der KI-Leitfaden für Unternehmen gibt einen Gesamtüberblick zur KI-Einführung. Die KI-Kostenplanung hilft beim Budget für Compliance-Maßnahmen. Und der DSGVO-Leitfaden ergänzt die datenschutzrechtliche Perspektive.

Häufige Fragen

Ist meine Qualitätskontrolle per Computer Vision vom EU AI Act betroffen?

In den meisten Fällen nein. Qualitätskontrolle an Produkten (nicht an Personen) fällt unter "minimales Risiko" und hat keine speziellen Pflichten. Ausnahme: Wenn das System als Sicherheitsbauteil im Sinne der EU-Maschinenverordnung gilt, wird es als Hochrisiko eingestuft. Das betrifft z. B. KI, die sicherheitsrelevante Prüfungen an Medizinprodukten durchführt.

Brauche ich einen KI-Beauftragten im Unternehmen?

Der EU AI Act schreibt keinen dedizierten KI-Beauftragten vor. Für Hochrisiko-Systeme muss aber eine Person für die menschliche Aufsicht benannt werden. In der Praxis übernimmt das oft der Qualitätsmanager oder der IT-Leiter. Bei minimalem Risiko gibt es keine Personalanforderung.

Was bedeutet "menschliche Aufsicht" bei Hochrisiko-KI?

Es muss eine natürliche Person definiert sein, die das KI-System überwacht und bei Bedarf eingreifen kann. Konkret: Wenn eine KI Bewerbungen vorsortiert, muss ein Mensch die finale Entscheidung treffen und die KI-Empfehlung überstimmen können. Die KI darf unterstützen, aber nicht allein entscheiden.

Gilt der EU AI Act auch für KI von US-Anbietern (z. B. Azure, AWS)?

Ja. Der EU AI Act gilt für alle KI-Systeme, die in der EU eingesetzt werden, unabhängig vom Herkunftsland des Anbieters. Wenn Sie Azure Cognitive Services oder AWS SageMaker nutzen, sind Sie als "Betreiber" verantwortlich. Die Anbieter müssen als "Entwickler" eigene Pflichten erfüllen und stellen in der Regel Compliance-Dokumentation bereit.

Kann ich mich auf die Compliance meines KI-Anbieters verlassen?

Teilweise. Der Anbieter ist für die Entwicklungsseite verantwortlich (Trainingsdaten, Modellqualität, technische Dokumentation). Sie als Betreiber sind für den Einsatz verantwortlich: korrekte Nutzung, menschliche Aufsicht, Informationspflichten. Fordern Sie vom Anbieter eine AI-Act-Konformitätserklärung an und prüfen Sie, ob die Implementierung Ihre Anforderungen abdeckt.

📖 Verwandte Artikel

Weitere interessante Beiträge zu ähnlichen Themen

Bereit für KI im Mittelstand?

Nutzen Sie unsere 10 kostenlosen KI-Tools und Praxis-Guides – oder sprechen Sie direkt mit unseren Experten.

Pexon Consulting – KI-Beratung für den Mittelstand | Scaly Academy – Geförderte KI-Weiterbildung (KI-Spezialist, KI-Experte, Workflow-Automatisierung)