EU AI Act

„Wir entwickeln keine KI – uns betrifft das nicht."

Doch. Sobald jemand in Ihrem Unternehmen ChatGPT, Copilot oder ein KI-gestütztes Bewerber-Tool nutzt, sind Sie „Betreiber" im Sinne der Verordnung. Mit Pflichten. Mit Fristen. Mit Bußgeldrisiko bis 35 Mio. € oder 7 % des Jahresumsatzes.

Fünf Punkte, an denen der Mittelstand überrascht wird.

Der AI Act ist nicht nur ein Thema für Tech-Konzerne. Diese Konstellationen treffen ganz normale mittelständische Betriebe – meist ohne dass es jemand auf dem Schirm hat.

01

Sie sind „Betreiber" – auch ohne Eigenentwicklung.

Wer ChatGPT, Microsoft Copilot, Gemini oder DeepL beruflich einsetzen lässt, gilt als Deployer. Damit treffen Sie Pflichten zur menschlichen Aufsicht, Protokollierung und – je nach Anwendung – Folgenabschätzung.

02

HR-KI ist fast immer Hochrisiko.

KI-gestützte Bewerber-Vorauswahl, Lebenslauf-Screening, automatisierte Mitarbeiterbewertung: Anhang III, Hochrisiko-System. Damit gelten dokumentierte Risiko-Management-Pflichten, Datenqualitätsstandards und Betroffenen-Rechte.

03

Die Schulungspflicht (Art. 4) ist seit Februar 2025 scharf.

Jedes Unternehmen muss nachweisen, dass Mitarbeitende, die KI nutzen, eine angemessene KI-Kompetenz besitzen. Ohne Schulung, ohne Dokumentation: Verstoß. Auch wenn niemand fragt – im Zweifel später beim Datenschutzvorfall.

04

Ihre Kunden ziehen Sie in die Pflicht.

Konzerne und öffentliche Auftraggeber nehmen AI-Act-Klauseln in Verträge auf. Wer keinen sauberen Nachweis liefern kann, fliegt aus Ausschreibungen. Das passiert bereits – still, ohne Vorwarnung.

05

Bußgelder treffen den Mittelstand härter als den Konzern.

Bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes – je nachdem, was höher ist. Ein Konzern verkraftet das. Ein Mittelständler nicht. Reputationsschaden inklusive.

Die Uhr läuft – aber Sie haben noch Zeit.

Der AI Act greift gestaffelt. Wer jetzt strukturiert anfängt, ist 2026 entspannt.

Feb 2025
Verbotene Praktiken + Schulungspflicht (Art. 4) in Kraft. Bereits geltendes Recht.
Aug 2025
Pflichten für Anbieter von General-Purpose-AI-Modellen. Wirkt indirekt über Ihre Lieferkette.
Aug 2026
Hauptteil der Verordnung wird wirksam – inklusive Hochrisiko-Pflichten nach Anhang III (HR, Kreditvergabe, kritische Infrastruktur, Bildung).
Aug 2027
Restliche Hochrisiko-Pflichten und Übergangsfristen laufen aus.

Mein Angebot

In zwei Schritten von „unsicher" zu „belastbar".

Kein 80-Seiten-Gutachten. Kein Beratervokabular. Klarheit darüber, wo Sie stehen – und was als Nächstes zu tun ist.

Schritt 1 · kostenfrei

30-Minuten-Abgleich

Wir telefonieren oder treffen uns per Video. Ich frage gezielt entlang der fünf Punkte oben ab und sage Ihnen ehrlich, ob bei Ihnen Handlungsbedarf besteht – oder nicht. Wenn nicht: dann nicht. Kein Verkaufsgespräch.

  • Strukturierte Abfrage entlang AI-Act-Risikoklassen
  • Erste Einschätzung: betroffen / nicht betroffen / Graubereich
  • Klare Empfehlung, ob Quick Check sinnvoll ist

Warum ich qualifiziert bin, das zu beurteilen.

Ich bin als „Data Scientist Specialised in the EU AI Act" durch die Fraunhofer-Personenzertifizierungsstelle zertifiziert. Die Personenzertifizierung erfolgt nach DIN EN ISO/IEC 17024 – derselben Norm, die auch für anerkannte Berufszertifizierungen wie Datenschutzbeauftragte oder Projektmanager nach IPMA gilt.

  • Viertägige Weiterbildung der Fraunhofer-Allianz Big Data und Künstliche Intelligenz
  • Systematik der KI-Verordnung und Rollenkonzept (Anbieter · Betreiber · Importeur · Händler)
  • Methodik zur Risikoklassifizierung von KI-Systemen
  • Technische Umsetzung vertrauenswürdiger KI – Sicherheit, Transparenz, Robustheit
  • Datenqualität, Bias-Vermeidung, menschliche Aufsicht
  • Abschluss durch Prüfung bei der nach DIN EN ISO/IEC 17024 akkreditierten Fraunhofer-Personenzertifizierungsstelle

Die Zertifizierung gilt zugleich als belastbarer Nachweis für den Aufbau von KI-Kompetenz nach Art. 4 KI-VO.