Fragen zum AI Act?
Wir navigieren Sie sicher durch die neuen Regelungen.
Jetzt unverbindlich anfragenKostenlos & unverbindlich.
RECHTSUNSICHERHEIT
Deutschland verpasst AI-Act-Frist:
Keine Aufsichtsbehörde benannt
Die EU-Frist zur Benennung nationaler Aufsichtsbehörden für den AI Act ist am 2. August 2025 abgelaufen. Deutschland hat diese Frist verpasst – es gibt weiterhin keine offizielle Anlaufstelle für Unternehmen. Das schafft erhebliche Rechtsunsicherheit.

1. Was passiert ist: Deutschlands Versäumnis im Detail
Die EU-KI-Verordnung (AI Act) verlangt von allen Mitgliedstaaten, bis zum 2. August 2025 nationale Marktüberwachungsbehörden zu benennen. Diese Behörden sind entscheidend für die Überwachung der Einhaltung der neuen Regeln. Deutschland hat diese wichtige Frist nicht eingehalten.
Gesetzgebungsprozess ins Stocken geraten
Ein nationales Umsetzungsgesetz, das sogenannte KI-Marktüberwachungsgesetz (KIMÜG), ist in Arbeit, aber noch nicht verabschiedet. Der Prozess wurde unter anderem durch die vorgezogene Bundestagswahl im Februar 2025 verzögert.
Scharfe Kritik von Experten
Datenschutzbeauftragte und Verbraucherschutzverbände kritisieren die Bundesregierung scharf für die Verzögerung. Sie warnen vor einer Kontrolllücke und fehlenden Anlaufstellen für Unternehmen und Verbraucher.
2. Stimmen der Kritik: Behörden & Verbände schlagen Alarm
Thomas Fuchs, Hamburgs Datenschutzbeauftragter, bringt das Problem auf den Punkt: 'Durch die Verzögerung fehlt Unternehmen und Behörden nun ihre verbindliche Anlaufstelle für Fragen zur KI-Verordnung. Das ist auch ein Nachteil für den KI-Innovationsstandort Deutschland.'
Auch der Verbraucherzentrale Bundesverband (vzbv) drängt zur Eile. Lina Ehrig warnt vor den Risiken für Verbraucher, wenn es keine Aufsicht über die Einhaltung der Rechte gibt.
3. Was das für Unternehmen bedeutet: Diese Pflichten gelten trotzdem
Die fehlende Aufsichtsbehörde schafft ein Klima der Unsicherheit, entbindet Unternehmen aber nicht von ihren Pflichten. Die folgenden AI-Act-Anforderungen müssen bereits umgesetzt werden:
Risikobewertung für KI-Systeme
Unternehmen müssen die von ihnen eingesetzten KI-Systeme klassifizieren und bewerten, insbesondere Hochrisiko-Systeme.
Dokumentationspflichten
Technische Dokumentation und Compliance-Nachweise müssen erstellt und gepflegt werden.
Kompetenzanforderung nach Art. 4
Alle relevanten Mitarbeiter müssen im Umgang mit KI-Systemen und deren Regulierung geschult werden.
Verstöße können mit empfindlichen Bußgeldern von bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes geahndet werden.
4. Ihr Fahrplan zur Compliance: Handlungsempfehlungen
Um rechtliche Risiken zu minimieren, sollten Unternehmen jetzt handeln:
Interne Zuständigkeiten klären
Benennen Sie eine oder mehrere Personen, die für die KI-Compliance in Ihrem Unternehmen verantwortlich sind.
Risikoklassifizierung durchführen
Analysieren und klassifizieren Sie alle KI-Systeme im Unternehmen nach den Kriterien des AI Acts.
Mitarbeiter schulen
Erfüllen Sie die Kompetenzanforderung nach Art. 4 durch gezielte Schulungen, auch ohne nationale Leitlinien.
Dokumentation starten
Beginnen Sie sofort mit der Dokumentation aller technischen, organisatorischen und rechtlichen Aspekte Ihrer KI-Systeme.
Fazit
Deutschland hinkt bei der Umsetzung des AI Acts hinterher – aber das entbindet Unternehmen nicht von ihren Compliance-Pflichten. Wer jetzt proaktiv handelt, reduziert Risiken und ist vorbereitet, wenn die nationalen Aufsichtsbehörden ihre Arbeit aufnehmen.
Lesen Sie auch
Wann gilt was? Die komplette KI-Verordnungs-Timeline
Alle Fristen, Termine und Übergangsbestimmungen der EU-KI-Verordnung in einer interaktiven Timeline.
Artikel lesenEU AI Act: Kommission veröffentlicht Vorlage für KI-Trainingsdaten
Die EU-Kommission hat eine offizielle Vorlage zur Dokumentation von Trainingsdaten veröffentlicht. Was das für Anbieter bedeutet.
Artikel lesenHat Ihnen dieser Artikel gefallen?
Lassen Sie es uns wissen und diskutieren Sie mit!
Kommentare
Noch keine Kommentare
Bitte melden Sie sich an, um einen Kommentar zu schreiben.