Unsicher bei der Klassifizierung?
Wir helfen Ihnen, Ihre KI-Systeme korrekt einzustufen und die entsprechenden Maßnahmen abzuleiten.
Kostenlose ErstberatungBetroffenheit & Geltungsbereich
Die 4 Risikoklassen des AI Acts
einfach erklärt
Der EU AI Act basiert auf einem risikobasierten Ansatz. Je höher das Risiko eines KI-Systems, desto strenger die Auflagen. Verstehen Sie die Logik hinter den vier Stufen.

Der risikobasierte Ansatz des AI Acts
Die EU hat sich für einen risikobasierten Regulierungsansatz entschieden. Das bedeutet: Nicht alle KI-Systeme werden gleich behandelt. Die Pflichten richten sich nach dem potenziellen Schaden, den ein System verursachen kann.
Dieser Ansatz soll Innovation ermöglichen, wo Risiken gering sind, und gleichzeitig Menschen vor gefährlicher KI schützen.
Inakzeptables Risiko (Verboten)
Diese KI-Systeme sind grundsätzlich verboten
Beispiele: Social Scoring durch Behörden, Emotionserkennung am Arbeitsplatz/in Schulen, biometrische Echtzeit-Fernidentifizierung in öffentlichen Räumen (mit Ausnahmen), manipulative Techniken
Konsequenzen: Einsatz und Inverkehrbringen sind untersagt. Verstöße können mit Geldbußen bis zu 35 Mio. EUR oder 7% des weltweiten Jahresumsatzes geahndet werden.
Hohes Risiko
Strenge Auflagen für sensible Anwendungsbereiche
Beispiele: KI in Medizinprodukten, biometrische Identifizierung, kritische Infrastruktur, Bildung & Berufsausbildung, Beschäftigung & Personalmanagement, Zugang zu wesentlichen Dienstleistungen, Strafverfolgung, Migration & Asyl, Justiz & demokratische Prozesse
Konsequenzen: Umfassende Pflichten: Risikomanagement, Datenqualität, technische Dokumentation, Transparenz, menschliche Aufsicht, Genauigkeit & Robustheit, Konformitätsbewertung vor Inverkehrbringen.
Begrenztes Risiko
Transparenzpflichten für bestimmte KI-Systeme
Beispiele: Chatbots, KI-generierte Inhalte (Deepfakes), Emotionserkennungssysteme (sofern nicht verboten)
Konsequenzen: Nutzer müssen darüber informiert werden, dass sie mit einer KI interagieren oder dass Inhalte KI-generiert sind. Keine weiteren spezifischen Compliance-Anforderungen.
Minimales Risiko
Freie Nutzung ohne zusätzliche Auflagen
Beispiele: Spamfilter, KI in Videospielen, Empfehlungssysteme für Inhalte
Konsequenzen: Keine spezifischen Pflichten aus dem AI Act. Die Entwicklung und Nutzung unterliegt den allgemeinen gesetzlichen Bestimmungen.