RG
    6 Min. Lesezeit
    Teilen

    Grundlagen des AI Acts

    Die 4 Risikoklassen des AI Acts
    einfach erklärt (mit Praxisbeispielen)

    Der EU AI Act schafft erstmals einen verbindlichen Rechtsrahmen für KI. Sein Kernstück ist ein risikobasierter Ansatz, der KI-Systeme in vier Klassen einteilt – je höher das Risiko, desto strenger die Regeln. Diese Einteilung ist für jedes Unternehmen entscheidend.

    Eine Pyramide, die die vier Risikoklassen des EU AI Acts darstellt: Inakzeptabel, Hoch, Begrenzt, Minimal.
    Der risikobasierte Ansatz des AI Acts: Je höher das potenzielle Risiko, desto strenger die regulatorischen Auflagen für Unternehmen.

    1. Inakzeptables Risiko (Verbotene KI)

    In diese höchste Risikoklasse fallen KI-Systeme, die eine klare Bedrohung für die Grundrechte und Werte der EU darstellen. Solche Anwendungen werden nach Artikel 5 der KI-Verordnung in der EU grundsätzlich verboten. Verstöße können mit Geldbußen von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes geahndet werden.

    Praxisbeispiele für verbotene KI:

    • Social Scoring

      Systeme, die das soziale Verhalten von Bürgern bewerten, um sie zu klassifizieren und daraus Nachteile abzuleiten (z. B. bei der Vergabe von Krediten oder öffentlichen Leistungen).

    • Manipulative Techniken

      KI, die menschliches Verhalten durch unterschwellige oder täuschende Techniken unbewusst beeinflusst und zu schädlichen Entscheidungen führen kann.

    • Echtzeit-Gesichtserkennung

      Der Einsatz von biometrischer Echtzeit-Fernidentifizierung im öffentlichen Raum zu Strafverfolgungszwecken ist grundsätzlich verboten, es gibt jedoch eng definierte Ausnahmen.

    2. Hohes Risiko

    Als Hochrisiko-KI-Systeme gelten Anwendungen, die ein potenziell hohes Schadensrisiko für Gesundheit, Sicherheit oder die Grundrechte von Menschen bergen. Diese Systeme unterliegen nach Artikel 6 der KI-Verordnung besonders strengen Anforderungen, bevor sie auf den Markt kommen und während ihres gesamten Lebenszyklus.

    Zu den Pflichten gehören unter anderem ein umfassendes Risikomanagementsystem, hohe Datenqualität, technische Dokumentation, menschliche Aufsicht und ein hohes Maß an Robustheit und Cybersicherheit.

    Praxisbeispiele für Hochrisiko-KI:

    • Medizinprodukte: KI-Systeme, die bei Diagnosen (z.B. MRT-Auswertung) oder in der robotergestützten Chirurgie unterstützen.

    • Kritische Infrastrukturen: KI in der Steuerung von Stromnetzen, im Verkehrswesen oder in der Wasserversorgung.

    • Bildung und Personalwesen: Systeme, die Bewerbungen vorsortieren, über Beförderungen entscheiden oder den Zugang zu Bildungseinrichtungen regeln.

    • Kreditwürdigkeitsprüfung: KI-Anwendungen, die über die Vergabe von Krediten und damit den Zugang zu Finanzmitteln entscheiden.

    3. Begrenztes Risiko

    KI-Systeme mit begrenztem Risiko unterliegen gemäß Artikel 50 der KI-Verordnung spezifischen Transparenzpflichten. Ziel ist es sicherzustellen, dass Menschen wissen, wenn sie mit einer KI interagieren, damit sie eine informierte Entscheidung treffen können.

    Praxisbeispiele und ihre Transparenzpflichten:

    • Chatbots und Voicebots: Nutzer müssen klar und deutlich darüber informiert werden, dass sie mit einer Maschine und nicht mit einem Menschen kommunizieren.
    • Deepfakes und andere KI-generierte Inhalte: Audio-, Bild-, Video- oder Textinhalte, die künstlich erzeugt oder manipuliert wurden, müssen als solche gekennzeichnet werden.
    • Emotionserkennung & biometrische Kategorisierung: Wenn eine KI solche Systeme einsetzt, müssen die betroffenen Personen darüber informiert werden.

    4. Minimales oder kein Risiko

    In diese Kategorie fällt die große Mehrheit der derzeit in der EU genutzten KI-Anwendungen. Sie stellen kein oder nur ein sehr geringes Risiko für die Rechte oder die Sicherheit von Personen dar und unterliegen keinen zusätzlichen rechtlichen Verpflichtungen aus dem AI Act. Unternehmen können diese Systeme frei nutzen, sollten aber die Entwicklung freiwilliger Verhaltenskodizes im Auge behalten.

    Praxisbeispiele für KI mit minimalem Risiko:

    • Spam-Filter in E-Mail-Programmen.
    • KI-gestützte Videospiele oder Rechtschreibkorrekturen.
    • Bestandskontrollsysteme im Einzelhandel oder Predictive Maintenance in der Industrie.