RG
    Zuletzt aktualisiert: 20. Juli 2025, 14:00 Uhr

    Neuer EU-Leitfaden
    Regeln für KI-Modelle
    mit systemischem Risiko

    Die EU schafft Klarheit: Offizielle Leitlinien, veröffentlicht vom neuen European AI Office, sollen Entwicklern helfen, die komplexen Regeln des KI-Gesetzes zu verstehen. Im Fokus stehen besonders leistungsfähige Modelle, für die strenge neue Pflichten gelten.

    Symbolbild zum EU AI Act mit einem Kompass, der auf Paragraphen zeigt
    Die neuen Leitlinien sollen Unternehmen durch den Regulierungsdschungel des EU-KI-Gesetzes navigieren. Bild: © Aozora – stock.adobe.com, 407401002, Stand.-Liz.

    1. Ein Kompass für Entwickler vom AI Office

    Die Europäische Union hat, unter der Federführung des neu geschaffenen European AI Office, offizielle Leitlinien für Anbieter von Allzweck-KI-Modellen (GPAI) veröffentlicht. Ziel ist es, Entwicklern von künstlicher Intelligenz (KI) bei der Einhaltung des weitreichenden KI-Gesetzes zu helfen und Klarheit zu schaffen, insbesondere für Unternehmen, die KI-Modelle mit "systemischen Risiken" entwickeln.

    Das KI-Gesetz, das bereits im letzten Jahr in Kraft getreten ist, kategorisiert KI-Systeme in vier Risikostufen: inakzeptables Risiko, hohes Risiko, begrenztes Risiko und minimales Risiko. KI-Anwendungen, die als inakzeptabel eingestuft werden, wie beispielsweise Social Scoring oder bestimmte Formen der biometrischen Fernidentifizierung, sind in der EU verboten. Die neuen Leitlinien präzisieren zudem die Bedingungen, unter denen Open-Source-Modelle von bestimmten Pflichten ausgenommen werden können, um Innovation und Transparenz zu fördern.

    2. Was sind KI-Modelle mit systemischen Risiken?

    Als KI-Modelle mit systemischen Risiken werden solche definiert, die mit einer Rechenleistung von mehr als 10^25 FLOPs (Floating Point Operations per Second) trainiert wurden. Darunter fallen bekannte Modelle wie GPT-4 von OpenAI, Gemini von Google, die neueren Claude-Modelle von Anthropic und Grok von xAI. Diese Modelle werden als potenziell weitreichend und mit möglichen negativen Auswirkungen auf die Gesellschaft angesehen.

    3. Neue Verpflichtungen und Fristen

    Entwickler von KI-Modellen mit systemischen Risiken müssen eine Reihe von Auflagen erfüllen. Die Nichteinhaltung kann zu empfindlichen Strafen führen, die von 7,5 Millionen Euro bis zu 35 Millionen Euro oder 1,5 % bis 7 % des weltweiten Jahresumsatzes eines Unternehmens reichen können.

    Die Kernpflichten im Überblick

    • Modellbewertungen zur Identifizierung wahrscheinlicher systemischer Risiken.
    • Durchführung von Adversarial Testing (Angriffstests) zur Risikominimierung.
    • Meldung schwerwiegender Vorfälle an das EU AI Office und nationale Behörden.
    • Implementierung angemessener Maßnahmen zur Cybersicherheit.

    Die Fristen sind gestaffelt: Die Regeln für neue KI-Modelle mit systemischen Risiken gelten ab dem 2. August 2025. Ab dem 2. August 2026 können Strafen bei Nichteinhaltung verhängt werden. Anbieter von Modellen, die bereits vor August 2025 auf dem Markt waren, müssen die Vorschriften bis zum 2. August 2027 vollständig erfüllen.

    4. Gespaltene Reaktionen in der Industrie

    Die Reaktionen auf das KI-Gesetz und die neuen Leitlinien fallen gemischt aus. Kritiker, darunter Meta, befürchten Rechtsunsicherheiten und eine Behinderung von Innovation. Führende europäische Unternehmen hatten in der Vergangenheit sogar eine Aussetzung der Regulierung gefordert.

    Auf der anderen Seite gibt es auch Zustimmung. Das AI Office fördert den „General-Purpose AI Code of Practice“, einen Verhaltenskodex, der als praktisches Werkzeug zur freiwilligen Einhaltung der Regeln dient. Unternehmen wie Mistral und OpenAI haben ihre Bereitschaft zur Mitwirkung signalisiert. Befürworter des Gesetzes sehen darin einen wichtigen Schritt, um die Sicherheit und die Rechte der Verbraucher zu schützen und gleichzeitig einen Rahmen für vertrauenswürdige KI-Anwendungen zu schaffen.

    Unsicherheit durch den AI Act?

    Die neuen Regelungen für systemische Modelle zeigen: Die Umsetzung des AI Acts birgt erhebliche Herausforderungen. Wir helfen Ihnen, durch den Regulierungsdschungel zu navigieren und Compliance sicherzustellen.