RG
    Zuletzt aktualisiert: 14. Juli 2025, 20:00 Uhr

    Freiwillig, aber folgenreich
    Neuer EU-Verhaltenskodex für KI:
    Segen oder Bürokratiemonster?

    Die EU-Kommission verspricht mit einem neuen Verhaltenskodex für Allzweck-KI mehr Rechtssicherheit und weniger Bürokratie bei der Umsetzung des AI Acts. Doch während Brüssel von einem Meilenstein spricht, warnt die deutsche Digitalwirtschaft vor neuen Hürden und Rechtsunsicherheiten.

    Symbolbild zum EU AI Act und dem neuen Verhaltenskodex für künstliche Intelligenz
    Der "Code of Practice" soll Klarheit schaffen, wie KI-Anbieter die Regeln des AI Acts einhalten können.

    1. Was ist der "Code of Practice"?

    Am 10. Juli 2025 hat die Europäische Kommission den finalen Verhaltenskodex (Code of Practice) für Allzweck-KI-Modelle (GPAI) vorgestellt. Dieses freiwillige Instrument soll Anbietern von Modellen wie ChatGPT als praktische Anleitung dienen, um die ab August 2025 geltenden Anforderungen des AI Acts zu erfüllen. Erarbeitet wurde der Kodex von unabhängigen Experten unter Einbeziehung von über 1.000 Interessengruppen.

    Der zentrale Vorteil für Unternehmen: Anbieter, die den Kodex unterzeichnen und befolgen, profitieren von mehr Rechtssicherheit und einem geringeren Verwaltungsaufwand. Sie können damit nachweisen, dass ihre Modelle den gesetzlichen Anforderungen entsprechen, was ihre Compliance-Last erheblich reduziert.

    2. Drei Kapitel für klare Regeln

    Der Kodex ist in drei separate Kapitel unterteilt, die sich unterschiedlichen Aspekten des AI Acts widmen.

    • Transparenz

      Bietet ein Formular zur Modelldokumentation, um die Pflichten nach Artikel 53 AI Act einfach und strukturiert zu erfüllen.

    • Urheberrecht

      Zeigt praktische Lösungen für eine EU-rechtskonforme Richtlinie zum Urheberrecht, speziell bei öffentlich zugänglichen Daten.

    • Sicherheit & Schutz

      Richtet sich an Modelle mit systemischen Risiken (Artikel 55 AI Act) und beschreibt Verfahren zum Management dieser Risiken.

    Während die ersten beiden Kapitel für alle GPAI-Anbieter relevant sind, ist das Sicherheitskapitel nur für die leistungsstärksten Systeme wie die von OpenAI oder Google verpflichtend.

    3. Kritik aus der Wirtschaft: Bitkom warnt

    Obwohl der Digitalverband Bitkom die Veröffentlichung grundsätzlich als Chance für mehr Rechtssicherheit begrüßt, gibt es erhebliche Bedenken.

    Die Hauptkritikpunkte von Bitkom:

    Rechtsunsicherheit durch "offene Risikoprüfung"

    Die Pflicht für Anbieter von Hochleistungsmodellen, auch potenziell nur denkbare, hypothetische Risiken ("open-ended risk identification") zu identifizieren, wird als problematisch angesehen. Laut Bitkom schafft dies zusätzliche Rechtsunsicherheit statt Klarheit.

    Hoher bürokratischer Aufwand

    Insbesondere die Dokumentationspflichten im Umgang mit Beschwerden von Rechteinhabern werden als zu bürokratisch und aufwendig kritisiert.

    Positiv hebt Bitkom hervor, dass Anbieter mehr Spielraum bei der Wahl ihrer Sicherheitsmaßnahmen erhalten und die Verantwortung für öffentlich zugängliche Datensätze nicht bei den Modellanbietern liegt. Dennoch bleibt die Sorge, dass der Kodex in seiner jetzigen Form neue Hürden aufbaut und zur Bremse für den KI-Standort Europa werden könnte.

    Sind Sie bereit für den AI Act?

    Der neue Verhaltenskodex wirft Fragen auf. Egal ob Sie umfassende Compliance-Sicherheit suchen oder eine spezifische Frage haben – wir unterstützen Sie.