Zum Inhalt springen
actior AG » Börsenglossar / Lexikon: Trading & Wirtschaft einfach erklärt » GPAI (General-Purpose AI) im EU-KI-Gesetz

GPAI (General-Purpose AI) im EU-KI-Gesetz

GPAI im EU-KI-Gesetz – Pflichten, Timeline & Systemrisiko klar erklärt

Kurz gesagt: Das EU-KI-Gesetz (AI Act) führt eigene Regeln für General-Purpose AI (GPAI) ein. Anbieter von GPAI-Modellen müssen u. a. transparente Dokumentation, eine Urheberrechts-Policy und eine öffentliche Trainingsdaten-Zusammenfassung bereitstellen. Für besonders leistungsstarke GPAI-Modelle mit „systemischem Risiko“ gelten zusätzliche Pflichten wie Modell-Evaluierungen, Red-Team-Tests und Meldeprozesse. Diese GPAI-Vorgaben sind seit dem 02.08.2025 anwendbar.

GPAI im EU-KI-Gesetz

Definition & Abgrenzung

GPAI-Modell: Ein vielseitig einsetzbares KI-Grundmodell (Text, Code, Bild usw.), das in viele Systeme/Anwendungen integriert werden kann. Das Gesetz unterscheidet zwischen dem Modell (GPAI) und dem System (konkrete Anwendung, die auf dem Modell aufsetzt).

Warum das wichtig ist: System-Pflichten (z. B. Hochrisiko-Kategorien) treffen den Integrator/Anwender, während GPAI-Modell-Pflichten den Modell-Anbieter treffen.

Pflichten für alle GPAI-Modell-Anbieter (Art. 53)

  • Modelldokumentation (Model Card/tech. Doku) für Behörden & Downstream-Nutzer.
  • Urheberrechts-Compliance inkl. Respekt von Opt-outs.
  • Öffentliche „Training-Data-Summary“ nach EU-Vorlage (Template der EU-Kommission verfügbar).

Zur EU-Übersicht ↗

Zusatzpflichten bei „systemischem Risiko“ (Art. 55)

GPAI-Modelle mit systemischem Risiko unterliegen erweiterten Anforderungen wie Risikomanagement über den Lebenszyklus, standardisierte Evaluierungen/Red-Team-Tests, Cybersicherheit und Meldepflichten für schwerwiegende Vorfälle. Eine Vermutung für systemisches Risiko besteht ab einer sehr hohen Trainings-Compute-Schwelle (FLOPs) oder bei ausdrücklicher Designation durch die EU.

GPAI Meilensteine (Auszug)

  • 01.08.2024: AI Act tritt in Kraft (Start Übergangsphase).
  • 02.02.2025: Verbote & AI-Literacy-Pflichten greifen.
  • 02.08.2025: GPAI-Pflichten und Governance-Regeln gelten.
  • 02.08.2026: Großteil der Hochrisiko-Regeln gilt.
  • 02.08.2027: verlängerte Übergänge für bestimmte eingebettete Hochrisiko-Systeme enden.

Praxis-Check: Was ist jetzt zu tun?

Wenn Sie ein GPAI-Modell anbieten

  • Doku/Model Card erstellen & aktuell halten.
  • Copyright-Policy & Datenquellen-Prozesse festlegen.
  • Öffentliche Trainingsdaten-Zusammenfassung per EU-Template veröffentlichen.
  • Prüfen, ob „systemisches Risiko“ vorliegt; ggf. Art. 55 vollständig umsetzen.

Wenn Sie ein System integrieren

  • System-Pflichten (z. B. Hochrisiko) prüfen und erfüllen.
  • Vom Modell-Anbieter die erforderlichen Informationen (Doku, Nutzungsgrenzen, bekannte Risiken) einfordern.
  • Eigenes Logging, Monitoring & Incident-Prozesse etablieren.

Open-Source-Hinweis

Open-Source-GPAI-Modelle können in Teilen begünstigt sein. Erreichen sie jedoch die Schwelle zum „systemischen Risiko“ oder werden entsprechend designiert, greifen dieselben Zusatzpflichten wie bei proprietären Anbietern.

Weiterführend (EU-Ressourcen)

KI- & Rechtsbegriffe (FAQ)

Was ist ein GPAI-Modell im Sinne des AI Act ?

Ein General-Purpose-AI-Modell ist ein vielseitiges KI-Grundmodell, das für viele Zwecke eingesetzt und in unterschiedliche Systeme integriert werden kann. Es ist vom nachgelagerten KI-System (der konkreten Anwendung) zu unterscheiden.

Welche Grundpflichten gelten nach Artikel 53 ?

Transparente Modelldokumentation, eine Urheberrechts-Policy und die Veröffentlichung einer öffentlichen Zusammenfassung der Trainingsinhalte nach EU-Vorlage.

Was bedeutet „systemisches Risiko“ bei GPAI-Modellen ?

Sehr leistungsfähige Modelle unterliegen zusätzlichen Anforderungen wie Evaluierungen, Red-Team-Tests, Cybersicherheit und Meldepflichten. Eine Vermutung für systemisches Risiko besteht bei sehr hoher Trainings-Compute oder EU-Designation.

Seit wann gelten die GPAI-Pflichten ?

Die GPAI-Pflichten und Governance-Regeln sind seit dem 02.08.2025 anwendbar. Weitere AI-Act-Pflichten gelten gestaffelt bis 2027.

Gelten die Regeln auch für Open-Source-Modelle ?

Ja, grundsätzlich. Werden Schwellen für systemisches Risiko erreicht oder erfolgt eine EU-Designation, greifen die erweiterten Pflichten ebenfalls.

Hinweis: Alle Angaben ohne Gewähr

Börsenglossar