Application Integration

Damit Unternehmensdaten ungehindert entlang der Wertschöpfungskette fließen.

Business Intelligence

Unternehmensdaten als Grundlage für strategische und operative Entscheidungen.

Collaboration & Portal

Reibungslose Kommunikation und Zusammenarbeit im komplexen Prozessegeschehen.

Artifical Intelligence

maschinell Lernen und Problemlösen um Entscheidungsfindung und Sprachverständnis zu unterstützen

Eine Übersicht der Akteure und Gremien

Einleitung: Die Governance-Struktur des AI Acts verstehen

Der EU AI Act ist das weltweit erste umfassende Regelwerk für Künstliche Intelligenz. Sein zentrales Ziel ist es, die Entwicklung und den Einsatz von vertrauenswürdiger, auf den Menschen ausgerichteter KI zu fördern und gleichzeitig ein hohes Schutzniveau für Grundrechte, Gesundheit, Sicherheit und Demokratie zu gewährleisten.

Um die Funktionsweise dieses wegweisenden Gesetzes zu begreifen, ist es entscheidend, die verschiedenen Rollen und Verantwortlichkeiten zu verstehen – von den Entwicklern, die KI-Systeme erschaffen, bis hin zu den Behörden, die die Einhaltung der Regeln überwachen.

Die Wirtschaftsakteure: Wer KI entwickelt und einsetzt

Der AI Act definiert klare Pflichten für alle Teilnehmer im Lebenszyklus eines KI-Systems, um Rechtssicherheit zu schaffen und Verantwortung präzise zuzuordnen.

Anbieter (Providers) – Die höchsten Anforderungen

Ein Anbieter ist jede natürliche oder juristische Person, die ein KI-System entwickelt oder entwickeln lässt und es unter ihrem eigenen Namen in Verkehr bringt. Für Anbieter von Hochrisiko-KI-Systemen gelten besonders strenge Verpflichtungen. Die drei wichtigsten sind:

  • Angemessene Risikobewertung: Anbieter müssen die Risiken ihres Systems systematisch bewerten und minimieren.
  • Hohe Datenqualität: Trainings-, Validierungs- und Testdatensätze müssen repräsentativ, fehlerfrei und vollständig sein, um systemische Verzerrungen (Bias) zu minimieren.
    • Ihre Herausforderung, unsere Lösung: Die Sicherstellung der Datenqualität und die Einhaltung der Protokollierungsvorgaben (Logging) ist eine Aufgabe für unsere Experten in IT-Datenmanagement und Softwaretechnischer Qualitätssicherung.
  • Detaillierte Dokumentation und Transparenz: Es muss eine lückenlose technische Dokumentation erstellt und die Aktivitäten des Systems protokolliert werden.

Betreiber (Deployers/Anwender) – Verantwortung im Betrieb

Ein Betreiber (auch Anwender genannt) ist jede natürliche oder juristische Person, die ein KI-System unter ihrer Autorität einsetzt. Betreiber tragen zwei zentrale Verantwortlichkeiten für den sicheren Einsatz:

  • Menschliche Aufsicht: Sie müssen eine wirksame menschliche Aufsicht implementieren, die es ermöglicht, den Betrieb des Systems zu überwachen und im Bedarfsfall korrigierend einzugreifen.
  • Überwachung des Betriebs: Sie müssen den Betrieb des Systems gemäß der Gebrauchsanweisung des Anbieters überwachen und sicherstellen, dass es wie vorgesehen funktioniert.
Für alle Anwender (Betreiber): Nutzen Sie Low-Code/No-Code (LCNC) Plattformen, um schnelle Prototypen und Automatisierungen zu entwickeln, aber stellen Sie durch unsere Systemanalyse sicher, dass diese nicht in die Hochrisiko-Kategorie fallen, um unnötige Compliance-Kosten zu vermeiden.

Weitere Akteure in der Lieferkette

Importeure, Händler und bevollmächtigte Vertreter fungieren als wichtige Bindeglieder und tragen die Verantwortung dafür, dass nur konforme KI-Systeme auf dem EU-Markt angeboten werden.

Die Governance-Struktur: Wer die Regeln überwacht und durchsetzt

Zur Sicherstellung einer einheitlichen und wirksamen Anwendung des AI Acts wird eine mehrstufige Governance-Architektur geschaffen.

Das Europäische KI-Büro (AI Office)

Das AI Office ist eine neue, zentrale Behörde innerhalb der Europäischen Kommission. Seine Hauptaufgabe ist die Sicherstellung einer harmonisierten Durchsetzung der Regeln. Es hat einen besonderen Aufsichtsschwerpunkt bei den leistungsfähigsten KI-Modellen für allgemeine Zwecke (GPAI), die systemische Risiken bergen können.

Der Europäische KI-Ausschuss (AI Board)

Der AI Board ist ein Gremium, das sich aus hochrangigen Vertretern der nationalen Aufsichtsbehörden der Mitgliedstaaten zusammensetzt. Seine Kernfunktion ist die Beratung der Kommission und die Koordination zwischen den Mitgliedstaaten, um eine konsistente und effektive Anwendung des AI Acts in der gesamten Union zu gewährleisten.

Beratende Gremien: Wissenschaft und Stakeholder

Zwei weitere Gremien unterstützen die Arbeit des AI Boards und der Kommission mit Fachexpertise:

Gremium

Rolle und Zweck

Wissenschaftliches Gremium

Liefert objektive, wissenschaftliche Expertisen auf dem neuesten Stand der Technik, um die Regulierung in der technischen Realität zu verankern.

Beratendes Forum

Kanalisiert praxisnahe, reale Perspektiven von Stakeholdern wie Industrie, KMUs und Zivilgesellschaft.

Nationale Aufsichtsbehörden

Jeder EU-Mitgliedstaat benennt eine oder mehrere nationale Aufsichtsbehörden. Diese sind für die Marktüberwachung und die direkte Durchsetzung des AI Acts auf nationaler Ebene zuständig.

Das Zusammenspiel in der Praxis: Der Compliance-Pfad

Das Zusammenspiel der Akteure bedeutet für Ihr Unternehmen: Der AI Act erfordert einen klaren Compliance-Pfad – von der anfänglichen Klassifizierung bis zum laufenden Betrieb.

Wenn Sie ein Hochrisiko-System entwickeln oder betreiben, muss jeder Schritt lückenlos dokumentiert sein. Hier greifen unsere Kernkompetenzen:

  • Analyse & Klassifizierung: Wir nutzen unsere Erfahrung in der Systemanalyse und Softwarearchitektur, um Ihre KI-Anwendungen korrekt zu klassifizieren und die notwendigen Compliance-Lücken zu identifizieren.

  • Implementierung der Anforderungen: Wir helfen Ihnen, die geforderten Qualitätsmanagement- und Cybersicherheitsmaßnahmen durch unsere Expertise in der Softwaretechnischen Qualitätssicherung und im Sicherheitsmanagement in Ihre Systeme zu integrieren.

  • Protokollierung & Nachvollziehbarkeit: Wir stellen sicher, dass Ihre Systeme die notwendige Protokollierung (Logging) und technische Dokumentation generieren, um bei Kontrollen durch die nationalen Behörden konform zu sein.

Geteilte Verantwortung für vertrauenswürdige KI

Der AI Act etabliert ein umfassendes Ökosystem der geteilten Verantwortung. Seine Stärke liegt in dem sorgfältig konzipierten, ineinandergreifenden Netzwerk aus Pflichten und Aufsichtsmechanismen.

Möchten Sie mehr über den AI:Act erfahren?

Warten Sie nicht bis August 2027. Die Einhaltung der strengen Auflagen für Hochrisiko-Systeme ist ein tiefgreifendes IT-Projekt. Die MOGI b.c.c. GmbH ist Ihr erfahrener Partner, um die komplexen technischen Anforderungen des AI Acts in ein zukunftssicheres und innovationsförderndes System zu übersetzen. Kontaktieren Sie uns für eine Erstberatung.