Application Integration

Damit Unternehmensdaten ungehindert entlang der Wertschöpfungskette fließen.

Business Intelligence

Unternehmensdaten als Grundlage für strategische und operative Entscheidungen.

Collaboration & Portal

Reibungslose Kommunikation und Zusammenarbeit im komplexen Prozessegeschehen.

Artifical Intelligence

maschinell Lernen und Problemlösen um Entscheidungsfindung und Sprachverständnis zu unterstützen

Von generativer KI über Deep Learning zur Künstlichen Intelligenz

Warum braucht Europa Regeln für Künstliche Intelligenz?

Künstliche Intelligenz (KI) ist eine der Schlüsseltechnologien unserer Zeit. Sie birgt enormes Potenzial, stellt unsere Gesellschaft aber auch vor neue Herausforderungen. Um sicherzustellen, dass KI zum Wohle aller eingesetzt wird, hat die Europäische Union einen wegweisenden rechtlichen Rahmen geschaffen.

1.1. Was ist der AI Act?

Der AI Act ist das weltweit erste umfassende Regelwerk für Künstliche Intelligenz. Es handelt sich um eine EU-Verordnung, die einheitliche und harmonisierte Regeln für die Entwicklung, das Inverkehrbringen und den Einsatz von KI-Systemen festlegt. Das übergeordnete Ziel ist es, die Einführung von menschenzentrierter und vertrauenswürdiger KI zu fördern und gleichzeitig ein hohes Schutzniveau für Gesundheit, Sicherheit, Grundrechte, Demokratie, Rechtsstaatlichkeit und den Umweltschutz zu gewährleisten. Damit schafft der AI Act Rechtssicherheit für Entwickler sowie Anwender und stärkt die Innovationskraft Europas.

1.2. Die Notwendigkeit einer Regulierung

Oft ist es nicht nachvollziehbar, warum ein KI-System eine bestimmte Entscheidung getroffen hat. Diese „Blackbox“-Natur kann dazu führen, dass Menschen unfair benachteiligt werden, beispielsweise bei einer Bewerbung oder der Beantragung einer Sozialleistung. Bestehende Rechtsrahmen, wie etwa das Datenschutz- oder Produkthaftungsrecht, sind nicht auf die spezifischen Herausforderungen der algorithmischen Intransparenz und potenziellen Diskriminierung durch KI-Systeme zugeschnitten.

1.3. Die Vision: Schutz und Fortschritt

Die Vision hinter dem Gesetz ist es, ein Gleichgewicht zwischen dem Schutz der Bürger und der Förderung des technologischen Fortschritts zu schaffen. Die Regeln stellen sicher, dass der Mensch und die europäischen Werte im Mittelpunkt der KI-Entwicklung stehen, ohne die technologische Entwicklung zu lähmen. Der AI Act wählt einen differenzierten Ansatz, der nicht die Technologie selbst, sondern deren spezifisches Anwendungsrisiko in den Mittelpunkt stellt.

2. Das Kernprinzip: Der risikobasierte Ansatz

2.1. Nicht jede KI ist gleich

Das Grundprinzip des AI Act ist einfach und pragmatisch: Nicht jede KI-Anwendung birgt die gleichen Gefahren. Die Regeln richten sich daher nach dem potenziellen Risiko, das ein KI-System für die Gesellschaft darstellt. Man kann sich dies wie eine Pyramide vorstellen: Je höher das Risiko an der Spitze, desto strenger die Vorschriften. Der Großteil der KI-Anwendungen mit geringem Risiko am breiten Fundament der Pyramide bleibt hingegen von strenger Regulierung unberührt.

2.2. Vier Stufen des Risikos

Das Gesetz definiert vier klare Risikostufen, die die Grundlage für alle Verpflichtungen bilden:

  1. Inakzeptables Risiko

  2. Hohes Risiko

  3. Begrenztes Risiko

  4. Minimales oder kein Risiko

Um zu verstehen, was diese Kategorien in der Praxis bedeuten, betrachten wir nun die einzelnen Risikostufen im Detail.

3. Die vier Risikostufen im Detail

Die folgende Tabelle gibt einen Überblick über die vier Risikokategorien, die damit verbundenen Regeln und konkrete Anwendungsbeispiele.

Risikostufe

Beschreibung der Regeln

Konkrete Beispiele

Inakzeptables Risiko

KI-Systeme, die eine eindeutige Bedrohung für die Sicherheit, die Lebensgrundlagen und die Rechte von Menschen darstellen, sind in der EU verboten.

* Social Scoring durch Regierungen * Kognitive Verhaltensmanipulation * Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen * Erstellung von Risikobewertungen für Straftaten durch Einzelpersonen

Hohes Risiko

Diese Systeme sind erlaubt, unterliegen aber strengen Auflagen, bevor sie auf den Markt kommen dürfen. Dazu gehören: angemessene Risikobewertung und -minderung, hohe Datenqualität zur Minimierung von Diskriminierungsrisiken, Protokollierung der Aktivitäten (Logging), detaillierte Dokumentation, klare Nutzerinformationen, angemessene menschliche Aufsicht sowie ein hohes Maß an Robustheit, Cybersicherheit und Genauigkeit.

* KI in kritischen Infrastrukturen (z.B. Verkehr) * Software zur Sortierung von Lebensläufen (HR) * KI-Anwendungen in der robotergestützten Chirurgie

Begrenztes Risiko

Für diese Systeme gelten spezielle Transparenzpflichten. Menschen müssen wissen, wenn sie mit einer KI interagieren (z.B. Chatbots). Zudem müssen KI-generierte Inhalte wie Deepfakes oder Texte, die mit der Absicht veröffentlicht werden, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, klar als solche gekennzeichnet sein.

* Chatbots * KI-generierte Inhalte wie Deepfakes

Minimales oder kein Risiko

Die große Mehrheit der KI-Anwendungen fällt in diese Kategorie. Sie werden nicht durch den AI Act reguliert, um Innovation nicht zu behindern, und können frei genutzt werden.

* KI-gestützte Videospiele * Spamfilter

Ihr Handlungsfeld für Hochrisiko-Systeme: Die strengen Anforderungen an Cybersicherheit, Datenqualität und Protokollierung für Hochrisiko-Systeme erfordern eine tiefgehende Expertise in der Softwarearchitektur, Systemanalyse und Softwaretechnischen Qualitätssicherung – genau die Bereiche, in denen die MOGI b.c.c. GmbH Sie von der Konzeption bis zur Implementierung unterstützen kann.

4. Die Ziele des AI Act: Ein Gleichgewicht zwischen Schutz und Innovation

Der AI Act verfolgt zwei Hauptziele, die nicht im Widerspruch zueinander stehen, sondern sich gegenseitig verstärken. Die Schaffung eines harmonisierten Rechtsrahmens bietet die notwendige Rechtssicherheit, um Investitionen anzuziehen und Innovation zu fördern. Dadurch wird Regulierung zu einem Wettbewerbsvorteil für einen vertrauenswürdigen KI-Standort Europa.

4.1. Schutz von Grundrechten und Sicherheit

Das Gesetz soll ein hohes Schutzniveau für die Gesundheit, die Sicherheit und die in der EU-Grundrechtecharta verankerten Grundrechte gewährleisten. Dies schließt explizit den Schutz der Demokratie, der Rechtsstaatlichkeit und des Umweltschutzes vor den schädlichen Auswirkungen von KI-Systemen mit ein.

4.2. Förderung von Innovation und Wettbewerbsfähigkeit

Gleichzeitig zielt der AI Act darauf ab, Investitionen und Innovationen im Bereich der KI in der gesamten EU zu fördern. Klare und einheitliche Regeln schaffen Rechtssicherheit für Entwickler, Forscher und Unternehmen. Ein besonderer Schwerpunkt liegt dabei auf der Unterstützung von kleinen und mittleren Unternehmen (KMU) sowie Start-ups, um ihre Wettbewerbsfähigkeit zu stärken. Hier sind LCNC-Plattformen (Low-Code/No-Code) besonders wichtig, da sie schnelle, kosteneffiziente Prototypisierung unter Berücksichtigung von Governance-Anforderungen ermöglichen.

4.3. Die Governance-Struktur: Wer setzt die Regeln um?

Um eine einheitliche und wirksame Durchsetzung zu gewährleisten, schafft der AI Act eine klare Governance-Architektur. Das Herzstück ist das Europäische KI-Büro (AI Office) bei der Europäischen Kommission, das die gemeinsamen Regeln in der EU durchsetzt. Es wird von einem KI-Ausschuss mit Vertretern der Mitgliedstaaten sowie einem wissenschaftlichen Gremium unabhängiger Experten beraten und unterstützt, um die konsistente Anwendung des Gesetzes sicherzustellen.

5. Fazit: Wie geht es weiter?

5.1. Ein gestaffelter Zeitplan

Der AI Act ist am 1. August 2024 offiziell in Kraft getreten. Die darin enthaltenen Verpflichtungen werden jedoch gestaffelt wirksam, um eine geordnete Implementierung sicherzustellen.

Anwendbarkeit

Frist

Verbote (Inakzeptables Risiko)

Februar 2025

Regeln für GPAI (KI-Modelle mit allgemeinem Verwendungszweck)

August 2025

Vollständige Anwendbarkeit (ausgenommen Hochrisiko)

August 2026

Auflagen für Hochrisiko-Systeme

August 2027 (nach 36 Monaten Übergangsfrist)

5.2. Europas Rolle in der globalen KI-Regulierung

Als weltweit erstes umfassendes Gesetz für Künstliche Intelligenz hat der AI Act das Potenzial, einen globalen Standard für eine ethische, sichere und vertrauenswürdige KI zu setzen. Ähnlich wie die Datenschutz-Grundverordnung (DSGVO) könnte der AI Act als Vorbild für andere Länder dienen und Europas führende Rolle bei der Gestaltung der digitalen Zukunft festigen.

Unser Angebot: AI Act Compliance als Wettbewerbsvorteil Warten Sie nicht, bis die Fristen ablaufen. Die Einhaltung des AI Act ist ein komplexes IT-Projekt. Mit unserer Expertise in der Systemanalyse identifizieren wir, welche Ihrer KI-Anwendungen unter die Hochrisiko-Kategorie fallen, und entwickeln mit unserer Softwarearchitektur-Kompetenz die notwendigen konformen Systeme.

Möchten Sie mehr über den AI:Act erfahren?

Sprechen Sie uns an, um Ihre KI-Strategie AI-Act-konform und zukunftssicher zu gestalten! Kontaktieren Sie uns für eine Erstberatung.