Mit der Verabschiedung des Artificial Intelligence Act (AI-Act) setzt die EU einen entscheidenden Schritt zur Regulierung von Künstlicher Intelligenz (KI). Der AI-Act ist dem Produktsicherheitsrecht zuzuordnen. Er stellt sicher, dass KI-Systeme in der EU sicher, transparent und ethisch verantwortlich eingesetzt werden. WER IST VOM AI-ACT BETROFFEN? Der AI-Act richtet sich an alle Unternehmen und Organisationen, die KI-Systeme entwickeln, bereitstellen oder verwenden. Dies umfasst Unternehmen in nahezu allen Sektoren – insbesondere in den Bereichen Gesundheitswesen, Finanzen, Transport und Bildung. Besonders relevant ist der AI-Act für Unternehmen, die hochriskante KI-Systeme betreiben. DIE RISIKOKLASSIFIZIERUNG Der AI-Act unterscheidet zwischen vier Risikokategorien von KI-Systemen. Die Klassifizierung bestimmt, welche Anforderungen an die KI-Systeme gestellt werden. 1. Unkritische Systeme (Minimalrisiko): Für diese Systeme gibt es keine spezifischen regulatorischen Anforderungen 2. Systeme mit begrenztem Risiko: Für diese Systeme gelten Transparenzpflichten (z. B. generative KI-Systeme, Chatbots) 3. Hochrisikosysteme: Für diese Systeme gelten zusätzliche Risikomanagementpflichten, bevor das System in den Verkehr gebracht oder in Betrieb genommen werden darf (z. B. Gesichtserkennungssysteme, KI in der medizinischen Diagnostik, Autonome Fahrzeuge oder Luftfahrtsysteme, KI in der Arbeitsmarktüberwachung, personalisierten Kreditwesen) 4. Verbote von Systemen mit inakzeptablem Risiko: Systeme, die als besonders gefährlich angesehen werden, sind verboten (z. B. Social Scoring-Systeme wie sie von autoritären Staaten verwendet werden, um das Verhalten von Bürgern zu überwachen und zu bewerten sowie manipulative KI-Systeme, die Menschen manipulieren, etwa durch irreführende Werbung oder Social Engineering-Techniken). Das KI-Büro in Brüssel hat dazu Leitlinien veröffentlicht. ANFORDERUNGEN FÜR UNTERNEHMEN Für Unternehmen, die hochriskante KI-Systeme herstellen, hält der AI-Act zahlreiche Pflichten und Anforderungen vor, um sicherzustellen, dass die KI-Systeme transparent und nachvollziehbar sind. Unternehmen, die KI-Systeme nutzen, sollten diese unbedingt nur im Rahmen des vom Hersteller gewidmeten Zwecks nutzen. Andersfalls besteht das Risiko, dass er durch tatsächliche Verwendung zu einem anderen Zweck das KI-System zu einem Hochrisiko KI-System umwidmet. Folge ist, dass der Nutzer dann rechtlich zusätzlich auch an die Stelle des ursprünglichen Anbieters tritt. Ihn treffen dann die gleichen Pflichten wie den ursprünglichen Hersteller. Eine Klärung der Rolle in der KI-Wertschöpfungskette ist essentiell. HANDLUNGSEMPFEHLUNGEN UND AUSBLICK Prüfen Sie: Falls Ihr Unternehmen KI-Systeme nutzt, prüfen Sie, auf welcher Sicherheitsstufe dies einzuordnen ist und ob sich daraus Anforderungen ergeben. Lernen Sie voneinander: Das KI-Büro in Brüssel führt eine offene Sammlung von “Kompetenzpraktiken” (Best-Practice-Sammlung). Bleiben Sie auf dem Laufenden: Der AI-Act ist teilweise in Kraft. Seit Februar 2025 gelten die allgemeinen Bestimmungen und die Verbote unethischer KI-Systeme. Ab August 2025 treten Regelungen zu den KI-Systemen mit minimalen Risiko in Kraft. Ab August 2026 treten die Regelungen mit begrenztem Risiko in Kraft, ab August 2027 die Regelungen für die KI-Hochrisiko-Systeme. Für den Sommer 2025 wird das erforderliche bundesdeutsche Durchführungsgesetz zum AI-Act erwartet. Das Gesetz soll insbesondere die behördlichen Zuständigkeiten in Deutschland regeln. DER AI-ACT Produktsicherheitsrecht IHK ZU SCHWERIN Ass. jur. Luise-Henriette Stegen 0385 5103-513 stegen@schwerin.ihk.de Bild: Pixabay Recht & Steuern 35 Wirtschaftskompass 05 | 06 | 2025
RkJQdWJsaXNoZXIy MTkyOTU0Ng==