Der AI-Act der Europäischen Union, der im August 2024 in Kraft trat, wird in mehreren Phasen umgesetzt. Eine wichtige Neuerung betrifft die Pflicht zur KI-Schulung für Unternehmen.

Ab dem 2. Februar 2025 sind Unternehmen verpflichtet, sicherzustellen, dass ihre Mitarbeiter über ausreichende Kenntnisse im Umgang mit Künstlicher Intelligenz verfügen. Diese Schulungspflicht gilt unabhängig vom Risikograd der eingesetzten KI-Systeme. Zudem werden KI-Systeme mit unannehmbarem Risiko, wie etwa solche zur Verhaltensmanipulation oder zum Social Scoring, verboten.

Die Umsetzung des AI-Acts erfolgt in mehreren Phasen:

  • Phase 1 (ab 2. Februar 2025): Einführung der Schulungspflicht und Verbot von KI-Systemen mit unannehmbarem Risiko.
  • Phase 2 (ab 2. August 2025): Regulierung von Hochrisiko-KI-Systemen und allgemeinen KI-Modellen.
  • Phase 3 (ab 2. August 2026): Großteil der Bestimmungen des AI-Acts tritt in Kraft.
  • Phase 4 (ab 2. August 2027): Vollständige Gültigkeit des AI-Acts und Präzisierung der Einstufung von Hochrisikosystemen.

Unternehmen sollten frühzeitig Maßnahmen ergreifen, um die Anforderungen des AI-Acts zu erfüllen. Dazu gehört die Durchführung von Schulungen, um die KI-Kompetenz der Mitarbeiter zu stärken, sowie die Überprüfung und Anpassung eingesetzter KI-Systeme an die neuen Regularien.

Was ist für Unternehmen ab 2. Februar 2025 wichtig?

Ab dem 2. Februar 2025 treten gemäß dem EU AI Act (Verordnung (EU) 2024/1689V) für Unternehmen folgende Änderungen in Kraft:

  • Schulungspflicht für Mitarbeiter: Unternehmen müssen sicherstellen, dass alle Mitarbeiter, die mit KI-Systemen arbeiten, über ausreichende Kompetenzen im Umgang mit Künstlicher Intelligenz verfügen.
  • Verbot bestimmter KI-Praktiken: Der Einsatz von KI-Systemen, die ein inakzeptables Risiko darstellen, wie etwa solche, die das Verhalten von Personen manipulieren oder Social Scoring betreiben, ist untersagt.
  • Transparenzpflichten: Künstlich erzeugte oder bearbeitete Inhalte wie Audios, Bilder und Videos müssen eindeutig als solche gekennzeichnet werden.

Unternehmen sollten diese Anforderungen rechtzeitig umsetzen, um Compliance sicherzustellen und potenzielle Sanktionen zu vermeiden.

KI-Schulungspflicht für Mitarbeitende

Ab dem 2. Februar 2025 müssen Unternehmen in der Europäischen Union sicherstellen, dass ihre Mitarbeitenden über ausreichende Kompetenzen im Umgang mit Künstlicher Intelligenz (KI) verfügen. Diese Anforderung ergibt sich aus der europäischen KI-Verordnung (EU-AI-Act), die festlegt, dass Beschäftigte die Fähigkeiten, Kenntnisse und das Verständnis besitzen sollen, um KI-Systeme sachkundig einzusetzen.

Obwohl diese Vorgabe zunächst als zusätzliche bürokratische Hürde erscheinen mag, bietet sie Unternehmen die Chance, die digitale Transformation voranzutreiben und strategische Vorteile zu erlangen. Durch gezielte Schulungen können Mitarbeitende nicht nur effizienter arbeiten, sondern auch kreative Lösungen entwickeln und neue Geschäftsfelder entdecken.

Unternehmen sollten die folgenden Schritte in Betracht ziehen, um die Anforderungen der Verordnung zu erfüllen:

  • Bedarfsanalyse durchführen: Ermitteln Sie, welche Abteilungen und Mitarbeitenden Schulungsbedarf im Bereich KI haben.
  • Schulungsprogramme entwickeln: Erstellen Sie maßgeschneiderte Trainings, die auf die spezifischen Bedürfnisse Ihres Unternehmens zugeschnitten sind.
  • Kontinuierliche Weiterbildung fördern: Stellen Sie sicher, dass Ihre Mitarbeitenden regelmäßig an Fortbildungen teilnehmen, um mit den neuesten Entwicklungen in der KI Schritt zu halten.
  • Bewusstsein für Risiken schaffen: Sensibilisieren Sie Ihr Team für die potenziellen Risiken und ethischen Aspekte beim Einsatz von KI.

Welche Inhalte sollte eine KI-Schulung umfassen?

Durch proaktive Maßnahmen können Unternehmen nicht nur den gesetzlichen Anforderungen gerecht werden, sondern auch ihre Wettbewerbsfähigkeit in einer zunehmend digitalisierten Welt stärken.

Eine effektive KI-Schulung sollte folgende Inhalte umfassen:

  • Grundlagen der Künstlichen Intelligenz: Verständnis der Funktionsweise und Anwendungsbereiche von KI.
  • Rechtliche Rahmenbedingungen: Kenntnis der gesetzlichen Vorgaben und ethischen Richtlinien im Umgang mit KI.
  • Risikomanagement: Identifikation und Bewertung potenzieller Risiken beim Einsatz von KI-Systemen.
  • Praktische Anwendung: Schulung im sicheren und verantwortungsvollen Umgang mit spezifischen KI-Tools und -Systemen.

Unternehmen können durch die Schulung ihrer Mitarbeitenden nicht nur Compliance sicherstellen, sondern auch das Vertrauen von Kunden und Partnern stärken sowie ihre Wettbewerbsfähigkeit in einer zunehmend digitalisierten Welt erhöhen.

Strenge Regeln für risikoreiche KI-Systeme

Mit dem Stichtag 2. Februar 2025 müssen Unternehmen, die KI entwickeln oder einsetzen, ihre Systeme nach dem Grad des Risikos bewerten und geeignete Maßnahmen ergreifen, um den gesetzlichen Anforderungen gerecht zu werden.

Der AI Act legt klare Vorgaben fest, um den Missbrauch von KI-Anwendungen zu verhindern und den Schutz der Grundrechte sicherzustellen. Gleichzeitig soll Wissenschaft und Wirtschaft ausreichend Spielraum für Innovationen bleiben. Die Verordnung basiert auf einem risikobasierten Ansatz: Je höher das Risiko einer Anwendung, desto strenger die gesetzlichen Anforderungen.

KI-Systeme mit inakzeptablem Risiko, die das Verhalten von Menschen manipulieren oder beeinflussen können, sind in der EU verboten. Dazu gehört auch das sogenannte Social Scoring, bei dem Menschen anhand ihres Verhaltens bewertet werden.

Für hochriskante KI-Systeme, etwa in der kritischen Infrastruktur, im Gesundheitswesen oder im Finanzsektor, gelten strenge Auflagen, bevor sie auf dem EU-Markt zugelassen werden. Anwendungen mit geringem Risiko unterliegen hingegen nur begrenzten Transparenz- und Informationspflichten.

Transparenzpflicht: Kennzeichnung von KI-generierten Inhalten

Der AI Act legt in Artikel 50 klare Regeln zur Transparenzpflicht für Anbieter und Nutzer von KI-Anwendungen fest. Dabei gelten unterschiedliche Vorgaben für die jeweiligen Akteure.

Transparenzpflicht für Nutzer generativer KI-Systeme

Auch die Nutzer von KI-Systemen wie ChatGPT oder anderen generativen Modellen unterliegen bestimmten Kennzeichnungspflichten:

  • Deep Fakes müssen eindeutig als solche gekennzeichnet werden und dürfen keine Persönlichkeitsrechte verletzen.
  • Künstlich erzeugte oder bearbeitete Inhalte wie Audios, Bilder und Videos müssen eindeutig als solche gekennzeichnet werden.
  • KI-generierte Texte, die der öffentlichen Information dienen, müssen offenlegen, dass sie künstlich erstellt oder bearbeitet wurden.

Eine Ausnahme besteht, wenn die Inhalte einer redaktionellen Kontrolle unterzogen wurden und eine natürliche oder juristische Person die Verantwortung für die Veröffentlichung übernimmt. In diesen Fällen entfällt die KI-Kennzeichnungspflicht für die Nutzer.

Transparenzpflicht für Anbieter generativer KI-Systeme

Anbieter von generativen KI-Modellen müssen sicherstellen, dass KI-generierte Inhalte in einem maschinenlesbaren Format gekennzeichnet sind und als synthetisch erkennbar bleiben. Dabei müssen technische Lösungen wirksam, interoperabel, robust und zuverlässig sein.

Diese Pflicht gilt jedoch nicht für KI-gestützte Hilfsfunktionen, die Inhalte nicht wesentlich verändern – etwa Rechtschreibkorrekturen oder Bildbearbeitungen wie Rauschreduzierung.

Bis spätestens August 2025 müssen Anbieter geeignete Maßnahmen implementieren, um den neuen Transparenzvorgaben des AI Acts zu entsprechen.