Leitplanken für KI: Welche Regulierungen sind für 2026 geplant?
Ab dem 2. August 2026 soll das offizielle europäische Gesetz über die künstliche Intelligenz (KI-Gesetz) in Kraft treten. Eine der Hauptaufgaben ist es, die Grundrechte von Menschen zu schützen und vertrauenswürdige künstliche Intelligenzen einzusetzen. In vielen Bereichen wird es Änderungen geben, so tritt beispielsweise auch die Kennzeichnungspflicht für AI-Inhalte offiziell in Kraft.
Aber wie wird sich das KI-Gesetz wirklich auf die Nutzung von künstlicher Intelligenz auswirken? Welche Neuerungen sind zu erwarten und was genau muss ab dem 2. August 2026 umgesetzt werden?
Der Einsatz von künstlicher Intelligenz bekommt Leitplanken – was besagt das Gesetz?
Der AI-Act ist weltweit der erste umfassende Rechtsrahmen für künstliche Intelligenz. Er soll sicherstellen, dass KI in der EU vertrauenswürdig, sicher und menschenrechtlich korrekt nutzbar ist. Dabei gilt ein risikobasierter Ansatz, der besagt, dass die Höhe des KI-Risikos die Strenge der Regeln definiert.
Obwohl der AI-Act schon 2024 beschlossen wurde, wird er erst zum 2. August 2026 in Kraft treten. Branchenvertreter der Glücksspielbranche dürften sich an dieser Stelle fragen, ob KI auch bei der Evaluierung des Glücksspielstaatsvertrags eine Rolle spielen könnte, die ebenfalls 2026 stattfindet. Ein Beispiel aus Dänemark, das Startup Mindway AI, zeigt, dass KI bei der Glücksspielsicherheit eine Rolle spielen könnte, beispielsweise zur Erkennung von gefährdeten Spielern.
Möglicherweise könnte künstliche Intelligenz auch eine Rolle dabei spielen, die Sicherheit beim Anmelden und bei der Inanspruchnahme von einem Casino Bonus hochzusetzen. Außerdem könnten die Anbieter sich selbst mit KI vor versuchtem Betrug schützen.
Laut Gesetz ist KI ein System, das bestimmte Techniken zur Erreichung von Zielen nutzt, ohne dass diese explizit dafür programmiert wurden. Gemeint sind statistische Ansätze, aber auch maschinelles Lernen oder Logik. Diese Definition gilt unabhängig vom Sitz innerhalb der gesamten EU sowohl für Betreiber als auch für Anbieter, was den Markt regulieren soll. Theoretisch ist es also möglich, dass auch die Glücksspielbranche künftig mehr auf KI setzt.
Welche Änderungen entstehen durch Transparenzpflichten?
Ein wichtiger Baustein bei der Regulierung der neuen Technologie ist die Transparenzpflicht, die ab dem 2. August 2026 gelten wird. Sie soll es für Menschen sicherer machen, zu erkennen, wann sie mit künstlicher Intelligenz interagieren und wann sie von KI generierte Inhalte konsumieren.
Viele Unternehmen nutzen für ihren Support mittlerweile Chatbots und andere Interaktionssysteme, die von KI betrieben werden. Der Nutzer muss darauf eindeutig hingewiesen werden, um eine Entscheidung für oder gegen die Verwendung zu treffen. Anbieter von generativer KI müssen selbstständig dafür sorgen, dass die generierten Inhalte als KI-erzeugt erkennbar sind. Möglich wären hier maschinenlesbare Metadaten in Texten, Bildern, Audiofiles und auch den durch Sora 2 beliebt gewordenen Videos.
Ein besonderes Augenmerk liegt auf der Kennzeichnung sogenannter Deep Fakes und Inhalten bezüglich öffentlicher Angelegenheiten und Nachrichten. Der AI-Act zielt darauf ab, die Verbreitung von Desinformation zu erschweren und Meinungsmanipulationen durch KI-generierte Inhalte zu verhindern.
Die EU-Kommission erarbeitet parallel einen Verhaltenskodex zur Kennzeichnung von KI-Inhalten für Unternehmen. Die Veröffentlichung ist für das zweite Quartal 2026 geplant und soll Stand 2025 freiwillig sein. Ziel ist es, die Transparenzpflicht mit praktischen Beispielen und technischen Lösungen umsetzbarer zu machen.
Welche Risikostufen gibt es bei künstlicher Intelligenz?
Das KI-Gesetz teilt KI-Systeme in vier Risikokategorien ein, mit jeweils unterschiedlichen Regelungen.
Inakzeptables Risiko (KI-Systeme sind verboten)
Wenn ein KI-System eine klare Bedrohung für die Grundrechte und Sicherheit der Bevölkerung darstellt, sind sie verboten. Gemeint sind hier unter anderem Systeme, die ein soziales Scoring durch Unternehmen oder Regierungen ermöglichen, biometrische Fernidentifizierung in öffentlichen Bereichen und emotionale Erkennung am Arbeitsplatz. Diese Verbote treten nicht erst 2026 in Kraft, sondern gelten bereits seit Februar 2025.
Hohes Risiko
Wenn KI-Anwendungen zumindest schwerwiegende Risiken für Sicherheit, Grundrechte oder Gesundheit birgt, gilt sie als hochriskant. Gemeint sind hier KI-Systeme bei der Auswahl von Personal, bei der Kreditvergabe, bei medizinischen Diagnosefragen oder in kritischen Infrastrukturen und in der Strafverfolgung. Solche KI ist nicht verboten, muss aber streng reguliert werden.
Die Anforderungen umfassen unter anderem eine konsequente Protokollierung der Aktivitäten sowie eine angemessene menschliche Aufsicht. Außerdem müssen entsprechende Systeme robust und sicher vor Angriffen sein. Die Regeln sollen offiziell ab dem 2. August 2026 gelten, für Medizinprodukte ist jedoch ein längerer Übergangszeitraum bis zum 2. August 2027 vorgesehen.
Transparenzrisiko
Bei diesen KI-Systemen ist Transparenz entscheidend, damit der Nutzer informationsbasierte Entscheidungen treffen kann. Hierzu gehören KI-generierte Inhalte, biometrische Systeme und Chatbots. Die Pflichten umfassen hier die Offenlegungs- und Kennzeichnungspflichten, ein Verbot gibt es nicht.
Minimales oder fehlendes Risiko
Die meisten alltäglichen KI-Anwendungen fallen in diese Kategorie. Gemeint sind etwa künstliche Intelligenzen in Spielen, Spamfilter mit KI-Steuerung oder Empfehlungssysteme beim Einkaufen. Für solche Systeme gelten keine spezifischen Verpflichtungen, Unternehmen können aber freiwillige Regulierungsmaßnahmen ergreifen.
Potenzielle Verschiebung durch die Industrie gewünscht
Obwohl der Zeitplan die Aktivierung der meisten Regeln ab dem 2. August 2026 vorsieht, gibt es intensive Debatten. Vor allem die Industrie wünscht sich wohl eine Verschiebung für Hochrisiko-KI. Es wird damit argumentiert, dass die harmonisierten technischen Standards noch nicht in Gänze vorliegen. Große Konzerne fordern eine Fristverlängerung bis 2027 oder sogar 2028, um den Unternehmen genug Vorbereitungszeit zu geben.
Seitens der EU-Kommission wurde der sogenannte „digitale Omnibus“ vorgeschlagen, der die Umsetzung des KI-Gesetzes vereinfachen soll. Der Zeitplan soll dementsprechend angepasst werden und die Hochrisikoregeln würden dann erst ein Jahr nach Veröffentlichung der relevanten Standards in Kraft treten.
Für KMU soll es bezüglich der technischen Dokumentationen ebenfalls Vereinfachungen geben, außerdem soll das EU-Amt gestärkt werden. Auch hier lässt sich eine Analogie zur Glücksspielbranche ziehen, wenn eine zentralere Aufsicht über General-Purpose-KI-Modelle gewünscht ist. Die Glücksspielbranche hat mit der Gemeinsamen Glücksspielbehörde der Länder ebenfalls eine überregulierende Institution geschafft, die das Spiel in ganz Deutschland reguliert.
Wie ausreichend sind die Reformen?
Zur sicheren Anwendung sind KI-Gesetze wichtig, aber reichen die geplanten Reformen? Darüber wird an vielen Stellen diskutiert. Befürworter argumentieren, dass die Umsetzung pragmatisch bleiben muss, um die Wettbewerbsfähigkeit zu erhalten und Innovationen nicht auszubremsen.
Kritiker geben zu bedenken, dass eine Regelverzögerung das Vertrauen in die EU als Vorreiterin der KI-Regulierung schädigen könnte. Es wird betont, dass sich die Behörden und Unternehmen seit Jahren auf das KI-Gesetz vorbereiten konnten und dass eine Verzögerung nicht vertretbar sei.
Wie tauglich die Reformen tatsächlich sind, wird zu hohen Teilen davon abhängen, wann sie umgesetzt werden. Kommt es tatsächlich zu Verzögerungen, wäre das ein erstes Zeichen für die Inkonsequenz seitens der EU.