Stockholm/London (Reuters) - Seit der Vorstellung von ChatGPT im November 2022 überschlagen sich beim Thema Künstliche Intelligenz (KI) die Ereignisse: Fast täglich stellen große und kleine Unternehmen neue Anwendungen vor.

Dies wirft die Bemühungen der EU, der neuen Technologie einen Rechtsrahmen zu geben, teilweise über den Haufen. "Die Geschwindigkeit, mit der neue Systeme auf den Markt kommen, macht die Regulierung zu einer echten Herausforderung", sagt Daniel Leufer, Analyst der Datenschutz-Gruppe Access Now. "Aber es gibt Punkte, die trotz der rasanten Entwicklung relevant bleiben: Transparenz, Qualitätskontrolle und Durchsetzung von Grundrechten."

Die EU-Kommission hatte bereits vor zwei Jahren einen ersten Gesetz-Entwurf vorgelegt, um Bürger vor den Risiken von KI zu schützen. Wegen der rasanten Entwicklung dieser Technologie in den vergangenen Monaten platzten allerdings die Hoffnungen auf einen Kompromiss, der in den Trilog eingebracht werden kann. Dieser Begriff bezeichnet die Verhandlungen zwischen Kommission, Parlament und Mitgliedsstaaten. Erst nach einer Einigung hier kann ein EU-Gesetz in Kraft treten.

DER TEUFEL STECKT IM DETAIL

Bei ihrer Sitzung am 13. Februar bissen sich Parlamentarier an diversen Aspekten des "AI Act" fest, berichten mehrere Teilnehmer des Treffens. Inzwischen liegen 3000 Änderungsanträge vor. Zusätzlich verkompliziert werde das Verfahren durch die Einbindung zahlreicher Ausschüsse, erläutert Brando Benifei, italienischer EU-Parlamentarier und einer der beiden Verhandlungsführer. "Man muss jedes Mal mit etwa 20 Abgeordneten sprechen."

Ohnehin steht die Politik vor einem Drahtseilakt: Sie will auf der einen Seite Innovationen fördern und gleichzeitig fundamentale Bürgerrechte schützen. Beispielsweise gibt es Systeme, die die Rückfall-Wahrscheinlichkeit von Straftätern kalkulieren oder anhand von Stimmenaufnahmen die Herkunft von Migranten ohne Papiere erkennen sollen. Wenn die richtige Balance gelinge, könne die EU zu einem attraktiven Standort für diesen Sektor werden, verspricht die EU-Parlamentarierin Svenja Hahn von der FDP.

Aus diesem Grund sollen KI-Anwendungen in unterschiedliche Risiko-Gruppen von "Minimal" über "Hoch" bis "Inakzeptabel" eingestuft werden. Dabei würden selbst Hochrisiko-Programme nicht verboten, erläutert Sergey Lagodinsky, EU-Abgeordneter von Bündnis 90/Die Grünen. "Sie werden aber mit höheren Anforderungen an Transparenz belegt."

CHATGPT & CO SCHAFFEN NEUE PROBLEME

Unberücksichtigt blieb bislang allerdings der recht neue Bereich sogenannter Generativer KI a la ChatGPT. Daher schufen die Parlamentarier für diese Art von Software, die unter anderem anhand weniger Stichworte komplette Texte oder Bilder erstellen kann, eine eigene Kategorie - General Purpose AI Systems (GPAIS). Es ist aber unklar, in welche Risikoklasse diese Programme fallen. Von ChatGPT & Co erstellte Texte lassen sich als solche kaum erkennen. Außerdem fabriziert die Software manchmal blanken Unsinn. Weil sie darüber hinaus menschliche Interaktion simuliert, kann sie zur Manipulation von Nutzern missbraucht werden.

Da Großkonzerne wie Microsoft, Google oder Meta bereits Milliarden in Generative KI investiert haben, wollen sie eine Einstufung als Hochrisiko-Anwendung verhindern. Ihre internen Richtlinien seien robust genug, um die Sicherheit der Nutzer zu garantieren.

"Die Schaffung eines regulatorischen Rahmens für GPAIS muss ein inklusiver Prozess sein", betont Alexandra Belias, Chef-Lobbyistin von Googles KI-Tochter DeepMind. "Alle betroffenen Gruppen und die Zivilgesellschaft sollten einbezogen werden." Denn die Regeln sollten auch in der Zukunft greifen. Zu diesem Zweck soll der "AI Act" Parlamentariern zufolge in regelmäßigen Abständen überprüft und bei Bedarf angepasst werden.

GESETZGEBUNG UNTER ZEITDRUCK

Bei aller Komplexität des Themas sitzt der Politik auch noch die Zeit im Nacken. Ursprünglich sollte das Gesetz Ende diesen Jahres verabschiedet werden. Nach der geplatzten Einigung bei der Sitzung vom Februar scheint dieser Termin aber nicht mehr haltbar.

Gleichzeitig steigt wegen der 2024 anstehenden Europa-Wahlen der Druck, noch vor diesem Termin zu einer Einigung zu kommen. Dies dürfe aber nicht zu Lasten der Sorgfalt gehen, mahnt Datenschutz-Experte Leufer. "Es dürfen keine Kompromisse gemacht werden, nur damit die Akte vor Jahresende geschlossen werden kann. Die Rechte der Menschen stehen auf dem Spiel."

(geschrieben von Hakan Ersen, redigiert von Ralf Banser. Bei Rückfragen wenden Sie sich bitte an unsere Redaktion unter berlin.newsroom@thomsonreuters.com (für Politik und Konjunktur) oder frankfurt.newsroom@thomsonreuters.com (für Unternehmen und Märkte).)

- von Supantha Mukherjee und Martin Coulter