Zum Trilog-Ergebnis des AI Act zieht Svenja Hahn (FDP), die für ihre Fraktion Renew Europe das europäische KI Gesetz verhandelt hat, eine gemischte Bilanz:
„In 38 Stunden Verhandlung über drei Tage konnten wir eine massive Überregulierung von KI Innovation verhindern und rechtsstaatliche Prinzipien beim Einsatz von KI in der Strafverfolgung verankern. Ich hätte mir mehr Freude an Innovation und noch stärkere Bekenntnisse zu Bürgerrechten gewünscht.“
Hahn bedauert sehr, dass keine Mehrheit für ein vollständiges Verbot biometrischer Echtzeit-Identifizierung erreichbar war, betont aber, dass biometrische Massenüberwachung verhindert wurde:
„Uns ist es gelungen, die biometrische Massenüberwachung zu verhindern. Trotz hartem Kampf über mehrere Verhandlungstage war kein vollständiges Verbot der biometrischen Echtzeit-Identifizierung gegen den massiven Gegenwind der Mitgliedsländer erreichbar. Diese wollten biometrische Überwachung möglichst unreguliert einsetzen, nur die deutsche Bundesregierung hatte ein Verbot gefordert. Wir konnten entscheidende rechtsstaatliche Hürden einziehen, nach denen die Technologie nur zur gezielten Identifizierung von explizit wegen der Ausübung sehr schwerwiegender Verbrechen konkret gesuchter Personen eingesetzt werden darf. Dazu gehören etwa Entführung oder Vergewaltigung. Auch Opfer schwerer Straftaten und Vermisste kann man gezielt suchen. Keinerlei andere Personen dürfen biometrisch identifiziert werden.“
Die Regelung für General Purpose AI (GPAI) enthält für Hahn Licht und Schatten:
„Wir konnten eine pauschale Hochrisiko-Einstufung von GPAI Systemen verhindern und schaffen klare Verantwortung entlang der Wertschöpfungskette. Das ist ein extrem wichtiger Erfolg für europäische Unternehmen, um sichere Systeme bauen zu können und nicht auf den Compliance-Kosten sitzen zu bleiben oder verantwortlich für Fehlfunktionen von GPAI-Systemen zu sein. Vor allem kleinere und mittlere Unternehmen, die GPAI-Systeme wie Chat GPT in eigene Systeme integrieren, werden massiv regulatorisch entlastet. Die geplante Regulierung von GPAI-Modellen, auch Foundation Models genannt, könnte ausbalancierter sein. Da es keine Mehrheit für eine Selbstregulierung gab, ist eine zweistufige Lösung für GPAI Modelle sinnvoller als pauschal hohe Auflagen für alle Modelle. Eine Vielzahl der Anforderungen wird nur für die wirkmächtigen Modelle gelten, dieAnforderungen an das untere Level sind aber zu umfangreich und unnötig bürokratisch. Ein Code of Practice als Übergangslösung bis Standards vorliegen, kann es vor allem für kleine und mittelständische Unternehmen einfacher machen, gesetzeskonform zu sein. Denn die Alternative einer Konformitätsprüfung kann schnell kostspielig werden. Dieser Code of Practice muss nun zügig entwickelt werden.“
Hahn prognostiziert:
„Dieser politische Deal muss technisch noch nachgeschärft werden. Wir müssen die Trilog-Vereinbarungen bezüglich Bürgerrechte, Innovation und Rechtssicherheit sehr kritisch auf Herz und Nieren prüfen. Davon wird abhängen, ob der AI Act am Ende zustimmungsfähig ist.“