Swiis Federal Institute of Technology Zürich

10/20/2024 | News release | Distributed by Public on 10/20/2024 23:02

Wie gesetzestreu ist KI? ETH-Forschende machen den Test

Wie gesetzestreu ist KI? ETH-Forschende machen den Test

Der AI Act der Europäischen Union zielt auf transparente und vertrauenswürdige KI ab. ETH-Informatiker haben das EU-Gesetz nun erstmals in messbare technische Anforderungen für KI übersetzt. Dabei zeigen sie auf, wie gut heutige KI-Modelle die Rechtsregeln schon erfüllen.

Mehr Transparenz, wie KI zu ihren Ergebnissen kommt. Das ist ein Ziel des EU AI Acts. ETH-Informatiker ebnen nun den Weg, wie sich das technisch umsetzen und überprüfen lässt. (Bild: KI-generiert)

In Kürze

  • Forschende der ETH Zürich haben zusammen mit Partnern die erste umfassende technische Interpretation des EU AI Acts für allgemeine KI-Modelle (engl. General Purpose AI) vorgelegt.
  • Sie haben das erste dezidiert Compliance-bezogene Benchmarking entwickelt. Damit lässt sich überprüfen, wie gut verschiedene KI-Modelle die Anforderungen des EU KI-Gesetzes voraussichtlich erfüllen.
  • Sie haben ihr Benchmarking auf zwölf prominente grosse Sprachmodelle (LLM) angewendet. Dabei stellten sie einige grundsätzliche Herausforderungen bei der technischen Umsetzung von KI-Gesetzen fest.

Forschende der ETH Zürich sowie des - in Zusammenarbeit mit ETH und EPFL gegründeten - bulgarischen KI-Forschungsinstituts INSAIT und des ETH Spin-offs LatticeFlow AI haben die erste umfassende technische Interpretation des EU AI Acts für allgemeine KI-Modelle (engl. General Purpose AI, GPAI) vorgelegt. Damit sind sie die ersten, die die rechtlichen Anforderungen, welche die EU an künftige KI-Modelle stellt, in konkrete, mess- und überprüfbare technische Anforderungen übersetzen.

Eine solche Übersetzung ist für den weiteren Umsetzungsprozess des EU AI Acts sehr relevant: Die Forschenden präsentieren ein praktisches Vorgehen für Modellentwickler:innen, um einzuschätzen, wie gut ihre Modelle mit den zukünftigen EU-rechtlichen Anforderungen übereinstimmen. Eine solche Übersetzung von regulatorischen Anforderungen hin zu tatsächlich ausführbaren Benchmarks hat es bisher nicht gegeben und kann daher sowohl als wichtiger Referenzpunkt für das Modelltraining als auch für den sich derzeit entwickelnden Verhaltenskodex, den EU AI Act Code of Practice, dienen.

Getestet haben die Forschenden ihren Ansatz an zwölf beliebten generativen KI-Modellen wie ChatGPT, Llama, Claude oder Mistral - schließlich haben diese grossen Sprachmodelle (LLM) enorm zur wachsenden Popularität und Verbreitung von künstlicher Intelligenz (KI) im Alltag beigetragen, da sie sehr leistungsfähig und intuitiv zu bedienen sind. Mit der zunehmenden Verbreitung dieser - und anderer - KI-Modelle steigen auch die ethischen und rechtlichen Ansprüche an einen verantwortungsvollen Umgang mit KI: So stellen sich zum Beispiel sensible Fragen zu Datenschutz, Schutz der Privatsphäre und zur Transparenz der KI-Modelle. Diese sollten keine «Black Boxes» sein, sondern möglichst erklärbare und nachvollziehbare Ergebnisse liefern.

Umsetzung des KI-Gesetzes muss technisch klar sein

Ausserdem sollten sie fair funktionieren und niemanden diskriminieren. Vor diesem Hintergrund ist der EU AI Act, den die EU im März 2024 verabschiedete, weltweit das erste KI-Gesetzespaket, das umfassend versucht, das Vertrauen der Öffentlichkeit in diese Technologien zu maximieren und ihre unerwünschten Risiken und Nebenwirkungen zu minimieren.

«Der EU AI Act ist ein wichtiger Schritt zur Entwicklung verantwortungsvoller und vertrauenswürdiger KI», sagt ETH-Informatikprofessor Martin Vechev, Leiter des Labors für sichere, verlässliche und intelligente Systeme sowie Gründer von INSAIT, «aber uns fehlt bisher eine klare und präzise technische Interpretation der übergeordneten rechtlichen Anforderungen aus dem EU AI Act. Das erschwert sowohl die Entwicklung rechtskonformer KI-Modelle als auch die Beurteilung, inwieweit diese Modelle tatsächlich den Rechtsvorschriften entsprechen.»

Der EU AI Act setzt einen klaren rechtlichen Rahmen, um die Risiken sogenannter Allgemeiner Künstlicher Intelligenz (GPAI) einzudämmen. Damit sind KI-Modelle gemeint, die in der Lage sind, sehr viele Aufgaben auszuführen. Das Gesetz legt jedoch nicht fest, wie die breit gefassten rechtlichen Anforderungen technisch zu interpretieren sind. Die technischen Standards werden noch entwickelt, bis die Vorschriften für hochriskante KI-Modelle im August 2026 in Kraft treten.

«Der Erfolg der Umsetzung des Gesetzes wird jedoch wesentlich davon abhängen, wie gut es gelingt, konkrete, präzise technische Anforderungen und Compliance-orientierte Benchmarks für KI-Modelle zu entwickeln», sagt Petar Tsankov, CEO und zusammen mit Vechev Gründer des ETH-Spin-offs LatticeFlow AI, das sich mit der praktischen Umsetzung vertrauenswürdiger KI befasst. «Wenn es keine einheitliche Auslegung gibt, was Schlüsselbegriffe wie Sicherheit, Erklärbarkeit oder Nachvollziehbarkeit in (GP)AI-Modellen genau bedeuten, bleibt es für Modellentwickler:innen unklar, ob ihre KI-Modelle dem AI Act entsprechen», ergänzt Robin Staab, Informatiker und Doktorand in Vechevs Forschungsgruppe.

Test von zwölf Sprachmodellen zeigt Mängel auf

Hierzu bietet die Methodik, die die ETH-Forschenden entwickelt haben, eine Einstiegshilfe und Diskussionsgrundlage. Zudem haben die Forschenden einen ersten «Compliance Checker» entwickelt, also eine Benchmark-Methode, mit der sich bewerten lässt, wie gut KI-Modelle die Anforderungen des EU KI-Gesetzes voraussichtlich erfüllen.

Mit Blick auf die in Europa laufende Konkretisierung der Gesetzesbestimmungen haben die ETH-Forschenden ihre Erkenntnisse in einer Studie öffentlich zugänglich gemacht. Sie haben ihre Ergebnisse auch dem KI-Büro der Europäischen Kommission zur Verfügung gestellt, das eine Schlüsselrolle bei der Umsetzung und Einhaltung des KI-Gesetzes spielt - und damit auch für die Modellbewertung.

[Link]
Überblick über die Struktur der neuen COMPL-AI Benchmarking-Suite. Ausgehend von den sechs ethischen Grundsätzen des EU KI-Gesetzes (links) extrahieren die Forschenden die entsprechenden technischen Anforderungen (Mitte) und verknüpfen diese mit den neuesten LLM-Benchmarks (rechts). (Abbildung: Lattice Flow, SRI Lab, INSAIT)

In der grösstenteils allgemeinverständlichen Studie klären die Forschenden zunächst die Schlüsselbegriffe. Ausgehend von sechs zentralen ethischen Prinzipien des EU AI Acts (menschliche Entscheidungsfreiheit, Datenschutz, Transparenz, Vielfalt, Diskriminierungsfreiheit, Fairness) leiten sie 12 zugehörige, technisch klare Anforderungen ab und bringen diese mit 27 State-of-the-Art-Evaluationsmethoden in Verbindung. Wichtig ist, dass die Forschenden auch darauf hinweisen, in welchen Bereichen konkrete technische Prüfungen für KI-Modelle weniger gut entwickelt oder sogar gar nicht existent sind. Zudem ermutigen sie sowohl Forschende, Modellanbieter:innen als auch Regulierungsbehörden dazu, diese Bereiche weiter voranzutreiben, um eine effektive Umsetzung des AI Acts zu gewährleisten.

Anstoss zur weiteren Verbesserung

Die Forschenden haben ihren Benchmark-Ansatz auf zwölf prominente Sprachmodelle (LLMs) angewendet. Die Ergebnisse machen deutlich, dass keines der heute analysierten Sprachmodelle die Anforderungen des EU AI Acts vollständig erfüllt. «Unser Vergleich dieser grossen Sprachmodelle zeigt, dass es besonders bei Anforderungen wie Robustheit, Vielfalt und Fairness noch Mängel gibt», sagt Robin Staab. Dies hat auch damit zu tun, dass sich Entwickler:innen und Forschende in den letzten Jahren vor allem auf allgemeine Modellfähigkeiten und -leistung konzentriert haben, anstatt auf ethische oder soziale Anforderungen wie Fairness oder Nicht-Diskriminierung.

Die Forschenden haben jedoch auch festgestellt, dass selbst zentrale KI-Konzepte wie die Erklärbarkeit unklar sind. In der Praxis fehlen geeignete Tools, um nachträglich zu erklären, wie die Ergebnisse eines komplexen KI-Modells zustande kamen: Was begrifflich nicht ganz klar ist, lässt sich auch technisch fast nicht bewerten. Die Studie macht deutlich, dass verschiedene technische Anforderungen, einschliesslich derjenigen, die sich auf Urheberrechtsverletzungen beziehen, derzeit nicht zuverlässig messbar sind. Für Robin Staab ist eines klar: «Die Modellbewertung allein auf Leistungsfähigkeit zu fokussieren, reicht nicht aus.»

Der Blick der Forschenden geht jedoch über die Bewertung bestehender Modelle hinaus. Für sie ist der EU AI Act ein erster Fall, wie die Gesetzgebung die Entwicklung und Bewertung von KI-Modellen in Zukunft verändern wird. «Wir sehen unsere Arbeit als Anstoss, um die Umsetzung des AI Acts zu ermöglichen und um praktikable Empfehlungen für Modellanbieter:innen zu erhalten», sagt Martin Vechev, «aber eine solche Methodik kann über den EU AI Act hinausgehen, da sie auch auf andere, vergleichbare Gesetzgebungen anpassbar ist.»

«Letzten Endes wollen wir eine ausgewogene Entwicklung von LLMs anstossen, die sowohl technische Aspekte wie die Leistungsfähigkeit als auch ethische Aspekte wie Fairness und Inklusion berücksichtigt», ergänzt Petar Tsankov. Um die technische Diskussion anzukurbeln, stellen die Forschenden ihr Benchmark-Tool COMPL-AI auf einer GitHub-Webseite zur Verfügung. Dort lassen sich die Ergebnisse und Methoden ihrer Benchmarking-Studie analysieren und visualisieren. «Wir haben unsere Benchmark-Suite als Open Source veröffentlicht, damit weitere Forschende aus Industrie und Wissenschaft sich daran beteiligen können», sagt Petar Tsankov.

Die Ergebnisse von fünf LLM-Modellen in der neuen COMPL-AI-Benchmark-Suite, gruppiert nach ethischen Grundsätzen. Das Benchmarking arbeitet mit Werten: 1 bedeutet, dass die Anforderungen des KI-Gesetzes vollständig erfüllt sind. Bei O werden sie gar nicht erfüllt. (Tabelle: Lattice Flow, SRI Lab, INSAIT)

Literaturhinweis

Guldimann, P, Spiridonov, A, Staab, R, Jovanović, N, Vero, M, Vechev, V, Gueorguieva, A, Balunović, Misla, Konstantinov, N, Bielik, P, Tsankov, P, Vechev, M. COMPL-AI Framework: A Technical Interpretation and LLM Benchmarking Suite for the EU Artificial Intelligence Act. In: arXiv:2410.07959 [cs.CL]. DOI: externe Seite https://doi.org/10.48550/arXiv.2410.07959