Die Konvergenz von KI-Ethik und dem AI Act: Von der Abstraktion zur Anwendung
von Alexander Lewisch
Die Konvergenz von KI-Ethik und dem AI Act: Von der Abstraktion zur Anwendung
Der EU AI Act kann als bewusster Versuch gesehen werden, klassische philosophisch-ethische Aspekte in verbindliches Recht zu übersetzen, um AI durch Prinzipien wie Autonomie, Verantwortung und Schadensvermeidung zu regulieren. Obwohl dieser Ansatz dem Gesetz eine starke normative Grundlage verleiht, bleibt die Umsetzung durch juristische Lücken und Konflikte mit bestehenden rechtlichen Regelungen unvollständig.
Ethik kodifizieren und Technologie regulieren - eine doppelte Herausforderung
Einleitung - Das Spannungsfeld von Philosophischer Ethik und Recht
Die rasche Entwicklung und Implementierung Künstlicher Intelligenz (KI) aka Artificial Intelligence (AI) hat die Gesellschaft an einen normativen Scheideweg geführt. Grundlegend operieren Ethik und Recht in unterschiedlichen, wenn auch verbundenen, Sphären. Während die Ethik einen Leitfaden für das liefert, was eine Gesellschaft als „wünschenswert“ oder „richtig“ erachtet, definiert das Recht, was verbindlich und einklagbar ist, gestützt durch Sanktionen. Die jüngste Welle technologischer Innovationen, insbesondere im Bereich der generativen AI, hat die Dringlichkeit einer Konvergenz dieser Sphären dramatisch unterstrichen. Dabei haben nachgewiesene Risiken den Bedarf an strengen Regulierungen und ethischen Praktiken offenkundig gemacht.
Die Europäische Union hat auf diese Herausforderung mit einer Verordnung, dem sogenannten „AI Act“, reagiert und damit das weltweit erste umfassende Rechtsinstrument zur Regulierung von AI geschaffen. Dieses Instrument ist jedoch nicht ex nihilo entstanden, sondern es ist das Resultat eines bewussten politischen Weges, der eine zutiefst philosophisch-ethische Komponente beinhaltet. Das erklärte Ziel der Verordnung ist es, die „Einführung einer menschenzentrierten und vertrauenswürdigen künstlichen Intelligenz“ zu fördern und gleichzeitig ein „hohes Schutzniveau für Gesundheit, Sicherheit und Grundrechte” zu gewährleisten.1
Der italienische Philosoph und Professor für Philosophie und Informationsethik an der University of Oxford Luciano Floridi analysiert diesen regulatorischen Ansatz als inhärent europäisch. In seiner Analyse der Gesetzgebung stellt er fest, dass der AI Act den „grundlegenden Ansatz“ der EU-Werte „erbt“. Die Vision, die diesem Ansatz zugrunde liegt, ist unverkennbar: Technologie, einschließlich KI, muss im Dienste der Menschheit, ihrer Werte und Bedürfnisse stehen. Floridi kritisiert zwar den Begriff „menschenzentriert“ als potenziell „veraltete Terminologie“, die anthropozentrische Tendenzen aufweisen könnte, erkennt aber den dahinterliegenden ambitionierten Versuch des AI Acts, eine normative, wertebasierte Vision in bindendes, operationales Recht zu gießen.2
Somit kann der AI Act als juristisches Endprodukt eines nicht nur mehrjährigen, organisierten politischen, sondern auch philosophischen Prozesses verstanden werden. Dieser Prozess begann formell mit der Einsetzung einer unabhängigen hochrangigen Expertengruppe für KI, der “High-Level Expert Group on AI”, kurz HLEG, durch die Europäische Kommission im Jahr 2018.3 Die HLEG legte 2019 ihre Ethik-Leitlinien vor, die als direkte Blaupause für den Gesetzesvorschlag der Kommission von 2021 und die finale Verordnung von 2024 dienten. Diese Pfadabhängigkeit von der Ethik zum Recht ist zugleich die größte Stärke und die größte Schwäche des AI Acts. Sie ist eine Stärke, da sie dem Gesetz eine kohärente normative Grundlage verleiht, die in den europäischen Grundwerten verankert ist. Sie ist jedoch auch eine potenzielle Schwäche, da der AI Act nun daran gemessen wird, ob seine juristischen Mechanismen, wie bspw. in Artikel 14 “zur menschlichen Aufsicht”, die hohen ethischen Ziele tatsächlich erreichen können, oder ob sie im regulatorischen Vollzug zur bürokratischen Bedeutungslosigkeit verkommen.
Philosophische Ethik und ihre Relevanz für AI
Die Debatte über AI-Ethik kann im Kern als eine Anwendung klassischer philosophischer Theorien auf neue technologische Gegebenheiten verstanden werden. Der AI Act und die ihm vorangegangenen Ethik-Leitlinien sind tief in den klassischen Theorien philosophischer Traditionen (Tugendethik, Deontologie und Utilitarismus) verwurzelt.
Tugendethik und Verantwortung
Die aristotelische Tugendethik argumentiert, dass Ethik eine Frage des Charakters und der praktischen Weisheit des Handelnden ist. Eine dementsprechende AI-Entwicklung erfordert strukturierte ethische Überlegungen. Der AI Act erzwingt solche tugendethischen Prozesse, indem er beispielsweise Risikomanagement und Qualitätsmanagement vorschreibt, die über den gesamten Lebenszyklus des KI-Systems aufrechterhalten werden müssen. Hierzu lieferte die bekannte Publizistin Hannah Arendt in ihrem Werk “Eichmann in Jerusalem: Ein Bericht von der Banalität des Bösen” (1964)4 eine eindringliche Warnung, warum eine institutionalisierte Verantwortungsethik notwendig ist. Ihre Analyse der „Banalität des Bösen“ zeigt die Verantwortungslosigkeit, die entsteht, wenn Individuen ihre moralische Urteilskraft an bürokratische Prozesse delegieren und ihre persönliche Verantwortung nicht wahrnehmen. Arendt sieht in der individuellen Verantwortung das zentrale Kriterium für die Bewahrung der Urteilsfähigkeit.
Die größte „banale“ Gefahr bei der Anwendung von KI ist der „Automation Bias“, die unkritische Übernahme von algorithmischen Empfehlungen. Hierfür liefert Arendt die philosophische Begründung, warum die „Menschliche Aufsicht“ gemäß Artikel 14 des AI Acts so entscheidend ist. Artikel 14 ist der juristische Abwehrmechanismus gegen die „Banalität des Algorithmus“, indem er dem Menschen explizit die Fähigkeit und die Pflicht zuweist, die Ausgabe des Systems zu ignorieren, abzuändern oder umzukehren, und somit zum Instrument der Rückforderung der persönlichen Verantwortung fungiert.
Deontologie und Autonomie
Die europäische Grundrechtstradition, die im AI Act eine zentrale Rolle einnimmt, ist ohne die deontologische Ethik Immanuel Kants kaum denkbar. Im Zentrum der kantischen Deontologie steht nicht der Nutzen einer Handlung, sondern die Pflicht, die sich aus der Vernunft ergibt. Das höchste Prinzip dieser Ethik ist die Autonomie des Willens. Kant nennt dies „das alleinige Prinzip der Moral“ (Kant, GMS, S. 67).5 Aus dieser Autonomie leitet Kant die „Selbstzweckformel“ des Kategorischen Imperativs (Kant, GMS, S. 36ff) ab, die gebietet, die Menschheit, sowohl in der eigenen Person als auch in der Person eines jeden anderen, „jederzeit zugleich als Zweck, niemals bloß als Mittel“ zu gebrauchen.6 Die HLEG-Leitlinien spiegeln diesen Gedanken direkt wider, wenn sie betonen, dass der „Respekt vor der Menschenwürde“ erfordert, dass Menschen „niemals bloß als Objekte (...) sortiert, bewertet, (...) oder manipuliert werden“.7
Die Verbote in Artikel 5 des AI Acts sind ein direktes juristisches Abbild dieser kantischen Ethik. Das Verbot von KI-Systemen, die subliminale oder manipulative Techniken einsetzen, oder das Verbot von „Social Scoring“, ist nicht primär utilitaristisch begründet. Diese Systeme werden nicht verboten, weil sie mehr schaden als nutzen, sondern weil sie, im Sinne Kants, per se die Autonomie und menschliche Würde verletzen und Menschen bloß als Mittel zum Zweck sehen, d.h. zur Erreichung eines externen Ziels, wie etwa die Steuerung des Verhaltens oder soziale Konformität.
Konsequentialismus und Schadensvermeidung
Während die kantische Deontologie die absoluten Verbote des AI Acts erklärt, liefert der Konsequentialismus, insbesondere der Utilitarismus von Jeremy Bentham oder John Stuart Mill, die philosophische Blaupause für den regulativen Teil des Gesetzes, d.h. den risikobasierten Ansatz. Der Konsequentialismus bewertet die Moral einer Handlung anhand ihrer Folgen. John Stuart Mills „Harm Principle“ (Schädigungsprinzip), dargelegt in seinem Werk “Über die Freiheit”8, besagt: „Dieses Prinzip lautet, dass der einzige Zweck, der die Menschheit berechtigt, vereinzelt oder vereinigt, jemandes Handlungsfreiheit zu beeinträchtigen, der Selbstschutz ist; dass der einzige Zweck, der rechtfertigt, Macht über irgendein Mitglied einer zivilisierten Gemeinschaft gegen seinen Willen auszuüben, der ist, die Schädigung anderer zu verhüten. Sein eigenes Wohl, das leibliche wie das moralische, ist kein ausreichender Grund dafür“ (Mill, 1859, S. 316).
Das besagte Schädigungsprinzip ist durch den vierstufigen, risikobasierten Ansatz des AI Acts präzise operationalisiert:
- Mills Libertarismus (Keine Intervention): Der letzte Teil des oben genannten Zitats zeigt, dass das eigene Wohl also kein ausreichender Grund für eine Beschränkung ist. Dies entspricht den Kategorien für KI-Systeme, die laut AI Act nur ein minimales oder gar kein Risiko aufweisen und weitgehend unreguliert sind. Hier überwiegt die Freiheit der Innovation.
- Mills Schadensprinzip (Intervention): Das Zitat beinhaltet auch das Recht einer Gesellschaft, eines Staates oder wie es Mill nennt, einer zivilisierten Gemeinschaft, einzugreifen, um die Schädigung anderer abzuwenden. Dies entspricht den regulierten Kategorien des AI Acts. Sobald ein KI-System „ernsthafte Risiken für die Gesundheit, Sicherheit oder Grundrechte“ Dritter darstellt, wird es als „Hochrisiko-System“ (High-Risk) eingestuft und strengen Verpflichtungen unterworfen. Der AI Act ist in diesem Sinne eine Verordnung, die sicherstellt, dass KI Sicherheit, Gesundheit und Grundrechte wahrt.
Die Entwicklung europäischer KI-Ethik-Leitlinien
Der AI Act ist, wie in der Einleitung dargelegt, das Endprodukt eines Prozesses, der mit ethischen Überlegungen begann. Die 2018 von der Europäischen Kommission eingesetzte High-Level Expert Group on AI (HLEG) hatte den Auftrag, einen ethischen Rahmen für die KI-Entwicklung in Europa zu definieren. Im April 2019 präsentierte die HLEG ihre Ethik-Leitlinien für eine vertrauenswürdige KI. Diese definieren vertrauenswürdige AI als ein System, das drei Komponenten aufweisen muss, die idealerweise in Harmonie zusammenwirken. Die 3 Säulen der HLEG sind9:
- Rechtmäßig (Lawful): Achtung aller geltenden Gesetze und Vorschriften.
- Ethisch (Ethical): Achtung ethischer Prinzipien und Werte.
- Robust (Robust): Sowohl aus technischer als auch aus sozialer Perspektive.
Der AI Act ist die Kodifizierung der ersten Säule (rechtmäßig), die sich jedoch inhaltlich massiv auf die zweite Säule (ethisch) stützt, um die dritte (robust) zu gewährleisten.
Als normatives Fundament identifizierte die HLEG zusätzlich vier ethische Grundsätze10, die auf den diskutierten philosophischen Tra
- Achtung der menschlichen Autonomie
- Schadensvermeidung
- Fairness
- Erklärbarkeit
Der entscheidende Schritt der HLEG war die Übersetzung dieser vier abstrakten Prinzipien in sieben konkrete, operative Schlüsselanforderungen. Diese sieben HLEG-Anforderungen bilden die Blaupause für das Herzstück des AI Acts, d.h. die Verpflichtungen für Hochrisiko-Systeme in Kapitel III. Sie wurden in der „Assessment List for Trustworthy AI (ALTAI)“ operationalisiert, einer praktischen Checkliste für Entwickler und Anwender11. Die Konvergenz von Ethik und Recht wird am deutlichsten, wenn man die sieben HLEG-Anforderungen direkt mit den spezifischen Artikeln des AI Acts für Hochrisiko-Systeme vergleicht (in Klammer). Zu den HLEG-Anforderungen zählen:
- Menschliche Handlungsfähigkeit und Aufsicht
(Artikel 14: Menschliche Aufsicht) - Technische Robustheit und Sicherheit
(Artikel 15: Genauigkeit, Robustheit und Cybersicherheit) - Privatsphäre und Daten-Governance
(Artikel 10: Daten und Data Governance) - Transparenz
(Artikel 13: Transparenz und Bereitstellung von Informationen) - Vielfalt, Nichtdiskriminierung und Fairness
(Artikel 10: Daten und Data Governance) - Gesellschaftliches Wohlergehen und ökologische Nachhaltigkeit
(Artikel 95: Verhaltenskodizes für die freiwillige Anwendung von spezifischen Anforderungen) - Rechenschaftspflicht
(Artikel 11: Technische Dokumentation und Artikel 12: Protokollierung).
Wo das Recht hinter der Ethik zurückbleibt
Der AI Act ist keine perfekte Übersetzung, da in der Transformation von „weicher“ Ethik zu „hartem“ Recht zwangsläufig Spannungen, Lücken und Zielkonflikte entstehen.
Spannungsfeld 1: AI Act vs. DSGVO (Datenschutz-Grundverordnung)
Ein primäres Spannungsfeld und ein fundamentaler Zielkonflikt besteht im Verhältnis zur Datenschutz-Grundverordnung (DSGVO). Das ethische Ziel der „Fairness“ verlangt nach der rechtlichen Pflicht aus Art. 10 AI Act, Voreingenommenheit (Bias) zu erkennen und zu korrigieren. Um jedoch Bias (z. B. aufgrund des Geschlechts oder der ethnischen Herkunft) effektiv zu erkennen, müssen Modelle oft mit sensiblen Daten (gem. Art. 9 DSGVO), die eben diese Merkmale beschreiben, trainiert oder getestet werden.12
Hier kollidiert das ethische Ziel der Fairness (AI Act) frontal mit dem ethischen Ziel des Datenschutzes (DSGVO), das die Verarbeitung solcher Daten grundsätzlich verbietet. Der AI Act versucht diesen Konflikt in Art. 10 Abs. 5 aufzulösen. Er schafft eine streng zweckgebundene Ausnahme, die die Verarbeitung sensibler Daten nur zum Zweck der Bias-Erkennung und Bias-Korrektur erlaubt, und nur, wenn dies unbedingt erforderlich ist und durch strenge technische und organisatorische Maßnahmen (z. B. Pseudonymisierung, Zugriffskontrollen) geschützt wird. Diese Lösung offenbart jedoch eine kritische Lücke, da diese Ausnahme in Art. 10 Abs. 5 ausschließlich für Anbieter von Hochrisiko-KI-Systemen gilt. Sie gilt nicht für Anbieter von General-Purpose AI (GPAI) Modellen oder Systemen mit geringerem Risiko, obwohl auch diese ein Diskriminierungspotenzial aufweisen. Hier bleibt die rechtliche Lösung (AI Act) hinter der ethischen Forderung (Fairness in allen Systemen) signifikant zurück.

Quelle: Bild generiert von Gemini (Google AI)
Spannungsfeld 2: AI Act vs. DSA (Digital Services Act)
Ein weiterer Konflikt entsteht im Zusammenspiel mit dem Digital Services Act (DSA), insbesondere bei der Regulierung von KI-Systemen, die von sehr großen Online-Plattformen eingesetzt werden. Das ethische Prinzip der Rechenschaftspflicht (Accountability) erfordert Auditierbarkeit. Um KI-Systeme auf systemische Risiken zu prüfen, benötigen unabhängige Forscher und die Zivilgesellschaft Zugang zu relevanten Daten. Der DSA erkennt diese Notwendigkeit an und gewährt in Artikel 40 geprüften Forschern explizit einen solchen Datenzugang für die Analyse systemischer Risiken. Der AI Act hingegen, der ebenfalls systemische Risiken, insbesondere durch GPAI, adressiert, enthält keine vergleichbare Bestimmung.13 Dies stellt einen schwerwiegenden Mangel in der Kohärenz der EU-Digitalgesetzgebung dar. Der AI Act behindert hier potenziell die Erreichung seiner eigenen ethischen Ziele, indem er Forschern den Zugang verwehrt, den ein anderes EU-Gesetz (der DSA) bereits als fundamental für die Aufsicht erachtet hat.
Spannungsfeld 3: Operationalisierung von „Accountability“
„Accountability“ (Rechenschaftspflicht) ist ein zentrales ethisches Prinzip. Im AI Act wird es primär durch prozedurale Pflichten durch die Artikel 11 (Technische Dokumentation) und Artikel 12 (Protokollierung) operationalisiert. Anbieter müssen ex ante dokumentieren, wie ihr System konzipiert ist, und ex post sicherstellen, dass sein Betrieb durch „Logs“ nachvollziehbar ist. Kritiker argumentieren jedoch, dass dies „Accountability“ auf eine reine Verfahrensdokumentation reduziert.14
Diese entscheidende Haftungslücke (Liability) sollte durch die „AI Liability Directive“ (KI-Haftungsrichtlinie) geschlossen werden. Dieser Richtlinienentwurf, der darauf abzielte, die Beweislast für Opfer von KI-Schäden zu erleichtern, wurde jedoch von der Europäischen Kommission im Februar 2025 zurückgezogen. Dies hinterlässt die größte Lücke im System. Ohne ein klares Haftungsregime bleibt die Rechenschaftspflicht ein ethisches Postulat ohne die notwendige juristische Macht, um im Schadensfall Gerechtigkeit zu gewährleisten.15
Fazit: Eine verantwortungsvolle Zukunft durch die Symbiose von Ethik und Recht
Der AI Act ist nicht bloß ein weiterer Rechtsakt der Digitalregulierung, sondern er ist durch den ethischen Anspruch auch eine kodifizierte Philosophie, weil er versucht, die normativen Grundlagen der europäischen Ethik in verbindliche, technische und prozessuale Verpflichtungen für Hochrisiko-Systeme zu übersetzen. Ethik und Recht gehen im AI Act insofern Hand in Hand, als die ethischen Leitlinien der HLEG die direkte Vorlage für die juristischen Kernanforderungen in den Artikeln 10-15 lieferten. Während die Ethik für das „Warum“ (z. B. Schutz der Autonomie) sorgt, steuert das Recht „Wie“ (z. B. die menschliche Aufsicht in Artikel 14) bei. Bei aller Zuversicht ist die Symbiose jedoch unvollständig und von Friktionen geprägt. Es verbleiben signifikante Spannungen in der Kohärenz mit bestehendem Recht (DSGVO, DSA). Die schwerwiegendste Lücke klafft jedoch im Bereich der Haftung, da durch das Zurückziehen der KI-Haftungsrichtlinie die Operationalisierung von „Accountability“ auf prozedurale Dokumentation beschränkt bleibt.
Quellen und weiterführende Informationen
[1] European Commission: Excellence and trust in artificial intelligence. In: https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/excellence-and-trust-artificial-intelligence_en
[2] Floridi, Luciano (2021): The European Legislation on AI: A Brief Analysis of its Philosophical Approach. SSRN Electronic Journal. 10.2139/ssrn.3873273.
[3,7] High-Level Expert Group on Artificial Intelligence (2018): Ethics Guidelines for trustworthy AI. In: https://www.aepd.es/sites/default/files/2019-12/ai-ethics-guidelines.pdf
[4] Arendt, Hannah: Eichmann in Jerusalem. Ein Bericht von d. Banalität d. Bösen, Piper, München 1964.
5,6] Kant, Immanuel: Grundlegung zur Metaphysik der Sitten (Vol. 28). L. Heimann, Berlin 1870.
[8] Mill, John Stuart (1859): Über die Freiheit. In: Schefzcyk, Michael & Schmidt-Petri, Christoph (Hg.): John Stuart Mill: Ausgewählte Werke, Band III/1 Freiheit, Fortschritt und die Aufgaben des Staates. Individuum, Moral und Gesellschaft, Wachholtz Verlag, Kiel/Hamburg 2021.
[9,11] European Commission: Ethics guidelines for trustworthy AI. In: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
[10] Peets, Lisa; Hansen, Marty & Choi, Sam Jungyun: EU High-Level Working Group Publishes Ethics Guidelines for Trustworthy AI. In: https://www.covingtondigitalhealth.com/2019/04/eu-high-level-working-group-publishes-ethics-guidelines-for-trustworthy-ai/
[12,13] Hacker, Philipp: Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung. Hrsg. Bertelsmann Stiftung. Gütersloh 2024. In: https://www.bertelsmann-stiftung.de/fileadmin/files/user_upload/AI_Act_im_Spannungsfeld__2024_final.pdf
[14] Oduro, Serena, Moss, Emanuel & Metcalf, Jacob (2022). Obligations to assess: Recent trends in AI accountability regulations. Patterns (New York, N.Y.), 3(11), 100608. https://doi.org/10.1016/j.patter.2022.100608
[15] Gaudszun, Timo; Shin, Jeffrey & Parsons, Natasha: AI Watch: Global regulatory tracker - European Union. In: https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-european-union