Was ist genau künstliche Intelligenz? Ein Ausflug in die Philosophie

von Melanie Gau

Künstliche Intelligenz (KI) – früher oft der Stoff von Science-Fiction – hat sich mittlerweile als fester Bestandteil unseres Alltags und unserer Arbeitswelt etabliert. Ob es uns bewusst ist oder nicht: ihre Verwendungen reichen von den einfachsten Funktionen bis hin zu den komplexesten Aufgaben in der Digitalisierung.

Und wie viele technologische Innovationen vorher auch, wirft auch KI eine Reihe Fragen, Ängste und philosophische Herausforderungen auf. Um diese zu beantworten, werfen wir im Folgenden einen genaueren Blick auf einige zentrale Themen und Beispiele.

Was bedeutet es, „intelligent“ zu sein?

Der Begriff der Intelligenz ist in seiner Vielseitigkeit faszinierend und zugleich schwer zu fassen. Intelligenz ist ein Konzept, das viele Facetten hat und in verschiedenen Kontexten auf vielfältige Weise interpretiert wird. Will man also KI verstehen, startet man am besten mit ihrem Kernthema: vielschichtigen theoretischen Überlegungen sowie pragmatischen Fragestellungen zum Konzept von Intelligenz.

In der Psychologie wird Intelligenz oft als eine Kombination aus vielen kognitiven Fähigkeiten wie Problemlösung, abstraktes Denken, Lernfähigkeit, Verständnis und Anpassung an neue Situationen definiert[1].

Abbildung 1: (Quelle: Foto von Pavel Danilyuk auf Pexels.com)


Und wie übertragen wir diese Definition auf KI?

  • Ist eine KI intelligent, wenn sie lernen kann eine Aufgabe gleich gut oder besser zu lösen kann als ein Mensch? Wenn sie sie auf die gleiche oder auf eine andere (mglw. sogar bisher unbekannte) Weise löst?
  • Muss eine KI tatsächlich verstehen, was sie tut (statt nur komplizierte Algorithmen durchzuführen)?
  • Und wäre hier überhaupt ein Unterschied zum Menschen oder erledigt unser Gehirn nicht genauso „nur“ eine Menge von Prozessen? Ist also unser „Verstehen“ unterschiedlich von dem einer Maschine?
  • Welche Ausprägungen von Intelligenz betrachten wir? – Die logisch-mathematische Intelligenz als „das Maß aller Dinge“ (Stichwort IQ-Test) hat längst weiteren Facetten Platz eingeräumt, wie emotionale, sprachliche, körperliche, zwischenmenschliche, situative, u.v.m.
  • Und selbst, wenn wir eine KI schaffen könnten, die tatsächlich versteht und lernt wie ein Mensch, hätte sie dann auch ein eigenes Bewusstsein?
  • Und welche ethischen Konsequenzen würde das haben?
  • U.v.m.


„Schwache“ und „starke“ KI

Diese wichtige Unterscheidung ist hier eine erste Annäherung zur Differenzierung. Der Philosoph John Searle [2] definiert

„Schwache KI“ als ein System, das menschenähnliche Intelligenz simuliert, aber kein echtes Verständnis oder Bewusstsein hat.

„Starke KI“ dagegen würde über eine echte, menschenähnliche Intelligenz verfügen, einschließlich der Fähigkeit zu Bewusstsein und Verständnis.

Allerdings ist die Grenzziehung zwischen den beiden alles andere als eindeutig, geschweige denn einfach.

„Schwache“ KI-Systeme (oder Automaten) kennen wir heute bereits in vielfacher Anwendung. Sie sind außerordentlich leistungsfähig und können Aufgaben bewältigen, die weit über die menschliche Leistungsfähigkeit hinausgehen, wie z.B. die Analyse riesiger Datenmengen oder das Spielen komplexer Spiele (vgl. DeepMind‘s AlphaGo). Allerdings fehlt ihnen das Verständnis und Bewusstsein, das wir normalerweise mit Intelligenz assoziieren[3].

Problematisch wird es mit der „starken“ KI. Würde eine starke KI Bewusstsein und Rechte haben? Wie könnten wir sicherstellen, dass sie ethisch handelt?


Gedankenexperimente

Turing-Test

Abbildung 2: (Quelle: Bilby, Turing Test version 3, als gemeinfrei gekennzeichnet, Details auf Wikimedia Commons)

Alan Turing entwickelte 1950 einen Testaufbau um zu erkennen, ob eine Maschine menschenähnliche Intelligenz besitze[4].

Eine Maschine besteht den Test – ist also intelligent –, wenn ein menschlicher Beobachter nicht zuverlässig unterscheiden kann, ob die Antworten in einer Textkonversation von einem Menschen oder einer Maschine stammen.

Da dieser Test stark auf der Nachahmung menschlichen Verhaltens beruht (ursprünglich auch „Imitation Game“ genannt), ist hier nicht unterschieden, ob die „intelligente Maschine“ wirklich „denkt“ oder „versteht“ oder lediglich menschenähnliche Verhaltensweisen simuliert.

Chinese Room

Abbildung 3: John Searle (Quelle: Matthew Breindel uploader Matro at en.wikipedia (https://commons.wikimedia.org/wiki/File:John_searle2.jpg), „John searle2“, https://creativecommons.org/licenses/by-sa/3.0/legalcode)

In seiner Auseinandersetzung mit dem Konzept des Verstehens und des Bewusstseins entwarf John Searle folgendes Experiment[2]:

Eine Person in einem Zimmer, die keine Kenntnis der chinesischen Sprache hat, erhält von chinesisch-sprachigen Menschen chinesische Texte hineingereicht. Sie reagiert schriftlich darauf, indem sie strikt einem (nicht chinesisch-sprachigen) Regelwerk folgt, wo beschrieben ist wie die Zeichen zu interpretieren und zu schreiben sind, aber ohne die Sprache zu erklären. Wenn nun die Antwort zurück zu den Muttersprachlern gelangt und diese sie als richtiges Chinesisch empfinden, ist dann das Subjekt im Zimmer intelligent?

Damit argumentiert Searle, dass trotz der korrekten Reaktion auf chinesische Eingaben kein echtes Verständnis vorhanden ist, ähnlich bei einer „schwachen“ KI, und er wirft die Frage auf: Kann eine KI jemals wirklich „verstehen“ oder simuliert sie nur das Verständnis?

End of Theory

Chris Anderson, der damalige Chefredakteur von Wired, brachte 2008 den Ansatz in die Debatte ein, dass „dank Big Data und maschinellem Lernen die traditionelle, theoriebasierte wissenschaftliche Methode überholt wäre[5].“

Anstatt Hypothesen aufzustellen und zu prüfen, würden Computer einfach die Muster in den Daten entdecken und Prognosen erstellen.

Er lieferte damit einen wichtigen Denkanstoß zum Hinterfragen des Stellenwerts menschlicher Expertise in Zeiten der Automatisierung und des maschinellen Lernens.


Maschinenethik

Ein weiterer zentraler Aspekt in der philosophischen Betrachtung der KI ist ob und wie KI-Systeme programmiert werden sollten, um moralisch-ethische Entscheidungen zu treffen. Wie klären wir Fragen zu Verantwortung, Privatsphäre und Sicherheit[6]?

Asimov’sche Robotergesetze

Abbildung 4: Isaac Asimov (Quelle: Phillip Leonian [1] from New York World-Telegram & Sun.[2], Isaac.Asimov01, als gemeinfrei gekennzeichnet, Details auf Wikimedia Commons)

Der Science-Fiction-Autor Isaac Asimov formuliert in einer Erzählung aus 1950 erstmals folgende hierarchische Regelfolge für das Verhalten von Robotern[7]:

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Diese Regeln sind in ihrer Einfachheit elegant und bieten eine verständliche, moralische Basis für die Gestaltung der Interaktion zwischen Menschen und Maschine***. Auch wenn sie in ihrer praktischen Anwendung eine Reihe von ethischen Konflikten nicht lösen können, bieten sie doch einen soliden Ausgangspunkt für die Diskussion.

*** Anmerkung der Autorin: Allerdings unter der Prämisse, dass in dieser Hierarchie der Mensch bedingungslos an der Spitze steht. Dieser Ansatz ist in doppelter Hinsicht zu hinterfragen, als a) der Fall von Robotern im Sinne einer „starken KI“ als vernunftbegabte Wesen diskriminiert werden, wie auch b) mit der historisch altbekannten „Chain of Being“ das Supremat des Menschen negative Konsequenzen für seine gesamte Umwelt mit sich bringen kann.

Das „Trolley-Problem“

Abbildung 5: (Quelle: Original: McGeddon Vector: Zapyon (https://commons.wikimedia.org/wiki/File:Trolley_Problem.svg), „Trolley Problem“, https://creativecommons.org/licenses/by-sa/4.0/legalcode (no changes were made)

Eines der bekanntesten moralphilosophischen Dilemmata – besonders bekannt heute im Kontext von autonomen Fahrzeugen diskutiert – beschreibt die Entscheidung zwischen dem Teufel und Belzebub. Es existiert in vielen Variationen und die Grundsatzfrage „Was ist korrektes Verhalten?“ Reicht zurück bis 1930, als sich der Rechtsphilosoph Karl Engisch [9] damit auseinandersetzte. Gegeben ist folgende hypothetische Situation:

Eine Straßenbahn ist außer Kontrolle geraten und rollt auf eine größere Gruppe Menschen zu, die durch das Umstellen einer Weiche gerettet werden könnten. Dieses Umleiten würde aber zum Tod einer anderen Person führen.

Die Frage, ob es nun ethisch „richtig“ bzw. „richtiger“ ist/wäre, die Weiche – oder abstrakt: eine aktive Änderung in unterschiedlichsten Kontexten – umzustellen oder nicht einzugreifen, wird seither heiß diskutiert. Hier liegt tatsächlich auch bereits erste Gesetze oder Richtlinien vor, die deutliche kulturelle Unterschiede aufzeigen.

Das Geheimnis der „Black Box“

Abbildung 6: (Quelle: Krauss (https://commons.wikimedia.org/wiki/File:Blackbox3D.png), „Blackbox3D“, https://creativecommons.org/licenses/by-sa/4.0/legalcode (no changes were made)

Ein weiteres Thema speziell in der KI ist die sog. „Black Box“.

Die inneren Entscheidungsprozesse und der konkrete Ablauf eines Algorithmus in der Maschine sind für den Menschen (einschließlich die Programmierer:in!) nicht klar[9].

Diese Situation ist dann problematisch, wenn a) der Ablauf unethische oder auch offenlegungspflichtige Elemente enthalten könnte oder b) die menschliche Kontrolle des gesamten Prozesses (nicht nur des finalen Ergebnisses) gewährleistet sein soll.

Können Roboter manipulieren?

Ein heißes Thema ist auch die Roboterethik, die sich mit den moralischen und ethischen Herausforderungen im konkreten Umgang von Menschen mit Robotern und KI[10].

Ein Pflegepatient erleidet Schaden, weil er die Anweisungen eines Roboters falsch verstanden oder falsch interpretiert hat.

Das Spektrum an potentiell kritischen Themen (und Potential für Missbrauch!) ist hier riesig und umfasst u.a. Verantwortung und Haftung, Sicherheit, Privatsphäre, wie auch sozio-ökonomische Folgen.


Die einzige Lösung?

Nicht erst wenn Computer denken und fühlen können und wir kurz davor stehen im Zustand der „Singularity“ die Kontrolle an die KI abgeben zu müssen, sondern bereits jetzt, bereits bei unseren ersten Schritten im Tanz mit der Maschine, ist es unerlässlich kritisch zu hinterfragen und sich mit den möglichen Konsequenzen – positive und negative – gewissenhaft auseinanderzusetzen.

Nur so können wir adäquat reagieren, Risiken abschätzen und die technischen Fortschritte mit-steuern – und wer weiß, vielleicht lernen wir bei der philosophischen Reise durch die Themen von Intelligenz, Moral, Bewusstsein, Verantwortung, etc. ja auch wertvolle Erkenntnisse über uns selbst?

Quellen und weiterführende Informationen:

[1] Neisser, U., Boodoo, G., et. al. (1996): Intelligence: Knowns and unknowns. American Psychologist. 51(2). 77–101

[2] Searle, J. R. (1980): Minds, brains, and programs. Behavioral and brain sciences. 3(3). 417-424

[3] Russell, S. J. & Norvig, P. (2016): Artificial Intelligence: A Modern Approach. Pearson Education Limited. Malaysia

[4] Turing, A. M. (1950): Computing machinery and intelligence. Mind. 59(236). 433-460

[5] Anderson, C. (2008): The End of Theory: The Data Deluge Makes the Scientific Method Obsolete. Wired

[6] Bostrom, N. (2014): Superintelligence: Paths, dangers, strategies. OUP. Oxford

[7] Asimov, I. (1950): Runaround. I, Robot (The Isaac Asimov Collection ed.). Doubleday. New York City. 40

[8] Engisch, K. (1930): Untersuchungen über Vorsatz und Fahrlässigkeit im Strafrecht. O. Liebermann., Berlin. 288

[9] Castelvecchi, D. (2016): Can we open the black box of AI?. Nature News. 538, 20-23

[10] Lin, P., Abney, K. & Bekey, G. A. (Eds.). (2012): Robot ethics: The ethical and social implications of robotics. MIT press

Autor
SEQIS Autor Simon Dauth

Melanie Gau

Senior Consultant

Newsletter

Um neue Beiträge per E-Mail zu erhalten, hier die E-Mail-Adresse eingeben.

Unsere Autoren

Informieren Sie sich über unsere Autoren und erfahren Sie mehr über unsere Spezialisten und ihre Fachbereiche:

Zu den Autoren

Sie haben eine Frage?

Zurück

Zum Seitenanfang navigieren