KI und Moral – ein Widerspruch?

Ein Artikel von Armin Stenger, Rithy Sombo und Samuel Adejinmi

Uns allen sollte das klassische Beispiel des moralischen Dilemmas bekannt sein: Man steht an einer Weiche und sieht einen Zug auf sich zurollen. Der Zug würde auf seinem Gleis fünf Arbeiter töten, die gerade mit Gleisarbeiten beschäftigt sind. Nun hat man allerdings die Möglichkeit, den Zug durch Verstellen der Weiche auf ein anderes Gleis umzuleiten, allerdings befindet sich auch auf diesem Gleis ein Arbeiter. Lässt man nun also den Zug auf seinem Gleis rollen und schickt fünf Arbeiter in den Tod, oder ändert man die Fahrt des Zuges auf das andere Gleis und schickt den einen Arbeiter ins Jenseits?

 

Nun stellen Sie sich vor, dass Sie am Steuer Ihres Autos sitzen und in eine brenzlige Situation geraten. Sie müssen ausweichen, entweder nach links, oder nach rechts. Wenn Sie nach links ausweichen, töten sie ein kleines Schulkind, das seine Schultüte von der heutigen Einschulung noch in der Hand hält. Wenn sie nach rechts ausweichen, töten Sie eine Gruppe von fünf Rentnern, die mit ihren Rollatoren einen Spaziergang machen. Wie würden Sie sich in einer solchen Situation entscheiden? Könnten Sie überhaupt eine Entscheidung treffen? Und wenn ja, glauben Sie, dass Sie mit Ihrer Entscheidung auch im Nachhinein stets „zufrieden“ wären? Auch hier liegt eine eindeutige moralische Zwickmühle vor, die im Zweifelsfall von verschiedenen Leuten wohl unterschiedlich beantwortet werden würde.

 

Aber gibt es überhaupt ein Richtig und ein Falsch, und wer bestimmt es?

 

Es sind Probleme dieser Natur, die selbst die meisten Menschen vor eine moralische Hürde stellen, was eine Überleitung zu einem Thema aus einem vollkommen anderen Bereich bietet, dem der Künstlichen Intelligenz (KI). Denn mit fortschreitendem Einzug dieser in unseren Alltag und in Bereiche wie autonomes Fahren, Medizin oder Sicherheit werden in (nicht allzu ferner) Zukunft auch Maschinen Problemen gegenüberstehen, bei denen auf eine moralische bzw. ethische Sichtweise kaum verzichtet werden kann.

 

Mittlerweile kann es fast schon als ein althergebrachtes Problem betrachtet werden: Wieviel wollen wir künstlicher Intelligenz zutrauen?

 

——————————————————————————————————————————–

 

Der Theologe Prof. Dr. Dr. Elmar Nasse bringt es eigentlich bereits auf den Punkt:

KI-Logik versteht die Welt, den Menschen, das Zusammen­leben und auch Gott oder Religion als Resul­tate von mathema­tischen Daten und Variablen. „Künst­liche Moral“ wird schon pro­grammiert. Sie ist aber nicht mehr als ein Rechen­spiel, in dem es weder echte Gefühle wie Scham, Schuld, Mit­leid, Empa­thie oder Liebe gibt, erst recht keine echten Werte und kein Mysterium. Schein­bar wissen­schafts­basierte Evidenz ersetzt das krea­tive demo­kratische Streiten ebenso wie einen freien Journa­lismus. Debatte und Moral werden auf Rechen­prozesse redu­ziert, an deren Ende ein Richtig oder Falsch steht. Die Plurali­tät von Moral­vor­stellungen, Meinungen und Religionen wird obsolet, weil uns eine evidente und somit schein­bar beste Vor­stellung von Sinn, Leben und Gerechtig­keit vor­ge­gaukelt wird.

Kurz lässt sich dies insofern zusammenfassen, als dass sich folgende Aussage in Bezug auf KI treffen lässt: Sie besitzt kein Bewusstsein, die Hauptvoraussetzung eines echten, intrinsischen Verständnisses für Moral.

 

Um dies an einem Beispiel zu illustrieren, eignet sich folgendes Gedankenexperiment des Philosophen John Searle:

Das Chinesische Zimmer

Bei dem „chinesischen
Zimmer“ handelt es sich um einen kleinen, fensterlosen Raum, dessen
einzige Verbindung nach außen in einem schmalen Schlitz in der verschlossen Tür
liegt, ähnlich wie bei einem Briefkasten. Außerhalb des Raumes befindet sich
ein chinesischer Muttersprachler, während die Person in dem bereits
beschriebenen Raum nicht der chinesischen Sprache mächtig ist.

 

Im ersten Schritt des Experiments
schreibt die Person außerhalb des Raumes nun ein chinesisches Zeichen („王“), dessen
Bedeutung sie natürlich versteht, auf ein Blatt Papier und schiebt es durch den
Schlitz. Die Person im Raum nimmt das Blatt an, versteht die Bedeutung des
Zeichens jedoch nicht. Das einzige, was die Person nun tun kann, ist, in dem Handbuch
nachzuschlagen, dass ihm zur Verfügung gestellt wurde (siehe Grafik oben), in
welchem die Bedeutung jeweiliger Zeichen zwar nicht gelistet wird, dafür jedoch eine stumpfe Schilderung zu finden ist, mit welchem Zeichen auf welches
Zeichen reagiert werden muss. Gemäß der Grafik oben findet sich beispielhaft unter dem Eintrag „王“ die
Antwort „金“. Die Person im Raum schreibt also das entsprechende Symbol
auf ein Blatt und schiebt es durch den Schlitz wieder nach draußen, wo es
empfangen wird. Der Muttersprachler kommt somit schnell zu dem Schluss, dass sich im Raum ebenfalls eine Chinesisch sprechende Person befinden muss, da eine inhaltlich korrekte Antwort zurückgegeben worden ist.

Fortwährend entsteht auf diese Weise eine „Kommunikation“ zwischen den beiden räumlich getrennten Menschen, wobei jedoch bloß die Person außerhalb des Zimmers den Inhalt der Konversation versteht, während die Person im Raum ausschließlich Instruktionen befolgt, ohne ein BEWUSSTSEIN (Erkennen Sie hier einen Zusammenhang?) für das zu haben, was sie dort eigentlich inhaltlich sendet und empfängt. Der Mensch (symbolisch dargestellt durch den chinesischen Muttersprachler) wird also im Dialog mit Künstlicher Intelligenz  (Person im Raum) davon überzeugt bzw. sogar getäuscht, dass sein „Gegenüber“ über ein tatsächliches Bewusstsein verfügt, wobei dieses eigentlich von einer „leeren Hülle“ simuliert wird.

Schreibe einen Kommentar