Thomas Zoglauer
Ethische Konflikte zwischen Leben und Tod



Vorwort im Buch-Layout herunterladen



Leseprobe im Buch-Layout herunterladen

Ethische Konflikte

 




Vorwort
Wir sind in eine Welt geworfen, in der wir uns nicht immer für das Gute entscheiden können. Manchmal sind wir gezwungen, zwischen zwei Übeln zu wählen. Moralische Dilemmata sind ein unvermeidlicher Bestandteil unseres Lebens und daher auch ein Thema für die philosophische Ethik. Den Schwerpunkt dieses Buchs bildet die Untersuchung von Normenkonflikten, bei denen es um Leben und Tod geht. Das Spektrum der Beispiele reicht von der aktuellen Folterdebatte über die medizinische Ethik und Roboter-Ethik bis zu der Frage, ob und wie in der heutigen Zeit Kriege moralisch gerechtfertigt werden können. Es wird mir nicht gelingen, das Thema vollständig und erschöpfend zu behandeln. Im gegebenen Rahmen können lediglich einzelne Fallbeispiele herausgegriffen werden, um an ihnen die ethische Reflexion und Urteilsbildung zu üben, in der Hoffnung, damit eine Hilfestellung bei der Bewältigung moralischer Konflikte zu bieten.
Dieses Buch wurde nicht mit dem Anspruch einer wissenschaftlichen Monografie verfasst, vielmehr handelt es sich um eine Einführung in das ethische Denken, die keine Fachkenntnisse voraussetzt. Gleichwohl hoffe ich, auch dem philosophisch gebildeten Fachmann neue Einsichten zu vermitteln und Wege zur Lösung von Normenkonflikten aufzeigen zu können. Moralische Dilemmata zeigen die Grenzen ethischer Rationalität auf, indem sie uns bewusst machen, dass nicht jeder Konflikt eindeutig durch die Anwendung universeller Regeln auf Einzelfälle gelöst werden kann.
Einige der in diesem Buch behandelten Beispiele moralischer Dilemmata haben eine große mediale Aufmerksamkeit erfahren und teilweise sehr kontroverse öffentliche Diskussionen hervorgerufen, wie zum Beispiel der Fall Daschner, die Debatte um das Luftsicherheitsgesetz, die aktive Sterbehilfe, Stammzellenforschung, humanitäre Interventionen etc.
In jüngster Zeit wird die Frage diskutiert, wie selbstfahrende Autos programmiert werden sollen, wenn in Gefahrensituationen Menschenleben bedroht sind. Dies zeigt, dass Normenkonflikte uns auch in Zukunft noch beschäftigen werden und kein exotisches Betätigungsfeld für Philosophen darstellen, sondern jeden von uns angehen.

Moralische Dilemmata mit selbstfahrenden Autos
Stellen Sie sich vor, Sie sind mit Ihrem Auto in den Alpen unterwegs, haben gerade einen Pass überwunden und fahren eine enge kurvenreiche Straße den Berg hinab. Nach einer unübersichtlichen Kurve sehen Sie plötzlich mit Schrecken eine Gruppe von fünf Fahrradfahrern, die Ihnen auf ganzer Straßenbreite entgegenkommt. Sie können nicht mehr rechtzeitig bremsen und es gibt keine Möglichkeit, den Radlern auszuweichen: Rechts erhebt sich eine massive Bergwand und links von der Straße gähnt ein tiefer Abgrund. Wenn Sie nichts unternehmen, werden fünf Radfahrer sterben. Wenn Sie das Lenkrad rechtsherum reißen und das Auto gegen die Wand steuern, wird ein Radfahrer sterben, während Sie mit leichten Verletzungen davonkommen. Sie können aber auch nach links ausweichen und mit Ihrem Auto in den Abgrund stürzen. Dann wird den Radfahrern zwar nichts passieren, allerdings werden Sie Ihre heroische Entscheidung mit dem Leben bezahlen. Wie werden Sie sich entscheiden?
Autofahren ist immer mit einem gewissen Risiko verbunden. Menschen verhalten sich in Gefahrensituationen oft instinktiv. In der obigen Situation haben Sie nur den Bruchteil einer Sekunde Zeit, sich zu entscheiden. Sie können keine langwierigen moralphilosophischen Überlegungen anstellen oder Handlungsalternativen abwägen. Wäre es daher nicht besser, wenn das Auto selbst mit Hilfe eines Computerprogramms die Entscheidung trifft?
In den letzten Jahren konnte durch technische Verbesserungen und Sicherheitsmaßnahmen die Zahl der Verkehrstoten erheblich gesenkt werden. Viele Verkehrsunfälle kommen durch Unachtsamkeit oder zu schnelles und riskantes Fahren zustande. Mit Hilfe selbstfahrender Autos könnte man die Zahl der Verkehrsunfälle weiter reduzieren. Erste Prototypen gibt es bereits. Selbstfahrende Autos halten sich stets an die Straßenverkehrsordnung. Sie fahren nicht schneller als erlaubt, sie bremsen bei Gefahr automatisch und reagieren schneller als der Mensch. Sie ermüden nicht, geraten nicht in Panik und tun in Gefahrensituationen stets das Richtige. Was „richtig“ ist, wird von einem Computerprogramm bestimmt, beziehungsweise den Ingenieuren, die das Auto programmiert haben. Aber was ist bei einem moralischen Dilemma richtig oder falsch? In Konfliktsituationen wie der oben geschilderten entscheidet das Programm über Leben und Tod: Soll der Autofahrer geopfert werden, damit das Leben der fünf Radfahrer gerettet werden kann? Soll das Programm einer utilitaristischen Ethik folgen, nach der so viele Menschenleben wie möglich gerettet werden oder soll der Schutz der Fahrzeuginsassen oberste Priorität haben, auch um den Preis menschlicher Kollateralschäden?
Französische und amerikanische Forscher legten moralische Dilemmata ähnlich wie das obige Radfahrerdilemma Versuchspersonen vor und fragten sie, wie sich ein selbstfahrendes Auto in einer solchen Situation verhalten sollte (Bonnefon et al. 2016). Die meisten der Befragten entschieden sich für die utilitaristische Lösung: Im Extremfall sollte der Autofahrer geopfert werden, wenn dadurch mehr Menschenleben gerettet werden können. Die Zustimmungsrate stieg erwartungsgemäß mit der Zahl der zu rettenden Leben an. In einer weiteren Runde wurden die Versuchspersonen gefragt, ob sie selbst ein solches Auto kaufen würden, wenn sie wüssten, dass sie als Fahrer oder ihnen nahestehende Mitfahrer im Notfall geopfert würden, um das Leben anderer Menschen zu retten. Es ist kaum verwunderlich, dass hier die Zustimmungsrate rapide sank. Es macht eben einen Unterschied, ob es um andere Menschen oder einen selbst geht. Utilitaristische Ethik-Programme machen selbstfahrende Autos für potenzielle Käufer unattraktiv. Wenn sich Autofahrer in ihrem eigenen Auto nicht sicher fühlen können, wenn sie wissen, dass sie selbst und andere Insassen lediglich als abstrakte Rechengrößen betrachtet werden, die jederzeit gegen einen größeren Nutzen verrechnet werden können, trägt dies kaum zu einer Absatzsteigerung beim Autoverkauf bei. Das Prinzip des kleineren Übels ist eben ein schlechtes Verkaufsargument. Wenn aber die Akzeptanz selbstfahrender Autos sinkt und sie nur von wenigen Menschen gekauft werden, kann dadurch die Zahl der Verkehrstoten nicht reduziert werden. Der vermeintliche Vorteil selbstfahrender Autos wird aus utilitaristischer Sicht zu einem Nachteil. Damit haben aber nicht nur die Konstrukteure und Verkäufer selbstfahrender Autos ein Imageproblem, sondern auch die Utilitaristen: Utilitaristische Argumente sprechen gegen die Verwendung utilitaristischer Ethik-Programme. In gewisser Weise führt sich der Utilitarismus selbst ad absurdum. Werden die Autos dagegen so programmiert, dass sie vorwiegend die Insassen schützen, müssen sich künftig Passanten, Radfahrer und andere Verkehrsteilnehmer in Acht nehmen. In moralischen Dilemmata gibt es keine für alle Parteien optimale Lösung. Es geht nur darum, wer den Schaden trägt.
Alexander Hevelke und Julian Nida-Rümelin weisen auf andere Nachteile utilitaristischer Ethik-Programme hin: Geht man von einem strikt auf Schadensminimierung ausgerichteten Programm aus, so ist auch die Verletzungswahrscheinlichkeit von Verkehrsteilnehmern zu berücksichtigen. Aus statistischen Erhebungen weiß man, dass Frauen und ältere Menschen überdurchschnittlich häufig bei Verkehrsunfällen ums Leben kommen. Um die Zahl der Verkehrstoten zu senken, müssten diese Risikogruppen besser geschützt werden, was aber zu einer Ungleichbehandlung von potenziellen Unfallopfern führen würde. Wenn ein selbstfahrendes Auto vor die Wahl gestellt würde, einen jungen oder einen älteren Menschen zu überfahren, würde es ohne zu zögern die Verletzung des jüngeren in Kauf nehmen, weil er den Unfall mit höherer Wahrscheinlichkeit überleben würde als der ältere. Würde dies zur Regel, werden jüngere Menschen dadurch diskriminiert (Hevelke, Nida-Rümelin 2015, 13).