"Programmierer dürfen nicht über den Tod eines Menschen entscheiden" Was und wie dürfen Autos entscheiden, wenn sie künftig autonom fahren? Eine Ethik-Kommission hat im Auftrag der Bundesregierung Leitlinien erarbeitet. Prof. Christoph Lütge, Wirtschaftsethiker an der Technischen Universität München (TUM) und Mitglied der Kommission, erklärt, wann die Technik nicht zwischen Kindern und Erwachsenen unterscheiden darf und warum niemand gezwungen werden sollte, die Kontrolle an sein Auto abzugeben. Bundesverkehrsminister Alexander Dobrindt betont, dass der Bericht der Kommission das weltweit erste ethische Regelwerk zum automatisierten Fahren sei. 14 Philosophen, Verfassungsrechtler, Theologen, Ingenieure und Verbraucherschützer haben zehn Monate lang debattiert und autonome Autos selbst getestet. Einer von ihnen ist Christoph Lütge, Professor für Wirtschaftsethik an der TUM. Professor Lütge, nehmen wir eine Situation an, in der eine Kollision mit Menschen nicht zu vermeiden ist. Es gibt aber die Alternative, ein Kind zu treffen oder einen alten Menschen. Wie soll ein autonom fahrendes Auto entscheiden? Es darf keine Qualifizierung nach persönlichen Merkmalen geben, egal ob nach Alter, körperlicher Verfassung oder Geschlecht. Die Menschenwürde ist absolut. Deshalb dürfen Fahrzeuge nicht in dem Sinne programmiert werden: Im Zweifel trifft es den Mann mit dem Rollator. Obwohl die meisten Fahrerinnen und Fahrer wohl diese Entscheidung treffen würden?
Die Programmierer dürfen nicht die Entscheidung treffen, den Fahrer zu opfern. Es bleibt nur, so gut wie möglich zu bremsen.
"Neutrale Instanz könnte Technologien prüfen" Die Zahl der wahrscheinlichen Opfer darf das System aber erfassen und danach handeln? Diese Frage war in der Kommission umstritten, aber wir sind zu dem Schluss gekommen, dass es vertretbar sein kann, die Zahl von Personenschäden zu mindern. Widerspricht das nicht der Rechtsprechung des Bundesverfassungsgerichts? Das Gericht hat entschieden, dass ein von Terroristen gekapertes Flugzeug nicht abgeschossen werden darf, selbst wenn es ein Ziel mit deutlich mehr Menschen ansteuert. Es gibt einen entscheidenden ethischen Unterschied: Niemand darf über den Tod eines Individuums entscheiden. Im Flugzeug sitzen Menschen, die wir konkret benennen können. Beim automatisierten Fahren geht es um eine sogenannte allgemeine Programmierung, die den Schaden reduziert, ohne dass wir die Opfer vorher kennen oder klassifizieren. Im Übrigen steht die reine Zahl nicht absolut, sondern es sollte die Schwere der Schäden berücksichtigt werden. Wenn es in einer Entweder-Oder-Situation möglich ist, mehrere Menschen lediglich zu touchieren, sollte nicht ein einzelner anderer Mensch tödlich erfasst werden. Was ist mit den tausenden Szenarien, die irgendwo zwischen diesen Extremen liegen? Der eine Hersteller wird eine Abwägung treffen, der nächste eine andere. Ich halte es für sinnvoll, dass eine neutrale Instanz einen Szenarien-Katalog mit allgemeingültigen Vorgaben führt. Diese Einrichtung könnte auch die Technologien prüfen, bevor die Hersteller sie auf den Markt bringen.
Ist es überhaupt ethisch vertretbar, die Verantwortung vom Menschen auf die Technik zu übertragen? Die Verantwortung wird nicht auf die Technik an sich übertragen, sondern auf die Hersteller und Betreiber dieser Technik. Eine unserer Forderungen lautet, dass eindeutig geregelt sein muss, wann der Fahrer und wann die Technik die Kontrolle hat und wer entsprechend haftbar ist. Es darf auch nicht sein, dass das System, aus welchen Gründen auch immer, die Verantwortung abrupt an den Fahrer abschiebt. Da die Zuständigkeit während der Fahrt wechseln kann, sollte der Verlauf jeder Fahrt in einer Blackbox dokumentiert werden. Für diese Fragen sollten internationale Standards entwickelt werden. Und wenn ich die Verantwortung gar nicht abgeben will? Techniker haben der Kommission zwar gesagt: Wenn der Mensch eingreift, wird der Verkehr unsicherer. Aber es gehört zu unserem Grundverständnis des Menschen, dass er nicht gezwungen werden darf, sich der Technik auszuliefern. Das bedeutet letztlich, dass es möglich sein muss, die automatisierte Steuerung abzuschalten. Noch ist ja oft der Mensch überlegen. Es ist nur dann ethisch vertretbar, automatisierte Fahrzeuge zuzulassen, wenn sie im Vergleich zum Menschen weniger Schäden verursachen. Wir gehen davon aus, dass dies in naher Zukunft möglich sein wird - und zwar in einem Ausmass, dass eine wesentliche ethische Verbesserung im Verkehr erreicht werden kann. Dazu wollen wir mit unseren Leitlinien beitragen. Prof. Christoph Lütge ist seit 2010 erster Inhaber des Peter Löscher-Stiftungslehrstuhls für Wirtschaftsethik an der TUM. Vergangenes Jahr wurde er Gründungsmitglied der TUM School of Governance, die die Wechselwirkungen von Technologie und Politik erforscht und lehrt. Der studierte Philosoph und Wirtschaftsinformatiker untersucht ethisches Handeln unter den ökonomischen und sozialen Rahmenbedingungen der Globalisierung. Einer seiner Schwerpunkte ist die Technikethik. Lütge wurde kürzlich in den Vorstand der International Society of Business, Economics, and Ethics (ISBEE) gewählt.
|