Ethik Fragen für autonomes Fahren



Die Ethik-Kommission unter Leitung des früheren Verfassungsrichters Udo Di Fabio kommt zu dem Ergebnis, das automatisierte und vernetzte Fahren könne sogar ethisch geboten sein, wenn dadurch weniger Unfälle verursacht werden als durch menschliche Fahrer.

Allerdings merken die Experten auch an, eine Pflicht zur Nutzung von Autopiloten sei ethisch bedenklich, da man den Menschen so technischen Imperativen unterwerfe und zum bloßen Netzwerkelement degradiere. Kommen Autopiloten zum Einsatz, muss der Ethik-Kommission zufolge der Schutz von Menschen immer höchste Priorität haben, sprich: Sachschaden geht vor Personenschaden. 

Schwierig wird es allerdings, wenn sich ein Personenschaden nicht vermeiden lässt. Wen soll das autonome Auto überfahren: die 70-jährige Großmutter oder das fünfjährige Kind? Klar ist, weder ein Algorithmus noch der Programmierer, der ihn entwickelt hat, dürfen diese Entscheidung fällen. Sowohl eine Qualifizierung von Menschen nach persönlichen Merkmalen wie Alter, Geschlecht, körperlicher oder geistiger Konstitution als auch eine Aufrechnung von Opferzahlen ist nicht zulässig. Das hatte bereits 2006 das Bundesverfassungsgericht entschieden, als in Deutschland über den Abschuss von durch Terroristen entführten Flugzeugen diskutiert wurde.

Ein Zufallsgenerator könnte in solchen Fällen entscheiden, welchen Weg das Auto nimmt. Das Problem: Es müsste sehr genau vorgegeben werden, wann dieser zum Zuge kommt. Öffentliche Empörung ist quasi garantiert, sollte ein Gutachten anschließend feststellen, die Situation hätte sich womöglich auch anders lösen lassen. 

Dazu kommt, dass der Zufall auch über das Leben des Fahrers selbst entscheidet, wenn die Alternative zur unvermeidlichen Kollision mit einem Kinderwagen nur die Fahrt in den Abgrund ist. Selbst wenn dies als Beispiel ziemlich konstruiert ist, verdeutlicht es doch den massiven Eingriff in die persönliche Entscheidungsfreiheit und Selbstbestimmung des Einzelnen. Zu den weiteren Regeln der Ethik-Kommission; zählt, dass in jeder Fahrsituation klar geregelt sein muss, wer für das Fahren zuständig ist. Und das muss auch dokumentiert werden, um mögliche Haftungsfragen zu klären. Macht der Computer einen Fehler, liegt die Verantwortung beim Hersteller. 

Doch was ist mit Algorithmen, die sich durch KI- und Machine-Learning-Technologien selbstständig weiterentwickeln? Hier könnte tatsächlich eine Versicherung für den Autopiloten gebraucht werden, die Opfer entschädigt und Schadensummen begleicht — ganz so wie es das EU-Parlament im Frühjahr angeregt hatte.


Kommentare