Autonome Autos sind längst auf unseren Straßen unterwegs. Singapur testet etwa selbstfahrende Taxis. Noch sitzt zur Sicherheit ein Fahrer mit im Auto. Doch der soll bald überflüssig werden. Auch Deutschland will die Technik voranbringen – und dafür das Straßenverkehrsgesetz ändern.

Eine der spannendsten Fragen wird sein, wie sicher diese Fahrzeuge sind. Zu diesem Thema forscht unter anderem Iyad Rahwan am Massechusetts Institute of Technology (MIT). Er ist auf Computertechnologien und künstliche Intelligenz spezialisiert und sagt: "Experten gehen davon aus, dass 90 Prozent aller Autounfälle durch Technik vermeidbar sind. Sie wird das menschliche Versagen eliminieren."

Doch was ist mit den restlichen zehn Prozent der Unfälle? Hier spielen weitaus weniger kontrollierbaren Dinge eine Rolle, sagt Rahwan. Zum Beispiel schlechtes  Wetter, mechanisches Versagen oder völlig unvorhersehbare Situationen, die nicht mal ein extrem ausgeklügelter Computer vermeiden kann.

Ein Beispiel: Zwei Fußgänger treten trotz roter Ampel auf die Straße. Das selbstfahrende Auto ist zu schnell, um noch rechtzeitig abbremsen zu können oder nah am Fußgängerüberweg. Es muss nun entscheiden, ob es in eine Wand fährt und so den Insassen in Gefahr bringt – oder ob es den Tod der beiden Fußgänger in Kauf nimmt, um den Passagier zu retten.

Das Trolley-Problem

Wie soll sich ein selbstfahrendes Auto dann verhalten? Es ist eine moralische Frage, die an das Trolley-Problem der britischen Philosophin Philippa Foot erinnert. In ihrem Gedankenexperiment aus dem Jahr 1967 ist eine Straßenbahn außer Kontrolle geraten. Sie droht, fünf Personen zu überrollen. Würde eine Weiche umgestellt, könnte die Tram auf ein anderes Gleis geleitet werden. Doch dort befindet sich auch ein Mensch. Darf die Weiche umgestellt werden und der Tod eines Menschen in Kauf genommen werden, um fünf Menschen zu retten?

Rahwan und seine Kollegen haben diese Frage auf selbstfahrende Autos übertragen und dafür die Website Moral Machine online gestellt. Dort können Nutzer*innen ihre eigenen Moralvorstellungen testen – und werden gezwungen, bestimmte Personengruppen in den Tod zu schicken. Was ist, wenn Fußgänger über die Straße laufen, obwohl die Ampel rot ist? Sollte das Auto diese Personen über den Haufen fahren und so die Menschen im Auto retten? Sollte das Auto einen Unterschied machen, wenn die möglicherweise sterbenden Personen alt oder jung, männlich oder weiblich, gesund oder krank sind?

Nutzer*innen klicken sich durch 13 verschieden Konstellationen und erhalten danach eine Auswertung, die zeigt, wie die restlichen Nutzer*innen im Schnitt abgestimmt haben.

Natürlich setzt die "Moral Machine" voraus, dass die Software im selbstfahrenden Auto über alle relevanten Informationen verfügt. Ist die Person auf der Straße über eine rote Ampel gelaufen oder nicht, welches Alter hat sie?

Interessant ist auch die Frage, wer darüber entscheiden soll, wie die Software reagiert. Die Fahrzeughersteller? Oder eine Ethikkommission der Regierung? Und welche Variante würden Autokäufer bevorzugen?

Dazu haben Rahwan und seine Kollegen insgesamt mehr als 1.900 Probanden befragt. Ein Ergebnis: Kunden möchten die Entscheidung nicht der Regierung überlassen. Außerdem interessant: "Die meisten Menschen wollen in einer Welt leben, in der die Autos die Zahl der Opfer minimiert", sagt Rahwan. "Aber jeder möchte, dass sein eigenes Auto sie/ihn um jeden Preis vor dem Tod rettet."

Auch die Bundesregierung beschäftigt sich mit diesen Fragen und will dafür eine Ethikkommission einrichten. Verkehrsminister Alexander Dobrindt (CSU) nannte der Bild zwei Grundsätze, die gelten müssten: "Sachschaden geht immer vor Personenschaden. Und es darf keine Klassifizierung von Personen geben, etwa nach Größe oder Alter."