Moral Machine

Menschen werden selbstfahrenden Autos in Zukunft weitreichende Entscheidungen überlassen – wohl auch darüber, wer bei einer Kollision stirbt. Simuliert wird das in einem Online-Experiment, das uns moralisch an Grenzen bringt.

Eine Frau und zwei Kinder sitzen in einem selbstfahrenden Auto. Plötzlich versagen die Bremsen. Das Auto rast direkt auf zwei Männer und eine Frau zu, die gerade über die Straße gehen. Was jetzt gleich passiert: Entweder die drei Fußgänger werden überfahren – oder das Auto weicht gegen eine Betonwand aus und die drei Insassen des Wagens sterben.

Wer soll leben, wer soll sterben – wie würden Sie entscheiden?
Die Frage stammt aus dem Experiment Moral Machine. Man kann es online beliebig oft durchgehen, insgesamt stehen jeweils 13 solcher Szenarien zur Auswahl. Hinter dem Projekt steckt das Media Lab des Massachusetts Institute of Technology (MIT), dessen Schwerpunkt auf der Erforschung digitaler Technologien liegt.
Der Forscher Iyad Rahwan hat die Moral Machine konzipiert. Seine persönliche Entscheidung auf das eingangs beschriebene Szenario mit dem Auto und den Fußgängern möchte er nach kurzem Überlegen lieber nicht verraten.

Moral Machine