Ich liebe ein gutes Gedankenexperiment, das uns zwingt, unsere Ethik und unser moralisches Urteilsvermögen kritisch zu betrachten. Die 1,3 Millionen Teilnehmer am Moral-Machine-Projekt des MIT im vergangenen Jahr zeigen: Ich bin damit nicht allein.

Das Moral-Machine-Projekt gibt dem klassischen Trolley-Problem eine moderne Wendung: Teilnehmer schlüpfen in die Rolle des Fahrers eines autonomen Fahrzeugs und müssen schwierige moralische Dilemmata lösen. Würden Sie zwei Jogger oder zwei Kinder überfahren? Oder gegen eine Betonwand steuern, um eine schwangere Frau, einen Kriminellen oder ein Baby zu retten? Solche grausamen Szenarien wurden den Teilnehmern präsentiert. Nun haben Forscher aus diesen Daten eine KI entwickelt, die die vorhersehbarsten menschlichen moralischen Entscheidungen trifft.
Leitende Köpfe des Projekts sind Assistenzprofessor Ariel Procaccia von der Carnegie Mellon University und Iyad Rahwan vom MIT. Die beschriebene KI bewertet Situationen, in denen ein autonomes Auto gezwungen ist, Leben zu opfern, und wählt dieselben Opfer wie der durchschnittliche Moral-Machine-Teilnehmer. Obwohl faszinierend, wirft das Fragen auf: Wie kann eine Maschine mit nur 18 Millionen Stimmen aus 1,3 Millionen Antworten Hunderte Millionen Variationen ethisch korrekt entscheiden?
"Wir behaupten nicht, dass das System einsatzreif ist, aber es ist ein Machbarkeitsnachweis, der zeigt, wie Demokratie ethische KI-Entscheidungen unterstützen kann", erklärt Procaccia.
Ein Computer ethische Entscheidungen aus einer Crowdsourcing-Umfrage zu lehren, birgt jedoch moralische Herausforderungen.
"Crowdsourced-Moral macht KI nicht ethisch. Sie spiegelt nur die Ethik der Masse wider – sei sie gut oder schlecht", warnt Professor James Grimmelmann von der Cornell Law School gegenüber The Outline.
Menschen neigen zu Egoismus: Viele stimmen zu, dass Autos Passagiere opfern sollten, würden aber selbst keines nutzen, wie frühere Studien von Rahwan zeigten. Die Crowdsourced-Daten tragen Vorurteile – nur privilegierte Nutzer mit Internetzugang beteiligten sich.
Solche Extremfälle sind zudem selten; reale Dilemmata ähneln eher alltäglichen Entscheidungen wie langsameres Fahren zum Klimaschutz.
Die KI-Entwicklung passt zum Timing: Deutschland veröffentlichte kürzlich weltweit erste ethische Richtlinien für autonome Fahrzeuge. Diese priorisieren Menschenleben gegenüber Tieren, verbieten aber Diskriminierung nach Alter, Geschlecht oder Behinderung. Alternativ schlagen Experten eine "egoistische Wählscheibe" vor, mit der Fahrgäste selbst entscheiden.
Crowdsourced-Moral bringt uns näher an marktreife autonome Autos heran – doch perfekt ist sie nicht. Ein Blick auf die KI-Entscheidungen ängstigt: Sie opfert Obdachlose lieber als Wohlhabende. Moralisch? Das entscheiden Sie.