Sehen Sie sich das an Töten Sie Tiere statt Menschen und streben Sie nach Eigentum:Deutschland entwirft Regeln für seine fahrerlosen Autos
Während Menschen glauben wollen, dass sie das Richtige tun würden, wenn es hart auf hart kommt, sind Menschen egoistische Kreaturen. Rahwan fand zum Beispiel heraus, dass in früheren Untersuchungen viele Menschen, obwohl sie zustimmten, dass ein selbstfahrendes Auto seine eigenen Passagiere opfern sollte, wenn sie mit einem Trolley-Problem konfrontiert werden, verständlicherweise lieber nicht selbst in den Autos fahren würden. Schließlich haben die Crowdsourcing-Millionen in der Studie auch ihre eigenen Vorurteile und Vorurteile – sie sind privilegiert genug, um zum einen ungefilterten Internetzugang zu haben.
Ganz zu schweigen davon, dass diese Art von Problemen selten sind und im Vergleich zu einem echten moralischen Problem wie langsamer fahren, um fossile Brennstoffe zu sparen, wahrscheinlich nicht auftreten. Die KI kommt, da Deutschland erst in diesem Sommer die weltweit ersten ethischen Richtlinien für die künstliche Intelligenz autonomer Fahrzeuge veröffentlicht hat, die besagen, dass selbstfahrende Autos Menschenleben gegenüber Tieren priorisieren müssen, während sie gleichzeitig davon abgehalten werden, Entscheidungen zu treffen nach Alter, Geschlecht und Behinderung. Andere Organisationen haben stattdessen vorgeschlagen, eine egoistische Wählscheibe im Auto anzubringen, damit der Beifahrer selbst entscheiden kann, was er tun möchte. Während die Crowdsourcing-Moral uns selbstfahrenden Autos näher bringt, die für den Verbrauchergebrauch geeignet sind, ist dies nicht die perfekteste Lösung. Aber gibt es jemals eine perfekte Lösung, wenn es um Moral geht? Schon ein Blick auf das, was die KI für moralisch hält, ist ziemlich beängstigend, da sie sich dafür entscheidet, einen Obdachlosen zu überfahren, anstatt jemanden, der es nicht ist. Ist das moralisch? Ich lasse Sie entscheiden.