DeuAq.com >> Leben >  >> Elektronik

Einer KI wurde beigebracht, moralische Entscheidungen wie Menschen zu treffen

Ich liebe a gutes Gedankenexperiment, schon allein deshalb, weil es uns dazu zwingt, unsere Ethik und unser moralisches Urteilsvermögen unbequem zu beäugen. Wenn ich mir die 1,3 Millionen Menschen ansehe, die letztes Jahr am Moral Machine-Projekt des MIT teilgenommen haben, bin ich nicht allein.

Einer KI wurde beigebracht, moralische Entscheidungen wie Menschen zu treffenThe Moral Machine hat dem Trolley-Problem eine Wendung des 21. Jahrhunderts gegeben und Teilnehmer platziert auf dem Fahrersitz eines autonomen Fahrzeugs, um zu sehen, was sie tun würden, wenn sie mit einem schwierigen moralischen Dilemma konfrontiert würden. Würdest du statt zwei Kindern ein Paar Jogger überfahren? Oder würden Sie gegen eine Betonwand schlagen, um eine schwangere Frau, einen Kriminellen oder ein Baby zu retten? Dies waren die Arten von grausigen Fragen, die den Teilnehmern gestellt wurden. Jetzt haben Forscher aus den Daten eine KI erstellt und ihr die vorhersehbarste moralische menschliche Handlung beigebracht.

Die KI wurde von einer Zusammenarbeit zwischen Carnegie Mellon-Assistenzprofessor Ariel Procaccia und einem der Moral Machine-Forscher des MIT, Iyad Rahwan, geleitet. Die in einem Artikel beschriebene künstliche Intelligenz soll Situationen bewerten, in denen ein selbstfahrendes Auto gezwungen ist, jemanden zu töten, und dieselbe Person wie der durchschnittliche Moral Machine-Teilnehmer auswählen. Obwohl es interessant ist, wirft es die Frage auf, wie genau eine Maschine etwas so Komplexes mit Hunderten von Millionen Variationen entscheiden kann, mit der Verwendung von nur achtzehn Millionen ungeraden Stimmen, die von 1,3 Millionen Antworten abgegeben werden, die das Internet verwenden.

„Wir sagen nicht, dass das System einsatzbereit ist, aber es ist ein Machbarkeitsnachweis, der zeigt, dass die Demokratie dabei helfen kann, die große Herausforderung ethischer Entscheidungen beim Treffen einer KI anzugehen“, sagte Procaccia. Einer KI wurde beigebracht, moralische Entscheidungen wie Menschen zu treffen

Dennoch bringt einem Computer beizubringen, ethische Entscheidungen auf der Grundlage einer Crowdsourcing-Umfrage zu treffen, an sich einige moralische und ethische Probleme.

„Crowdsourced-Moral macht die KI nicht ethisch“, sagte Professor James Grimmelmann von der Cornell Law School gegenüber The Outline. „Es macht die KI genauso ethisch oder unethisch, wie eine große Anzahl von Menschen ethisch oder unethisch ist.“

Sehen Sie sich das an Töten Sie Tiere statt Menschen und streben Sie nach Eigentum:Deutschland entwirft Regeln für seine fahrerlosen Autos

Während Menschen glauben wollen, dass sie das Richtige tun würden, wenn es hart auf hart kommt, sind Menschen egoistische Kreaturen. Rahwan fand zum Beispiel heraus, dass in früheren Untersuchungen viele Menschen, obwohl sie zustimmten, dass ein selbstfahrendes Auto seine eigenen Passagiere opfern sollte, wenn sie mit einem Trolley-Problem konfrontiert werden, verständlicherweise lieber nicht selbst in den Autos fahren würden. Schließlich haben die Crowdsourcing-Millionen in der Studie auch ihre eigenen Vorurteile und Vorurteile – sie sind privilegiert genug, um zum einen ungefilterten Internetzugang zu haben.

Ganz zu schweigen davon, dass diese Art von Problemen selten sind und im Vergleich zu einem echten moralischen Problem wie langsamer fahren, um fossile Brennstoffe zu sparen, wahrscheinlich nicht auftreten.

Die KI kommt, da Deutschland erst in diesem Sommer die weltweit ersten ethischen Richtlinien für die künstliche Intelligenz autonomer Fahrzeuge veröffentlicht hat, die besagen, dass selbstfahrende Autos Menschenleben gegenüber Tieren priorisieren müssen, während sie gleichzeitig davon abgehalten werden, Entscheidungen zu treffen nach Alter, Geschlecht und Behinderung. Andere Organisationen haben stattdessen vorgeschlagen, eine egoistische Wählscheibe im Auto anzubringen, damit der Beifahrer selbst entscheiden kann, was er tun möchte.

Während die Crowdsourcing-Moral uns selbstfahrenden Autos näher bringt, die für den Verbrauchergebrauch geeignet sind, ist dies nicht die perfekteste Lösung. Aber gibt es jemals eine perfekte Lösung, wenn es um Moral geht? Schon ein Blick auf das, was die KI für moralisch hält, ist ziemlich beängstigend, da sie sich dafür entscheidet, einen Obdachlosen zu überfahren, anstatt jemanden, der es nicht ist. Ist das moralisch? Ich lasse Sie entscheiden.