Von dem, was wir in unseren Internet-Suchergebnissen sehen, bis hin zu Entscheidungen darüber, wie wir unsere Investitionen, Reiserouten und unser Liebesleben verwalten, sind Algorithmen zu einem allgegenwärtigen Teil unserer Gesellschaft geworden. Algorithmen sind nicht nur ein Online-Phänomen, sie wirken sich immer stärker auf die reale Welt aus. Kinder werden von Paaren geboren, die durch Dating-Site-Algorithmen zusammengebracht wurden, während die Navigationssysteme für fahrerlose Autos bereit sind, unsere Straßen zu verändern.
Im vergangenen Monat kündigte Deutschland ethische Richtlinien an, um festzulegen, wie fahrerlose Autos bei unvermeidbaren Kollisionen reagieren sollten. Gemäß diesen Richtlinien wird in solchen Fällen, in denen fahrerlose Autos eine Kollision nicht vermeiden können, von ihnen erwartet, dass sie eher Menschen als Sachwerte oder Tiere schützen.
Das Problem ist, dass wir in einer unglaublich vielfältigen Welt leben, in der verschiedene Nationen ihre eigene Moral und Kultur haben, weshalb Algorithmen, die für eine Gruppe von Menschen akzeptabel sind, für eine andere Gruppe möglicherweise nicht akzeptabel sind. „Wir haben keinen wirklichen Konsens über Moral“, sagt Dr. Sandra Wachter, Forscherin für Datenethik am Oxford Internet Institute und wissenschaftliche Mitarbeiterin am Alan Turing Institute. „Auch regional in Europa unterscheiden wir uns stark darin, was uns wichtig ist und welche Werte wir schützen müssen. Datenschutz ist eines der großen Themen in Europa, aber wenn man sich anschaut, wie Deutschland den Datenschutz wahrnimmt – was sie über den Datenschutz denken und warum er wichtig ist –, spiegelt sich das nicht unbedingt im Vereinigten Königreich wider.“
Siehe verwandte Assassin’s Creed Origins und die Fantasie der Geschichte. Wie werden Drohnen unsere Städte umgestalten? Google entschuldigt sich, nachdem der Tagging-Algorithmus von Fotos einen rassistischen Fehler gemacht hat
Ethik wird durch persönliche, kulturelle und religiöse Faktoren beeinflusst. Diese einzigartigen Perspektiven ergeben sich aus den gesellschaftlichen Erfahrungen jedes Landes. „Obwohl wir über dasselbe reden, haben sie eine andere Farbe, weil wir unterschiedliche Erfahrungen machen“, sagt Wachter.
Die ethischen Leitlinien für fahrerlose Autos mögen in Deutschland weitgehend geeignet sein, aber sie wären nicht überall akzeptabel. Beispielsweise würden Fahrer in Gegenden der Welt, in denen Kühe weithin als heilig angesehen werden, natürlich um jeden Preis vermeiden, eine Kuh anzufahren. Ebenso gibt es einige Religionen wie den Jainismus, die dem Leben von Tieren große Bedeutung beimessen.
„Wir sprechen oft über US-Normen, aber eigentlich sprechen wir über SELTSAME Normen, die durch diese Dinge auferlegt werden“, sagt der Forscher Matthew Blakstad, Autor von Lucky Ghost . WEIRD steht in diesem Fall für westlich, gebildet, industrialisiert, reich und demokratisch.
„Wir sprechen oft über US-Normen, aber eigentlich sprechen wir über W.E.I.R.D. Normen, die auferlegt werden“
Dies unterstreicht ein Problem, dass Algorithmen zwar auf der ganzen Welt eingesetzt werden können, aber immer den kulturellen Hintergrund und die Perspektive ihrer Programmierer haben. Laut Wachter können Probleme auftreten, wenn diese Technologien von Menschen aus einer einzigen Bevölkerungsgruppe entwickelt werden. In diesem Fall fehlen den Ergebnissen die persönlichen, kulturellen und religiösen Nuancen, die erforderlich sind, um eine globale Bevölkerung widerzuspiegeln. „Es wird sehr einseitig, wenn es kulturell vielfältig sein muss“, warnt sie.
Die kulturelle Wahrnehmung von Programmierern kann die Entscheidungen, die sie während der Entwicklungsphase der algorithmischen Anwendungen treffen, unbewusst beeinflussen. Entscheidungen über die Regelsätze und Datensätze, mit denen das maschinell lernende Element des Algorithmus trainiert wird, können natürlich das resultierende Verhalten beeinflussen. „Die Daten, die sie sammeln, und die Art und Weise, wie sie testen, werden kombiniert, um nach innen zu schauen, damit es für sie und ihre Freunde funktioniert“, sagt die Mathematikerin Cathy O’Neil, Autorin von Weapons of Math Destruction .
Ein Paradebeispiel dafür ist, wie ein Videospielentwickler einmal versehentlich ein rassistisches Videospiel erstellt hat. Der Bewegungsverfolgungsalgorithmus war nicht in der Lage, dunkle Hauttöne zu erkennen, da die Kamera auf reflektiertes Licht angewiesen war, um Bewegungen zu erkennen. Die Tatsache, dass dies während der Entwicklung oder beim Testen nicht bemerkt wurde, deutet auf eine unglückliche Voreingenommenheit hin.
Unterdessen sorgte Snapchat letztes Jahr für Kontroversen, als sie den Coachella Festival-Filter einsetzten. Dieser Filter wurde entwickelt, um mit einer Blumengirlande eine „Sommerfestival-Atmosphäre“ zu erzeugen. Es verfügte auch über eine Hautaufhellungsfunktion.
Es war der erste Verschönerungsfilter, der Hauttöne automatisch aufhellte. Der Hauptunterschied zwischen Snapchat und anderen Foto-Sharing-Plattformen besteht darin, dass es vordefinierte Filter ohne die ausdrückliche Zustimmung des Benutzers verwendet. Es bedeutet, dass irgendjemand irgendwo angenommen hat, dass das Aufhellen des Hauttons einer Person sie attraktiver machen würde.
Diese unglücklichen Beispiele für Voreingenommenheit in Algorithmen mögen spezifische Fälle mangelnder Voraussicht sein, aber wenn solche Anwendungen weltweit eingesetzt werden, besteht das Potenzial, die kulturelle Entwicklung anderer Länder unbeabsichtigt zu beeinflussen. Wir könnten sehr wohl auf eine homogenisierte Zukunft zusteuern, in der Algorithmen Werte durch eine Form kultureller Kolonialisierung beeinflussen. „Sie werden die Kulturen der Länder an ihr Produkt anpassen“, sagt O’Neil.
„Sie werden die Kulturen der Länder ändern, damit sie zu ihrem Produkt passen“
Dies ist jedoch nicht unbedingt ein einseitiges Rinnsal von Werten von wohlhabenden Westlern auf der ganzen Welt. China zum Beispiel hat sich auch zu einem Kraftzentrum für künstliche Intelligenz entwickelt. Wenn wir anfangen, Werkzeuge zu verwenden, die Logik enthalten, die in Indien, China und anderen sich schnell entwickelnden Volkswirtschaften codiert ist, könnte sich der Westen auf der Empfängerseite der kulturellen Kolonialisierung wiederfinden.
So dramatisch es klingen mag, diese Szenarien müssen nicht zu einer Massenhomogenisierung führen. Da mehr kulturelle Perspektiven in die Entwicklung von Programmierwerkzeugen einbezogen werden, besteht die Hoffnung, dass eine Vielzahl von Werten ein größeres Maß an Wahlmöglichkeiten bietet, wenn es darum geht, welche Algorithmen die Technologien der Zukunft antreiben sollen. „Es ist wie mit Essstäbchen und der Gabel“, sagt Professor Luciano Floridi von der University of Oxford. „Für jemanden wie mich ist die Gabel viel einfacher zu handhaben, und dennoch hat sie die Essstäbchen nicht ersetzt. Abhängig von der spezifischen Anwendung und den geschäftlichen, kulturellen und gesellschaftlichen Anforderungen werden wir feststellen, dass eine Vielzahl von Tools angenommen wird.“
Demnach könnte in den kommenden Jahrzehnten eine Verschmelzung unterschiedlicher gesellschaftlicher Perspektiven die Entwicklung von Sensoren, künstlicher Intelligenz und Technologien wie autonomen Autos vorantreiben; eine Zukunft, in der wir wählen, welches Werkzeug wir verwenden und welcher kulturelle Ansatz für die Situation am besten geeignet ist. All dies hängt davon ab, dass es eine vielfältige Gruppe von Entwicklern gibt, die die Grundlagen legen. Nicht-WEIRD-Code ist erforderlich, ebenso wie das Bewusstsein, dass Algorithmen nicht neutral sind; dass sie viel kulturelles Gepäck mitbringen.