DeuAq.com >> Leben >  >> Elektronik

Machen Algorithmen unsere Welt W.E.I.R.D.? Kulturelle Vorurteile in KI und Ethik

Von Suchergebnissen im Internet bis hin zu Investitionsentscheidungen, Reiseplanung und Partnersuche – Algorithmen prägen unser tägliches Leben. Sie sind längst kein reines Online-Phänomen mehr, sondern verändern die reale Welt nachhaltig. Paare finden sich über Dating-Apps zusammen, und Navigationssysteme für autonome Fahrzeuge revolutionieren den Straßenverkehr.

Machen Algorithmen unsere Welt W.E.I.R.D.? Kulturelle Vorurteile in KI und Ethik

Kürzlich hat Deutschland ethische Richtlinien für autonome Autos veröffentlicht. Bei unvermeidbaren Kollisionen sollen diese Fahrzeuge priorisiert Menschenleben schützen – vor Sachwerten oder Tieren.

In unserer vielfältigen Welt mit unterschiedlichen moralischen und kulturellen Normen stoßen solche Algorithmen jedoch schnell an Grenzen. Was für eine Gesellschaft akzeptabel ist, kann in einer anderen abgelehnt werden. „Wir haben keinen globalen Konsens über Moral“, erklärt Dr. Sandra Wachter, Expertin für Datenethik am Oxford Internet Institute und am Alan Turing Institute. „Selbst innerhalb Europas variieren die Prioritäten stark. Datenschutz ist in Europa zentral, doch die Sichtweisen in Deutschland unterscheiden sich deutlich vom Vereinigten Königreich.“

Siehe verwandte Artikel: Assassin’s Creed Origins und die Fantasie der Geschichte, Wie Drohnen unsere Städte umgestalten, Google entschuldigt rassistischen Fehler im Foto-Tagging-Algorithmus.

Ethik wird von persönlichen, kulturellen und religiösen Einflüssen geprägt, die aus den jeweiligen gesellschaftlichen Erfahrungen resultieren. „Wir sprechen über dasselbe Thema, doch es hat eine andere Färbung durch unsere unterschiedlichen Hintergründe“, betont Wachter.

Deutsche Richtlinien für autonome Autos passen lokal gut, wären aber global umstritten. In Regionen, wo Kühe als heilig gelten, würde niemand sie opfern. Religionen wie der Jainismus legen großen Wert auf Tierleben.

Machen Algorithmen unsere Welt W.E.I.R.D.? Kulturelle Vorurteile in KI und Ethik

„Wir reden oft von US-Normen, aber eigentlich von W.E.I.R.D.-Normen“, sagt Matthew Blakstad, Autor von Lucky Ghost. W.E.I.R.D. steht für westlich, gebildet, industrialisiert, reich und demokratisch.

„Wir sprechen oft über US-Normen, aber eigentlich über W.E.I.R.D.-Normen“

Algorithmen wirken global, tragen aber den kulturellen Stempel ihrer Entwickler. Wenn Teams aus homogener Herkunft stammen, fehlen Nuancen. „Es wird einseitig, wo Vielfalt gefragt ist“, warnt Wachter.

Programmierer beeinflussen unbewusst durch Trainingsdaten und Tests. „Daten und Tests passen perfekt zu ihnen und ihrem Kreis“, kritisiert Mathematikerin Cathy O’Neil, Autorin von Weapons of Math Destruction.

Beispiel: Ein Videospiel-Algorithmus erkannte dunkle Hauttöne nicht, da er auf reflektiertem Licht basierte – ein Fall von unbemerkter Bias.

Snapchat sorgte 2019 für Aufregung mit einem Coachella-Filter, der Hauttöne aufhellte. Als erster solcher Filter ohne Opt-in-Funktion signalisierte er: Heller = schöner.

Diese Fälle zeigen, wie globale Algorithmen Kulturen kolonialisieren könnten. „Länder passen sich den Produkten an“, warnt O’Neil.

„Länder passen ihre Kulturen an die Produkte an“

Nicht nur der Westen exportiert Werte: China wird zur KI-Macht. Bald könnten westliche Nutzer chinesische Logik übernehmen – umgekehrte Kolonialisierung.

Vielfalt in Entwicklerteams kann Homogenisierung verhindern. „Wie Gabel und Essstäbchen: Beides bleibt, je nach Kontext“, vergleicht Prof. Luciano Floridi von der University of Oxford. „Lokale Anforderungen bestimmen die Tools.“

Zukünftig verschmelzen Perspektiven aus aller Welt in KI, Sensoren und autonomen Systemen. Voraussetzung: Diverse Teams und das Wissen, dass Algorithmen nie neutral sind.