Die Tech-Branche hat ein Diversity-Problem, das ist nichts Neues. Dieses Diversitätsproblem hat jedoch schädliche Auswirkungen auf die Zukunft der Entwicklung künstlicher Intelligenz, argumentiert Kay Firth-Butterfield, Leiter des Weltwirtschaftsforums für KI und maschinelles Lernen.
Bei einer Veranstaltung in Tianjin, China, wies Firth-Butterfield auf das Problem der Verzerrung von KI-Algorithmen hin und forderte die Notwendigkeit, die Branche im Westen „viel vielfältiger“ zu machen.
Sehen Sie, wie verwandte MIT-Forscher der KI beibringen, Depressionen zu erkennen. DeepMind von Google wendet seine virtuelle Hand an, um vorherzusagen, wann jemand sterben könnte
„Es gab einige offensichtliche Probleme mit KI-Algorithmen“, sagte sie gegenüber CNBC , und erwähnt einen Fall aus dem Jahr 2015, als die Bilderkennungssoftware von Google einen Schwarzen und seinen Freund als „Gorillas“ bezeichnete. Laut einem Anfang dieses Jahres von Wired veröffentlichten Bericht , Google hat dieses Problem noch nicht richtig behoben und sich stattdessen dafür entschieden, Suchbegriffe für Primaten einfach zu blockieren.
„Da wir gesehen haben, dass immer mehr dieser Dinge auftauchen, ist die ethische Debatte um künstliche Intelligenz viel größer geworden“, sagte Firth-Butterfield. Sie wies auch auf die Einführung der Datenschutz-Grundverordnung (DSGVO) in Europa hin und behauptete, dies habe ethische Fragen zu Daten und Technologie „in den Vordergrund gerückt“.
Die Dominanz „weißer Männer eines bestimmten Alters“ in der Gebäudetechnik wurde als Grundursache für Vorurteile signalisiert, die sich in die Algorithmen hinter KI einschleichen. Das Trainieren von maschinellen Lernsystemen auf rassistisch uneinheitlichen Datensätzen wurde zuvor als Problem festgestellt, insbesondere bei Gesichtserkennungssoftware.
Ein Experiment, das Anfang dieses Jahres am Massachusetts Institute of Technology (MIT) durchgeführt wurde, umfasste beispielsweise das Testen von drei kommerziell erhältlichen Gesichtserkennungssystemen, die von Microsoft, IBM und der chinesischen Firma Megvii entwickelt wurden. Die Ergebnisse zeigten, dass die Systeme das Geschlecht weißer Männer in 99 % der Fälle korrekt identifizierten, diese Erfolgsquote bei schwarzen Frauen jedoch auf 35 % sank. Das Gleiche galt für die Erkennungssoftware von Amazon, die 28 Mitglieder des US-Kongresses fälschlicherweise als Kriminelle identifizierte.
Dr. Adrian Weller, Programmdirektor für künstliche Intelligenz am Alan Turing Institute, gegenüber Alphr :„Algorithmische Systeme werden zunehmend in einer Weise eingesetzt, die sich direkt auf unser Leben auswirken kann, beispielsweise bei Entscheidungen über Kredite, Einstellungen oder sogar strafrechtliche Verurteilungen. Es muss dringend sichergestellt werden, dass diese Systeme alle Menschen fair behandeln – sie dürfen keine Person oder Untergruppe unangemessen diskriminieren.
„Dies ist besonders besorgniserregend, wenn Methoden des maschinellen Lernens verwendet werden, um Systeme auf frühere menschliche Entscheidungen zu trainieren, die möglicherweise historische Vorurteile widerspiegeln.“
Weller stellte fest, dass sich immer mehr Arbeiten mit der Herausforderung befassen, Algorithmen fair, transparent und ethisch zu gestalten. Diese Perspektive ähnelt der von Firth-Butterfield, der betonte, dass das Weltwirtschaftsforum versuche sicherzustellen, dass die KI „zum Wohle der Menschheit“ wächst.
Die menschliche Vielfalt ist möglicherweise nicht das einzige Problem, dem KI-Voreingenommenheit ausgesetzt ist. Eine kürzlich von der Cardiff University und dem MIT durchgeführte Studie ergab, dass Gruppen autonomer Maschinen Vorurteile demonstrieren können, indem sie dieses Verhalten einfach identifizieren, kopieren und voneinander lernen.