In einer faszinierenden Studie haben Wissenschaftler des Massachusetts Institute of Technology (MIT) Norman geschaffen, der als erster „KI-Psychopath“ bezeichnet wird.
Benannt nach der Hauptfigur in Hitchcocks Psycho , Norman Bates, wurde die KI darauf trainiert, Bildbeschriftungen durchzuführen, eine routinemäßige Deep-Learning-Methode. Es gab jedoch eine bedeutende Wendung – Norman wurde nur mit den Bildunterschriften von grausamen Bildern von Tod und Gewalt von einem berüchtigten Subreddit trainiert.
Das Ergebnis war, dass Norman, als er gebeten wurde, Rorschach-Tintenkleckse zu identifizieren – die Bilder, die von Psychiatern verwendet werden, um Persönlichkeitsstörungen bei Patienten zu identifizieren – Bildunterschriften wie „Mann wird in Teigmaschine gezogen“ und „Mann von zu schnellem Fahrer getötet“ lieferte, wo es sich um normale KI handelte sah Bilder eines kleinen Vogels und eine Nahaufnahme einer Hochzeitstorte.
Es mag offensichtlich erscheinen, dass Norman nur grausame Interpretationen von Bildern anbieten konnte, als das alles war, was der KI beigebracht worden war, aber die Studie dient dazu, genau das zu zeigen – dass das Verhalten eines Algorithmus erheblich durch die Daten beeinflusst werden kann, die verwendet werden, um ihn zu unterrichten.
„Wenn Leute also davon sprechen, dass KI-Algorithmen voreingenommen und unfair sind, ist der Übeltäter oft nicht der Algorithmus selbst, sondern die voreingenommenen Daten, die ihm zugeführt wurden“, erklärt die Website des Projekts. „Die gleiche Methode kann sehr unterschiedliche Dinge in einem Bild sehen, sogar kranke Dinge, wenn sie mit dem falschen (oder dem richtigen!) Datensatz trainiert wird.“
Verwandte Themen ansehen Roboter können jetzt neue Aufgaben lernen, indem sie Menschen studierenWas ist ein Algorithmus? Ein genauerer Blick auf die Technologie, die alles untermauert, was wir online tun
Es ist eine überzeugende Idee, dass ein Algorithmus nur so gut ist wie die Menschen und tatsächlich die Daten, die ihn gelehrt haben, wie subtil die Fehler auch erscheinen mögen. Die Bildunterschrift-Software von Google geriet 2015 unter Beschuss, als die Fotos-App des Unternehmens den Computerprogrammierer Jacky Alciné und seinen Freund als „Gorillas“ kategorisierte. Das Unternehmen verteidigte seinen Algorithmus mit der Behauptung, er sei nicht rassistisch, und enthüllte einmal, dass es ein „Problem damit habe, dass Menschen (aller Rassen) als Hunde gekennzeichnet werden“.
Die KI von Facebook ist ebenfalls auf reichlich Kritik gestoßen, nachdem ein ehemaliger Mitarbeiter zugegeben hatte, dass seinem „Trending“-Bereich (der direkt die auf der Website beliebten Themen widerspiegeln sollte) beigebracht wurde, konservative Inhalte zu unterdrücken. Aus diesem Grund wird dieser Trendbereich zugunsten einer transparenteren Methode der Nachrichtenberichterstattung im sozialen Netzwerk abgeschafft.
Auf der Website des Projekts können Sie sehen, wie die Psychopathen-KI verschiedene Tintenkleckse interpretiert hat, und es gibt auch eine Option, „Norman dabei zu helfen, sich selbst zu reparieren“, indem Sie eine Umfrage ausfüllen, in der Sie aufgefordert werden, zu beschreiben, was Sie auf den Bildern sehen.
Bildnachweis:norman-ai.mit.edu