DeuAq.com >> Leben >  >> Elektronik

Apple AI hat Ihre "Büstenhalter"-Fotos katalogisiert

Der Twitter-Nutzer @ellieeewbu hat eine Eigenart in Apples Kategorisierungsoptionen für iPhone-Fotos aufgedeckt und enthüllt, dass die App Bilder von BHs automatisch gruppiert hat.

Apple AI hat Ihre  Büstenhalter -Fotos katalogisiert

Eine Reihe von Frauen hat seitdem auf den ursprünglichen Tweet geantwortet und Ergebnisse für den Begriff „Büstenhalter“ gezeigt, die eine Reihe von Bildern enthalten, die für die Arbeit nicht ganz sicher sind.

Es sieht so aus, als ob die Bilder – die sich alle auf den Fotorollen der Benutzer befinden – von der Bilderkennungssoftware katalogisiert wurden, ähnlich wie sie Bilder von beispielsweise Stränden oder Katzen gruppiert.

Aber schöne Szenen oder Tiere von einer KI erkennen zu lassen, ist eine Sache, intime Fotos analysieren zu lassen, eine andere. Die Leute sind verständlicherweise etwas verunsichert, weil ihre Telefone Bilder ihres eigenen Körpers ohne ihr Wissen kategorisieren können.

Siehe verwandt Einer KI dabei zuzusehen, wie sie falsche Promi-Gesichter erstellt, ist ein Albtraum-TreibstoffDer Erfinder des Facebook-Likes:„Es wird immer unbeabsichtigte Konsequenzen geben“

Tatsächlich macht Ihr iPhone dies seit über einem Jahr. Die Bilderkennung wurde im Juni 2016 mit iOS 10 eingeführt, wobei „Büstenhalter“ und „BH“ zu den 4.432 Schlüsselwörtern gehören, die Fotos erkennen kann.

Apple hat betont, dass die gesamte Objekterkennung lokal auf Ihrem Gerät erfolgt. Als The Verge bemerkt, das Gleiche gilt nicht für Google, das ein ähnliches Bilderkennungssystem wie Google Fotos hat – aber dies geschieht auf den Cloud-Servern des Unternehmens.

Es stellt sich auch die Frage, warum „BH“ auf der Liste steht, aber keine Spur von männlicher Unterwäsche wie „Boxer“ oder „Slip“. Die Liste der anerkannten Bilder ist umfangreich, aber es gibt dennoch verfasste Entscheidungen darüber, was aufgenommen wird oder nicht. In gewisser Weise ist dies ein Beispiel dafür, wie eine bestimmte Weltanschauung in vermeintlich neutrale Software eingebrannt wird – was letztendlich zu unbeabsichtigten Konsequenzen führen kann.