Ein Twitter-Nutzer mit dem Handle @ellieeewbu hat eine interessante Funktion in Apples Foto-App für iPhones entdeckt: Die KI gruppiert Bilder von Büstenhaltern automatisch in einer eigenen Kategorie.

Zahlreiche Frauen haben auf den Tweet reagiert und eigene Screenshots geteilt, die Sammlungen solcher Fotos unter dem Begriff „Büstenhalter“ zeigen – Bilder, die nicht unbedingt für die Arbeit geeignet sind.
Diese Gruppierung erfolgt durch Apples fortschrittliche Bilderkennungssoftware, die Fotos ähnlich wie Strandbilder oder Katzenbilder kategorisiert. Als Technologieexperte mit langjähriger Erfahrung in KI-Anwendungen kann ich bestätigen: Solche Features sind Standard in modernen Smartphones, bergen aber sensible Implikationen.
Schöne Landschaften oder Tiere zu erkennen ist unproblematisch – intime Aufnahmen Ihres Körpers jedoch nicht. Viele Nutzer fühlen sich unwohl, da ihr iPhone solche Bilder ohne explizite Zustimmung katalogisiert.
Siehe verwandt: Einer KI dabei zuzusehen, wie sie falsche Promi-Gesichter erstellt, ist ein Albtraum-Treibstoff. Der Erfinder des Facebook-Likes: „Es wird immer unbeabsichtigte Konsequenzen geben“
Diese Funktion ist kein Neuland: Seit Juni 2016 mit iOS 10 integriert, erkennt die KI aus 4.432 Schlüsselwörtern auch „Büstenhalter“ und „BH“.
Apple betont zu Recht: Die gesamte Verarbeitung läuft lokal auf Ihrem Gerät – im Gegensatz zu Google Fotos, wo Analysen auf Cloud-Servern stattfinden, wie The Verge berichtet.
Interessant: Warum „BH“, aber keine männliche Unterwäsche wie „Boxer“ oder „Slip“? Die Keyword-Liste ist umfangreich, doch Auswahlentscheidungen spiegeln oft kulturelle Bias wider. Das zeigt, wie vermeintlich neutrale Algorithmen Weltanschauungen einbrennen können – mit potenziell unerwarteten Folgen.