Die sexuelle Orientierung von Männern und Frauen anhand eines Fotos zu erkennen ist für Menschen sehr schwer. Zwei Forscher der Stanford Universität wollen ein KI-System so trainiert haben, das es „per maschinellem Lernen aus Bildern von Datingplattformen“ erkennt, „ob eine Person auf einem Porträtfoto homosexuell ist oder nicht.“ Klingt erst einmal schwierig, doch die Trefferquoten des Systems sprechen für sich: So habe die KI in 81% der Fälle richtig erkannt, ob der Mann auf dem Foto homosexuell ist oder nicht. Zum Vergleich, Menschen raten laut der Forscher „die sexuelle Orientierung bei Männern nur in 61 % der Fälle richtig.“ Die sexuelle Orientierung von Frauen erkannte das KI-System anhand der Fotos weniger gut, aber immerhin mit einer Trefferquote von 71% und damit deutlich besser als die 54% richtige Antworten, die befragte Personen im Interview gaben (heise.de).

Was ergibt sich im Zeitalter von KI daraus für den Datenschutz? Welche intimen Informationen könnten dann, beispielsweise aus dem Foto in der Berwerbungsmappe, erkannt werden?

Diskussion:

Artikel: Stanford-Forscher Michal Kosinski „hält die zunehmende Anwendung solcher Techniken und ihren Missbrauch für immanent.“ Es würde zwangsläufig so kommen, dass sich die Menschen im digitalen Zeitalter nach und nach von ihrer Privatspähre verabschieden müssten. (Quelle: spiegel.de)

Artikel: „Spracherkennung wird zum Problem für Minderheiten“ (Quelle: heise.de/Technology Review)

Artikel: US-Forscherinnen haben ein Projekt ins Leben gerufen, das diskriminierenden Algorithmen entgegenwirken soll. (Quelle: br.de)

Hintergrundinfos:

Studie: Vorgehen und Ergebnisse der Forscher, der oben genannten Studie. (Quelle: spiegel.de/Preprints)

Unternehmensvorstellung: Das israelische Unternehmen „Faception“ vermarktet eine Software, die auf Terror-Prävention setzt und mit Hilfe künstlicher Intelligenz, Profile von Menschen anhand von Fotos erstellt und deren Persönlichkeit daraus ableitet. (Quelle: faception.com)

Tagged on: