Bedroht Künstliche Intelligenz die Sicherheit von LGBTIQ*?
Künstliche Intelligenz (KI) beschreibt die Fähigkeit von Software oder Maschinen, immer komplexere Aufgaben zu übernehmen, die früher allein Menschen verrichteten. Doch welche Auswirkungen hat diese Entwicklung auf LGBTIQ*, welche Gefahren gehen davon aus und wie funktioniert KI überhaupt? Muri Darida ist diesen Fragen nachgegangen
Es gibt queere Menschen, die der festen Überzeugung sind, dass ihr Gaydar funktioniert, und solche, die bezweifeln, dass es so etwas überhaupt gibt. Der Gaydar beschreibt popkulturell die vermeintliche Fähigkeit queerer Menschen, andere Queers zuverlässig anhand ihres Aussehens zu erkennen. Zwei Wissenschaftler der Stanford University, Yilun Wang und Michal Kosinski, wandten dieses Prinzip auf künstliche Intelligenz (KI) an und ließen eine Gesichtserkennungsmaschine Fotos aus Datingapps analysieren. Die Bilder enthielten Metadaten über sexuelle Präferenzen. Über diese Informationen lernte die Software, bestimmte Merkmale als Indikatoren für sexuelle Orientierungen zu erkennen. Das Ergebnis: Tiefe neuronale Netze, also KI-Systeme, könnten angeblich die sexuelle Orientierung anhand von Fotos akkurater aus Gesichtern ablesen als Menschen.
Die Studie, in der Wang und Kosinski 2017 ihre Ergebnisse veröffentlichten, war ein medialer Kracher. Und ihre Ergebnisse erstaunlich unoriginell: Homosexuelle Menschen sollten „gender-atypische“ Gesichtsmerkmale haben. Schwule Männer hätten etwa im Vergleich zu heterosexuellen Männern angeblich schmalere Kiefer, längere Nasen und höhere Stirnen, lesbische Frauen breitere Kiefer und kleinere Stirnen. Also zusammengefasst: Schwule Männer sähen „weiblicher” und lesbische Frauen „männlicher” aus als heterosexuelle Personen. Somit hat die KI vermeintlich bewiesen, was sich Menschen vorher sowieso schon gedacht haben. Das tut sie häufig. Eine zutiefst menschliche Annahme ist etwa, dass sich anhand physiognomischer Merkmale sämtliche biografische und persönliche Informationen ablesen ließen. Ähnliche Studien existieren etwa, um von Gesichtszügen auf potenzielle Straftaten zu schließen.
„An der Studie kann man schön ablesen, wie neue KI-Verfahren dazu genutzt werden, veraltete Wissensformen wieder mit Leben zu füllen.”
Das Ganze erinnert stark an das 19. Jahrhundert der Physiognomik, einer Pseudowissenschaft, die vorgibt, menschliche Eigenschaften im Gesicht ablesen zu können, und kolonialrassistische Schädelvermessungen, die die weiße Überlegenheit bestätigen sollten. So versuchte etwa der italienische Rechtsmediziner Cesare Lombroso über Schädelanalysen von Häftlingen die Physiognomie des „geborenen Verbrechers“ zu klassifizieren. Was im vergangenen Jahrhundert größtenteils als Grundlage für Eugenik und als Blödsinn verworfen wurde, erlebt mit dem Aufkommen von KI-Systemen sein Comeback. Lassen sich potenzielle Straffälligkeit und wen man gerne vögelt, also doch im Gesicht ablesen?
„An der Studie kann man schön ablesen, wie neue KI-Verfahren dazu genutzt werden, veraltete Wissensformen wieder mit Leben zu füllen”, sagt Ann-Kathrin Koster, Mitherausgeberin des Buches „Queere KI: Zum Coming-out smarter Maschinen”, das Ende 2022 im transcript Verlag erschienen ist und sich mit den disruptiven und queeren Strategien innerhalb eines auf Eindeutigkeit ausgelegten Feldes wie KI beschäftigt. Sie ist Wissenschaftlerin und politische Theoretikerin und lebt in Berlin. Ann-Kathrin Koster beschreibt KI als „keine einheitliche Technologie, sondern unterschiedliche Computerverfahren, die immer auf mathematischen Verfahren und Berechnungen basieren”. In der Regel gehe es dabei um statistische Prozesse und Berechnungen, mit denen komplexe Probleme situationsgerecht gelöst werden sollen. Wenn wir heute über KI sprechen, seien damit hoch automatisierte Computerprogramme gemeint.
KIs erscheinen verblüffend menschlich
Aber wie funktioniert künstliche Intelligenz überhaupt? Alle heute gängigen KI-Systeme nutzen neuronale Netze. Heruntergebrochen ist eine Grundannahme hinter KI: Das menschliche Gehirn funktioniert wie ein Computer, und demzufolge können Computer lernen, sich wie menschliche Gehirne zu verhalten. Neuronale Netze sind so etwas wie winzige Diagramme, die den Aufbau des menschlichen Gehirngewebes imitieren, das für Kognition verantwortlich ist: zum Beispiel für die menschliche Sicht und Mustererkennung. Schließlich gelang es Forscher*innen, neuronale Netze übereinanderzuschichten. Auf diese Weise entstand Deep Learning, also das tiefe und vernetzte Lernen, das KIs heute so verblüffend menschlich erscheinen lässt. Deep Learning ist eine Methode, die Computer trainiert, Daten auf eine ähnliche Weise zu verarbeiten wie das menschliche Gehirn. Programme können also lernen, anatomische Features wie Gesichter, Augen und Hände zu erkennen.
„Das Problem mit Mustern: Sie orientieren sich am Allgemeinen, am Häufigen, sozusagen an der Norm.“
Das Problem mit Mustern: Sie orientieren sich am Allgemeinen, am Häufigen, sozusagen an der Norm. Alles und alle, die sich teils oder gänzlich außerhalb der Norm befinden, werden einfach aussortiert. Eine KI kann sich also ähnlich verhalten wie Tante Erna im Dorf, die in ihrem ganzen Leben partnerschaftliche Liebe nur in Form von Heteropaaren wahrgenommen hat und sich partout nicht erklären kann, dass sich Marianne und Lisbeth von nebenan ein Schlafzimmer teilen. Oder wie irgendein Forscher, der sich sicher ist, dass man Schwulsein doch im Gesicht ablesen können muss.
Software orientiert sich an binären Geschlechtermodellen
„Die Annahme, dass sich aus biologischen Mustern auf Geschlecht, Rasse und so weiter schließen lässt, ist alt und verbunden mit Rassentheorien und dem NS”, sagt Koster. Ein Problem mit der modernen Gesichtserkennung sei, dass die Datensätze, die den Softwares zur Verfügung stehen, sich zu 80 Prozent aus männlichen weißen Personen zusammensetzen und somit generell schlecht auf andere Gruppen übertragen werden könnten. Datenbasierte Systeme wie KI suchen zudem nach Mustern und dem Allgemeinen. „Softwares, für die Geschlecht eine Rolle spielt, orientieren sich immer an einem binären System”, sagt sie. „Menschen, die aus dem binären System herausfallen, werden als irrelevant aus dem Datensatz genommen.” Deshalb sei das, was KI-Verfahren wirklich abbilden können, immer begrenzt und lediglich als Ausschnitt aussagekräftig. Die Studie zur Ablesbarkeit der sexuellen Orientierung aus dem Gesicht ignoriert etwa bisexuelle und nicht binäre Menschen komplett. In dem Kontext ist wichtig zu berücksichtigen, dass der Computer auch von vornherein wusste, dass ein Gesicht homosexuell sein muss und eins hetero. Das heißt, dass die Trefferquote weit weniger beeindruckend ist.
„Menschen, die aus dem binären System herausfallen, werden als irrelevant aus dem Datensatz genommen.”
Dennoch erlebt die Gesichtserkennung gerade einen Boom. Traditionell wird sie in Überwachungssystemen in der Öffentlichkeit eingesetzt. Neu ist, dass die Telefone, die Menschen sich auf der Toilette und vor dem Einschlafen keine Armlänge vors Gesicht halten, auch in der Lage sind, biometrische Daten zu erfassen. Zudem leben wir in einer Zeit, in der politische Akteur*innen in einigermaßen demokratischen Staaten es weitestgehend Unternehmen überlassen, die Verwendung und Weitergabe persönlicher Daten transparent zu machen – oder eben nicht. Für die meisten Individuen in einer Bevölkerung ist nicht nachvollziehbar, wie und wann ihre Daten verwendet werden. Hinzu kommt, dass generative KIs, also solche, die neue Inhalte wie Text, Bilder, Musik, Audio und Videos erstellen, menschliche Aufgaben übernehmen.
Programme des Unternehmens OpenAI wie ChatGPT oder Dall-E 2 sind in der Lage, kreative Arbeiten zu produzieren. Gerade Menschen aus der Kreativbranche, zu der auch viele LGBTIQ* und prekär arbeitende Freiberufler*innen zählen, sehen ihre Berufe in Gefahr, da sie durch Maschinen ersetzt werden könnten. Seit diesem Sommer erregt einer der größten Streiks der letzten Jahrzehnte in Hollywood Aufmerksamkeit: Schauspieler*innen befürchteten unter anderem, durch KI-generierte Avatare ersetzt zu werden. Die könnten durch Scans der Darsteller*innen erzeugt und dann in verschiedenen Filmen eingesetzt werden. Auch Drehbuchautor*innen, die wegen miserabler Arbeitsbedingungen und schlechter Bezahlung streiken, sorgen sich zusätzlich, dass Produktionsfirmen die Drehbücher künftig von KI-Softwares schreiben lassen. Die realen menschenfeindlichen Arbeitsbedingungen des 21. Jahrhunderts gepaart mit uralten dystopischen Vorstellungen über maschinelle Intelligenz, die der menschlichen Existenz feindlich gegenübersteht, sorgen für ein Klima der Beunruhigung, was die Entwicklung von KI betrifft.
Bedroht KI die Sicherheit von LGBTIQ*?
Besonders marginalisierte Personen befürchten, durch die Fähigkeiten und den Einsatz neuer Technologien bedroht zu werden. Mit Grund. KI-Softwares arbeiten mit dem Material, das bereits zur Verfügung steht, samt all den Stereotypen, falschen Zuschreibungen und Verzerrungen. Gerade in einem Jahrzehnt, in dem rechtspopulistische und rechtsradikale Parteien und Bewegungen global vernetzt an Macht gewinnen, sind Überwachungs- und Dedektionsprogramme eine Bedrohung für die Sicherheit gerade rassifizierter, queerer und armer Menschen. Die Kampagne All Out hat eine Petition gestartet, um die automatische Erkennung von Geschlecht und sexueller Orientierung auf EU-Ebene zu verbieten. „Es war ein entscheidender Schritt des Europäischen Parlaments, im Juni groß angelegte biometrische Überwachungstechniken, einschließlich KI, die Personen auf der Grundlage von Geschlecht, Sexualität, ethnischer Zugehörigkeit oder Emotionen kategorisiert, zu untersagen“, sagt Yuri Guaiana, Senior Kampagnenmanager von All Out, gegenüber SIEGESSÄULE. „Jetzt, in der abschließenden Diskussionsphase der Europäischen Union über ihr Gesetz zu künstlicher Intelligenz, drängen einflussreiche Tech-Giganten und Branchenvertreter auf eine bedeutende Ausnahme von der Hochrisikokategorisierung, die das gesamte Gesetz gefährden könnte.” Die Petition fordert die EU-Gesetzgeber*innen auf, „die Ausnahme zu streichen, damit das KI-Gesetz stabil bleibt”. Ziel der Kampagne sei, eine Zukunft zu schaffen, „in der die Technologie unsere Würde respektiert und unsere Grundrechte wahrt”.
Gefahr durch KIs: ein menschengemachtes Problem
Aber können KIs die sexuelle Orientierung überhaupt ablesen und wenn ja, wie? Die kurze Antwort ist: Können sie nicht. Alexander Todorov, Leiter des Social Perception Lab an der Princeton University, untersucht die Entstehung von Stereotypen und Vorurteilen und ist einer der bekanntesten Kritiker der Studie zur Erkennung von sexueller Orientierung. Gemeinsam mit weiteren KI-Forscher*innen erstellte er eine Studie, in der 8000 Crowdworker im Internet nach ihrer sexuellen Orientierung und modischen Präferenzen befragt wurden. Das Ergebnis: Lesben schminken sich zum Beispiel seltener als Heterofrauen, homosexuelle Männer tragen häufiger Brillen als heterosexuelle. Alles Informationen, die auch einer KI zur Verfügung stehen. Besonders relevant für die Studie: Heteromänner fotografieren sich lieber von unten, Heterofrauen gerne von oben, Queers einfach direkt von vorn. Diese Perspektiven verschieben die Proportionen der Gesichtszüge und erklären, warum Wangs und Kosinskis Studie davon ausging, dass schwule Männer längere Nasen und größere Stirnen als Heteros hätten. Lesben haben natürlich im Schnitt ein größeres Kinn als Heterofrauen, wenn sie sich von vorne und nicht von oben fotografieren.
„KI ist kein übermenschlicher, unkontrollierbarer Alien, sondern menschengemacht.“
Das Beunruhigende an sich sind also nicht die übernatürlichen Fähigkeiten von KIs, sondern der vehemente Wille menschlicher Akteur*innen, Abweichungen von der Norm auf biologistische Merkmale festzuschreiben – gerade in Zeiten, in denen immer mehr Regierungen Gesetze verabschieden, die queere Menschen kriminialisieren und bedrohen. Die gesellschaftlichen Herausforderungen durch technologische Veränderungen sind groß. Allerdings ist KI kein übermenschlicher, unkontrollierbarer Alien, sondern menschengemacht. Der zivilgesellschaftliche Einsatz für individuelle Sicherheit und Freiheit bleibt also der Gleiche wie zuvor: Queere, feministische, antirassistische und arbeitsrechtliche Kämpfe.
„Queere KI: Zum Coming-out smarter Maschinen“,
Ann-Kathrin Koster u. a. (Hrsg.),
transcript Verlag, 264 Seiten, 35 Euro
Petition auf allout.org: „Verbiete die automatische Erkennung von Geschlecht und sexueller Orientierung“
Folge uns auf Instagram
#KI#Software#Gesichtserkennung#Technologie#Reportage#Titelstory#AI#Künstliche Intelligenz