Meta-Konzern schränkt „politische Inhalte“ ein – und gefährdet queere Accounts
Politische Inhalte werden seit Februar vom Meta-Konzern, zu dem Instagram, Threads und Facebook gehören, eingeschränkt. Welche Inhalte damit genau gemeint sind bleibt unklar. Auch die Sichtbarkeit queerer Accounts ist damit gefährdet. Wir sprachen darüber mit der queeren Aktivistin Felicia Ewert und Oliver Marsh von der NGO AlgorithmWatch, die sich kritisch mit der gesellschaftlichen Auswirkung von Algorithmen befasst
Eine Polit-Influencerin in Bikini, eine Journalistin des Öffentlich-Rechtlichen Rundfunks, die sich schminkt, eine Wirtschaftsexpertin, die Tomatensauce kocht. Das sind die Veränderungen, die viele in ihrer Timeline beobachten konnte, nachdem Meta im Februar angekündigt hat, „politische Inhalte“ auf Instagram, Threads und später auch Facebook einzuschränken, indem sie Nutzer*innen nicht mehr aktiv vorgeschlagen werden. Schon 2021 sagte Meta-CEO Mark Zuckerberg, Nutzer*innen wollten nicht, dass „Politik und Kämpfe ihr Erlebnis auf unseren Diensten beherrschen“.
Meta definiert politische Inhalte vage als solche, in denen „Regierungen, Wahlen oder soziale Themen“ erwähnt werden, „die eine Gruppe von Menschen und/oder die Gesellschaft als Ganzes betreffen“. Künftig sollen professionelle Accounts sehen können, ob sie oder ihre Inhalte als politisch eingestuft werden. User*innen sollen in den Einstellungen angeben können, ob ihnen weiterhin politischer Inhalt vorgeschlagen werden soll.
„Meta behauptet, dass die Nutzer weniger politische Inhalte wünschen, aber ich vermute, dass dies nur ein bequemer Ersatz für 'spaltende Inhalte' ist.“
Oliver Marsh von der in Berlin gegründeten NGO AlgorithmWatch kritisiert den Schritt als „fehlgeleitet“. Die neue Änderung sei ein systemisches Risiko für die Meinungsfreiheit und für Wahlen. „Meta behauptet, dass die Nutzer weniger politische Inhalte wünschen, aber ich vermute, dass dies nur ein bequemer Ersatz für 'spaltende Inhalte' ist“, sagt Marsh zu SIEGESSÄULE. Metas Definition von „politisch“ berge viele Risiken, etwa, dass bestimmte Topics wie Drag-Shows in den USA von Politiker*innen angegriffen und deswegen von Meta als „politisch“ eingestuft werden. „Das Problem ist nicht das Thema einer Diskussion, sondern aggressive und spaltende Sprache sowie algorithmische Systeme, die Wut und Empörung als 'Engagement' interpretieren und in der Folge immer mehr Inhalte zeigen, die diese Gefühle auslösen“, sagt Marsh. Er fordert Meta auf, diese Probleme zu lösen und nicht so zu tun, „als sei die Politik das Problem“.
Ob Konten von Nutzer*innen marginalisierter Gruppen wie LGBTIQ*, BIPoC, Menschen mit Behinderung oder bestimmter politischer Einstellung stärker von den Einschränkungen betroffen sein werden, lässt sich schwer voraussagen. Aber: „Konten mit wenigen Followern oder Konten, die versuchen, neue Ideen zu verbreiten, werden stärker betroffen sein als Konten, die bereits viele Follower haben“, so Marsh.
„Wenn ich über Nichtbinärsein schreibe ist das für viele nicht greifbar. Dann gibt es auch mehr Hate.“
Die queere Aktivistin Felicia Ewert blickt zynisch auf die neuesten Entwicklungen: „Ich weiß nicht, wie man meine Arbeit noch unsichtbarer machen kann als sowieso schon.“ Ewert folgen auf Instagram knapp 12.000 Menschen. „Das ist aus antifaschistischer queerer Perspektive relativ viel. Aber es gibt nicht viel Resonanz, durchschnittlich haben meine Posts 28 Likes“, so Ewert gegenüber der SIEGESSÄULE, und erklärt weiter: „Wenn es für mehr Menschen relatable ist, bekommt es mehr Aufmerksamkeit. Ein Thread von mir über Femizide wurde viel geteilt. Wenn ich explizit über Nichtbinärsein schreibe und die binäre Geschlechtereinteilung kritisiere, ist das für viele nicht greifbar oder es kritisiert die Lebensrealität von Leuten. Dann gibt es auch mehr Hate.“ Bestimmte Wörter vermeide Ewert seitdem Instagram und Tiktok Posts von ihr sperrten, in denen das Wort „Dyke“ vorkam. Und: „Früher habe ich viel mehr über eigene Körperlichkeiten geschrieben, drei Stunden nach meiner ersten Vulva-Plastik habe ich etwas dazu gepostet. Das würde ich heute nicht mehr machen“, so Ewert. Der Grund dafür sind Drohungen und Doxxing.
Körper von queeren und dicken Menschen wurde anderen Nutzer*innen weniger angezeigt.
Immer wieder gibt es Kritik an Konzernen wie Meta, dass Hasskommentare nicht ausreichend moderiert und eingeschränkt, stattdessen progressive Inhalte herabgestuft würden. Der Begriff dafür ist Shadowban – Inhalte werden nicht explizit zensiert und dürfen hochgeladen werden, werden aber vom Algorithmus schlechter bewertet und erreichen dadurch weniger Menschen jenseits der eigenen Follower*innen. 2020 kam eine Untersuchung von AlgorithmWatch zu dem Schluss, dass der Instagram-Algorithmus nackte Haut besonders bei weiblich gelesenen Personen stark bevorzugt. Gleichzeitig gab es Meldungen, dass Körper von queeren und dicken Menschen anderen Nutzer*innen weniger angezeigt wurden.
Video von Felicia Ewert zum Tag der lesbischen Sichtbarkeit
Aktuell versuchen Accounts die neue Regelung zu umgehen, indem sie im Video scheinbar „unpolitischen“ Content teilen, aber über Politik sprechen. So z.B. die österreichische Influencerin Madeleine Alizadeh, die unter ihrem Account DariaDaria in der Rubrik „Ass & Activism“ im Bikini über politische Inhalte spricht. Andere Accounts vermeiden Begriffe wie „Sex“, „Fuck“ oder auch „Gaza“. Doch welche Wörter, Wortkombinationen und Methoden Meta nutzt, um Inhalte herunterzustufen, ist nicht öffentlich. Das macht es schwer, sie zu umgehen. Besonders ironisch wird es, wenn sich User*innen wie etwa die kanadische Ernähungsberaterin Abbey Sharp gegen toxische Diätkultur einsetzen und Essstörungen entstigmatisieren wollen, jedoch ausgerechnet Begriffe wie „Essstörung“ ausblenden, um nicht vom Algorithmus herabgestuft zu werden. Das widerspricht eigentlich einem entstigmatisierenden Ansatz, zu dem gehört, Begriffe ohne Scham auszusprechen.
Nach dem EU-Gesetz über digitale Dienste (Art. 17), das seit dem 17. Februar 2024 vollumfassend anwendbar ist, müssen Hostinganbieter Nutzer*innen eine Begründung mitteilen, wenn sie Inhalte entfernen, sperren oder herabstufen. Ob dies auch für die allgemeine Regelung von Meta zu „politischen Inhalten“ Anwendung finden wird, ist laut Marsh noch unklar. Dennoch gebe es zwei Wege, auf die Meta vom Gesetz über digitale Dienste beeinflusst werden könnte: Meta müsste Nutzer*innen möglicherweise mitteilen, ob ihr Inhalt „politisch“ ist und nicht proaktiv angezeigt wird, und dies auch in der Datenbank auflisten. „Dann könnten vielleicht mehr darüber erfahren, wer von der neuen Regelung betroffen ist“, so Marsh. Möglich sei auch, dass die Plattformen Risikobewertungen durchführen müssten, wenn sie neue Funktionen einführen, die „systemische Risiken“ verursachen könnten. Das sei aber auch dann ein Prozess, der sich nach seiner Einschätzung lange hinziehen dürfte.
Folge uns auf Instagram
#Instagram#Social Media#Algorithmus#Meta#Facebook#Queere Accounts#politische Inhalte