Einst inspirierte das Internet feministische Visionen. Doch zeigt sich zunehmend, dass sich die Identitätslogiken, Herrschafts- und Ausbeutungsverhältnisse der alten Welt mit der Digitalisierung eher verstärken: Antifeminist*innen nutzen das Netz zur misogynen Hetze, während Systeme so genannter künstlicher Intelligenz sexistische und rassistische Diskriminierung automatisieren. Das hängt mit den Arbeits- und den Eigentumsverhältnissen im digitalen Kapitalismus zusammen.

erschienen in: Reclaim your Archive! Online Artikelserie auf reclaim.hypotheses.org, herausgegeben von Art Doc Archive, Berlin

März 2023

Feministische Visionen zum Cyberspace

Ein Hund sitzt auf einem Bürostuhl am Computer und erklärt einem zweiten, der vom Boden zu ihm herauf schaut: „On the internet nobody knows you’re a dog“. Der Cartoon erschien 1993 im New Yorker und brachte eine der zentralen Utopien zur neuen Kommunikationstechnologie auf den Punkt: Im Internet könne man sich vom vorurteilsbeladenen Denken der hiesigen Welt befreien. So schwärmt etwa die US-amerikanische Soziologin Sherry Turkle 1995, dass online nicht jene begrenzenden Identitätskategorien zählen, in die sich Menschen ansonsten aufgrund von Äußerlichkeiten einordnen würden, sondern einzig Worte und Inhalte. Was für ein Versprechen das war — nicht nur für den Hund, auch für die Frau und jede queere Person: Im Cyberspace kannst Du mitreden, denn niemand weiß, dass Du kein Mann bist!

Turkle und andere frühe Netz-Theoretiker:innen gingen davon aus, dass die Möglichkeit, anonym miteinander zu kommunizieren, befreit von gesellschaftlich kategorisierten Körpern, endlich zu mehr Geschlechtergerechtigkeit führen würde. Die Menschen könnten nun schließlich mit Identitäten spielen und dabei etwa geschlechterdifferente Alltagspraxen als Konstruktionen, als sozial geformte Denk-, Gefühls- und Handlungsmuster erfahren, also die Theorien der Gender Studies in der körperlosen Begegnung im Netz quasi selbst erleben (u.a. Turkle 1998; Angerer 1999; Eisenrieder 2003; Jagodzinski 2004).

Bereits zuvor machte Donna Haraway mit ihrem „Manifesto für Cyborgs“ (1985) dem Feminismus mit ihrer Vision der Cyborg Hoffnung auf Beihilfe durch neue Technologien: Die Cyborg konzipiert Haraway als eine hybride Denkfigur, eine Verschmelzung von Mensch und Computer, die imstande sei, die vorherrschenden dualen Konzeptionen von Männlichkeit und Weiblichkeit, Technik und Organismus, Natur und Kultur, Subjekt und Objekt, Tier und Mensch zu unterlaufen, Grenzen aufzulösen und verschwimmen zu lassen. Die Einführung des Internets läutet aus dieser Perspektive nicht automatisch das Ende des Patriarchats und anderer Herrschaftsverhältnisse der kapitalistischen, (post)kolonialen Welt ein — Transformationspotential setzt es aber allemal frei. Etwa das Potential dazu, den westlichen, cis-männlichen objektiven Wissenschaftler-Blick als Illusion zu offenbaren.

Während Haraways Cyborg-Vision die dualen Ordnungen der Welt und das binäre Denken herausfordert, setzt eine andere wichtige feministische Befreiungstheorie dieser Zeit an der bestehenden binären Geschlechterordnung an: Sadie Plant entwirft den Cyberspace 1998 als weiblich codierten Raum. Die digitale Struktur des Netzes, das sich mit seinen Vernetzungsmöglichkeiten und in seiner Komplexität der Linearität entziehe, assoziiert sie mit den Tätigkeiten des Spinnens und Webens — mit Aufgaben, die traditionell von Frauen übernommen wurden. Und Plant belegt ihre Thesen mit Beispielen aus der Technikgeschichte, die zeigen, dass gerade Frauen die Erfinderinnen der neuen Technologie waren und die entscheidenden Ideen und Impulse für die Entwicklung des Internets lieferten. Sie seien es also auch, die sich den Raum aneignen und ihn emanzipatorisch zu nutzen wissen würden. Trotz ihrer technikdeterministischen und differenzfeministischen Ausrichtung fand Plants Theorie weite Verbreitung, eröffnete sie doch, wie Johanna Dorer treffend zusammenfasst, die Möglichkeit eines neuen technikaffinen feministischen Aktivismus, der die Utopie einer Umkehr der Geschlechterhierarchie beflügelte (vgl. ebd. 2022).

Sexistische Arbeitsverhältnisse heute

Die ersten Menschen, die Computer programmierten, waren zwar tatsächlich Frauen, allen voran Ada Lovelace in den 1840er Jahren (vgl. etwa Krämer 2015). Doch wer heute einen Blick auf das Geschlechterverhältnis unter Informatik-Studierenden wirft, weiß, dass Sadie Plants Vision sich ganz und gar nicht erfüllte: Berufe, die mit der Digitalisierung der Gesellschaft zu tun haben, gelten vor allem hierzulande als Männerdomänen. So zeigt der dritte Gleichstellungsbericht der Bundesregierung aus dem Jahr 2022, dass in der so genannten Digitalbranche nur 16 Prozent Frauen beschäftigt sind, in deren Führungspositionen oder bei der Gründung von Startups sind sie kaum vertreten. Von nicht-binären Menschen ist gar nicht erst die Rede. Die Digitalbranche ist nach der Definition des Berichts „der Treiber der Digitalisierung“, jene Branche, in der digitale Technologien entwickelt und gestaltet werden. Die wenigen weiblichen Angestellten in der Branche verdienen deutlich weniger als ihre männlichen Kollegen, selbst wenn sie die gleichen Aufgaben erfüllen: Der Gender Pay Gap in IT-Berufen liegt bei 7 Prozent, je kleiner der Betrieb, desto größer der Gehaltsunterschied (vgl. bmfsfj 2021: 13).

Wie die beiden Technologie-Forscherinnen Tanja Carstensen und Bianca Prietl zeigen, sind mit der Einführung neuer Technologien meist Rekonfigurationen in der gesellschaftlichen Organisation und Verteilung von Arbeit zu beobachten, die etwa geschlechtstypische Berufsbilder verschieben und Fachkompetenzen neu definieren. Dabei halten sie stets aufs Neue, so betonen die Forscherinnen, die hierarchische Struktur zwischen Männer- und Frauenarbeit aufrecht (ebd. 2021: 32f.). So hat schon zuvor etwa die Einführung der Schreibmaschine den früher hoch angesehenen Männerberuf des Sekretärs abgewertet und schließlich zu einem Frauenberuf gemacht; im Fall des Programmierens war es dagegen genau anders herum: Die Arbeit am Computer wurde zur Männerdomäne, als sie sich als politisch und ökonomisch relevant und damit prestigeträchtig erwies.„Wie diese Analysen zum Geschlechtswechsel von Berufen besonders deutlich demonstrieren, dient(e) gerade der Verweis auf als technisch gerahmte Arbeitsinhalte und Kompetenzen immer wieder dazu eine Arbeit als ‚professionell‘ und dabei Männern vorbehalten auszuweisen.“ (ebd.)

Die zunehmende Bedeutung der Informatik führte zur Einrichtung von eigenständigen Informatik-Instituten, die meist an technischen Universitäten oder Hochschulen angesiedelt wurden, an deren ingenieurswissenschaftlichen Instituten ohnehin schon männlich-dominierte Fachkulturen herrschten, was den Frauenanteil in der Informatik weiter nach unten drückte (vgl. Geiling/Jende 2021: 11f.). Durch verschiedene Gleichstellungsbemühungen wuchs er in den vergangenen Jahren zwar wieder, aber auch heute studieren immer noch verhältnismäßig weniger Frauen Informatik als Mitte der 1970er Jahre (ebd.).

Die historisch etablierte und strukturell-symbolisch verankerte Verbindung von Technik mit Männlichkeit naturalisiert die Arbeitsteilung zwischen den Geschlechtern, nach der Männer aktive Gestalter und Frauen passive Nutzerinnen sind (Carstensen/Prietl: 31). Ähnliches hatte schon die frühe Frauen- und Geschlechterforschung kritisiert: „Die Konstrukteure und Entwickler der neuen Systeme, diejenigen, die die Anlagen vermarkten und verkaufen, installieren, verwalten und warten, sind, mit nur wenigen Ausnahmen, Männer. Frauen dürfen zwar die Knöpfe drücken, in den Geräten aber haben sie nichts zu suchen.“ (Cockburn 1988: 21)

Und so haben zwar Mädchen in der Schule konstant im Schnitt die besseren Noten, doch es sind es sind diejenigen, die als Jungen sozialisiert werden, die dabei lernen, die Schalthebel der entscheidenden Positionen zu ergreifen. Das trifft vor allem auf jene mit akademischem Hintergrund zu. Wie Huw C. Davies und Rebecca Eynon 2018 in einer Studie für den britischen Raum zeigen, sind es meist junge Männer, deren Väter bereits in technischen Berufen tätig sind, die sich schon als Teenager für Computer-Technologie interessieren. Vor allem diejenigen, die früh Computerspiele für sich entdecken und in ihren Peer-Groups nicht nur miteinander spielen, sondern sich gemeinsam Fähigkeiten aneignen, die Programme zu verstehen und zu gestalten, erlangen dadurch einen Status, der über dem des Spieler-Stereotyps liegt: Die jungen Gamer, die Davies und Eynon interviewen, gelten als technisch versiert und sie glauben von sich, das Digitale zu beherrschen. Sie orientieren sich am Bild des „Brogrammers“, das sich laut Lukas Merlin Geiling und Patrick Jende (2021: 11ff.) seit den 1990er Jahren als Ideal in der Informatik entwickelt habe: Der „Brogrammer“ ist, wie das Wort — eine Kombination der Begriffe „Bro“ und Programmer — nahelegt, ähnlich technikaffig und fleißig wie der Nerd, grenzt sich aber durch Extrovertiertheit, Hybris und Risikobereitschaft von ihm ab; „Bro“ steht dabei für „Bro-Culture“, für die Kultur einer ‚brüderlich’, homogen und sexistisch agierenden Gruppe von Männern; eine Kultur, die vor allem im Silicon Valley Verbreitung fand (vgl. Chang 2018). Mit weiteren Konsequenzen für die wenigen Frauen und Queers, die einen Einstieg in diese Branche schaffen: Ab den 2010er Jahren waren cis-männliche Silicon-Valley-Mitarbeiter vermehrt in sexistische und sexualisierte Übergriffe involviert (vgl. Hicks 2013).

Und auch die formalen Arbeitsbedingungen in den Digitalunternehmen sorgen dafür, dass das Feld männlich dominiert bleibt: Die Arbeit etwa bei Google, Apple oder Amazon ist noch entgrenzter als in anderen Branchen (vgl. etwa Streit 2011: 185). So wird das alte traditionell männlich besetzte Normalarbeitsverhältnis, das auf der Spaltung in Produktions- und Reproduktionssphäre basiert, verschärft (Scheele 2019: 109): Neben den beruflichen Anforderungen bleibt kaum Zeit für Care-Arbeit, für Haushalt und Versorgung etwaiger Kinder. Auch in älteren Berufsfeldern wie in der Bildungsarbeit, im Projektmanagement, im Journalismus und im Marketing führt die zunehmende Digitalisierung der Zusammenarbeit dazu, dass die Erwartung an die Beschäftigten steigt, allzeit verfügbar zu sein und sich komplett mit dem Unternehmen zu identifizieren (vgl. Fuchs/Graf 2019: 89). Das wird gerade für diejenigen schwierig, die daneben weiterhin die Hauptlast unbezahlter Hausarbeit und Kindererziehung erledigen — und das sind, wie der zweite Gleichstellungsbericht der Bundesregierung belegt, durch alle Schichten hindurch immer noch mit großem Abstand Frauen, erst recht jene, die in heterosexuellen Paarhaushalten leben.

Das ist die andere Seite der Sphärentrennung, die dem kapitalistischen Ausbeutungsapparat dient: Während Technik immer noch männlich konnotiert ist, wird die Tätigkeit der Fürsorge weiterhin denen zugeschrieben, die sie vermeintlich qua Chromosomen-Kombination im Blut haben. So führt dann auch die Entgrenzung von Arbeit im digitalen Homeoffice, wie etwa während der Lockdowns ersichtlich wurde, bei Männern zur Produktivitätssteigerung, während sie Frauen von der Lohnarbeit abhält und zur unbezahlten Hausarbeit bringt (vgl. Wiedemann 2021: 26). Während als technisch und damit als männlich geltende Arbeiten gegenwärtig weiterhin aufgewertet werden, bleibt die weiblich konnotierte Care-Arbeit im privaten Rahmen unbezahlt oder sie wird an Putzkräfte und Altenpfleger:innen ausgelagert, die größtenteils stark unterbezahlt sind — auch das zunehmend vermittelt über digitale Dienstleistungsanbieter. Carstensen und Prietl merken in diesem Zusammenhang an, dass einige Arbeitskämpfe der Digitalindustrie, etwa die der Beschäftigten in Lieferdiensten im Zentrum öffentlicher und akademischer Aufmerksamkeit stehen, dagegen aber die Ausbeutung von Putz- und Pflegekräften, ebenfalls gesteuert über digitale Plattformen, kaum Thema ist (ebd. 2021: 33). Auch hier setzt sich der patriarchale Teufelskreis fort.

Algorithmen der Unterdrückung

Die Häuser, in denen wir wohnen, die Geräte, die wir bedienen, die Maschinen, die uns das Leben leichter machen sollen, fallen alle nicht vom Himmel. Sie sind erstens nach den herrschenden Dispositiven ihrer Zeit geformt, deren — verstärkender oder auch modifizierender — Bestandteil sie selbst werden, sobald sie zur Anwendung kommen. Sie sind zweitens in der Profitwirtschaft nach Interessen der Kapitalgeber:innen strukturiert, worauf ich noch zurückkomme, und drittens nach den Vorstellungen der jeweiligen Entwickler:innen, deren Blick auf die Welt nicht nur durch die Dispositive, sondern auch auf Grund ihrer jeweiligen gesellschaftlichen Position und Situiertheit geprägt ist. Und so werden selbst Programmierer:innen oder Gründer:innen mit hehren Ansprüchen in einem Team von Mitarbeitenden mit ähnlichen Lebensbedingungen und Erfahrungen kaum ‚neutrale‘ Hard- und Software erschaffen können, die allen Menschen dient. Nach der Technologie-Expertin Nakeema Stefflbauer zeigt sich das etwa bei Wikipedia, in dessen Dienst „eine Mehrzahl an männlichen Redakteuren es vernachlässigen, dass öffentliche Informationsseiten über die Leistungen von Frauen erstellt werden. Dies gilt auch für andere minorisierte Gruppen. Wir sind (…) mit menschlichen Überprüfungs-, Kuratierungs- und Entscheidungsprozessen, durch eine enge Gruppe, bestehend aus Menschen gemäß der herrschenden Normen, basierend auf race, wirtschaftlichem Status, Geografie und Geschlecht konfrontiert.“ (Stefflbauer 2021)

Eine „enge Gruppe“ kuratierte auch vor der Zeit des Internets die Auswahl wichtiger Werke für die Menschheitsgeschichte. Die Digitalisierung aber gilt in der Öffentlichkeit immer noch als Prozess, der genau aus jenen alten Machtverhältnissen des Gatekeepings hinausführt. Wenn so genannte künstliche Intelligenz im Einsatz ist und etwa Prozesse der Suche und Auswahl oder der Übersetzung und Bilderkennung auf Basis von Algorithmen automatisiert sind, vermitteln sie erst recht den Anschein der Neutralität. Verschiedene Anwendungen führen jedoch deutlich vor Augen, dass sie als normative und nicht zuletzt auch heteronormative, sexistische und rassistische Macht funktionieren (vgl. Freudenschuß 2014: 10).

2019 brachte Apple eine eigene Kreditkarte auf den Markt und verwendete zur Prüfung der Qualifikation von Nutzer:innen ein KI-Programm, das dafür sorgte, dass Frauen bei gleichen finanziellen Voraussetzungen einen geringeren Kreditrahmen bekamen (vgl. Wietlisbach 2019). 2018 entwickelte Amazon ein KI-gestütztes Bewerbungstool, das als vermeintlich neutrales Machine-Learning-Programm garantieren sollte, die besten Kandidat:innen auszuwählen. Das Ergebnis: Es sortierte alle Frauen aus (vgl. etwa Kantayya 2020). Safyia Noble schreibt in ihrem wegweisenden Buch von „Algorithmen der Unterdrückung“ (Noble 2018) und dokumentiert „algorithmischen Rassismus und Sexismus“ vor allem bei automatisierten Suchvorgängen: In den Nullerjahren etwa zeigte Google bei der Suche nach „black girls“ durchweg sexualisierte und sexistische Bilder (ebd.). Andere Arbeiten zu Google-Suchergebnissen belegen, dass nach der Eingabe von „woman“ zeitweise Vorschläge wie „the future of man“, „a devil“ oder „too pretty to work“ erschienen (Hogan/Luka 2014: 241). 2023 bewies ein internationales Recherche-Team, dass Bilderkennungs-Technologien von Microsoft, Google und der Amazon-Tochter „Amazon Web Services“ (AWS), mit denen verschiedene Plattformen vermeintlich sexuell anzügliche Bilder ihrer Nutzer:innen herausfiltern, deutlich häufiger Bilder von Frauen im Vergleich zu Bildern von Männern als anzüglich einstufen (vgl. Brunner/Harlan/Reitmeir 2023) — mit dem Ergebnis, dass etwa ein Marketing-Profil einer als weiblich gelesenen Person auf LinkedIn gesperrt wird, während der Algorithmus ein Bild in der exakt gleichen Aufmachung als professionell einordnet, wenn er die Person auf dem Foto als männlich liest.

Die digitalen Infrastrukturen produzieren eigenständige Erzählungen, kanalisieren Wissen und besetzen Begriffe, wie Magdalena Freudenschuß festhält (2014: 10) — dabei bauen sie auf bestehende rassistische und hetero-sexistische Stereotype auf. Schließlich lernen sie auf Basis der Daten, die ihnen zur Verfügung stehen, Korrelationen in der hiesigen Welt zu erkennen (u.a. Horwath 2022).

Das Amazon-Bewerbungstool etwa sortierte alle Frauen aus, obwohl die Bewerbungen anonym waren, also keine Namen und keine Angaben zu Geschlecht oder Herkunft enthielten. Die Funktionslogik dieser „künstlichen Intelligenz“ besteht darin, dass der Algorithmus auf Basis vorhandener Datensätze in diesem Fall jene Muster erkennt, die Führungskräfte im Schnitt gegenwärtig vorweisen; da Weiße cis Männer aktuell zumeist die Führung repräsentieren, gelten der KI somit Gemeinsamkeiten in den Lebensläufen jener Männer als Muster, die besondere Eignung für Führungspositionen versprechen. Lebensläufe, die diese Eigenschaften nicht vorweisen, werden deshalb aussortiert. Die Systeme „lernen“ entweder auf Basis von Datensätzen, die ihnen von Entwickler:innen eingespeist, und nach Variablen, die von den Programmierer:innen vorgegeben werden, und reproduzieren insofern die Urteile und Perspektiven derer, die sie trainieren. Oder sie lernen „frei“ auf der Basis aller verfügbaren Daten, Muster zu erkennen — und sie zu reproduzieren (vgl. Hagendorff 2019). Die Software folgt dem ‚männlichen‘, dem patriarchalen Blick, in dessen Augen Frauen, erst recht Schwarze Frauen und Queers, zu vernachlässigen sind, in denen sie unfähig für Politik, Technik, Wirtschaft sind. Dieses Muster, die vermeintliche Korrelation sieht auch der Computer, der die vorhandenen Daten ordnet und dann Kausalitäten erstellt, der also etwa bemerkt, dass deutlich mehr Männer als Frauen oder Queers Regierungen und wichtige Institutionen leiten und daraus schließt, Letztere seien dazu nicht zu gebrauchen. So automatisiert er die sexistische Ideologie (vgl. u.a. Schmidt 2021).

So erklärt sich etwa auch der Umstand, dass Gesichtserkennungssoftware bei Weißen Männern am besten funktioniert, mit dem Hinweis darauf, dass erstens diejenigen, die den Algorithmus mit Daten trainieren, vorwiegend Weiße Männer sind, die wiederum Bildersätze wählen, die ihnen selbst entsprechen, und zweitens damit, dass auch der im Netz verfügbare Satz an Daten, in diesem Fall der Satz an Bildern, die medialen Sichtbarkeitsverhältnisse der Menschen weltweit widerspiegelt, in denen schwarze Frauen und Queers weiterhin am wenigsten repräsentiert sind (vgl. etwa D’Ignacio/Klein 2020: 137). Was schon zuvor für die Entstehung neuer Apparate galt, das trifft auf Apps und Anwendungen, denen Systeme so genannter künstlicher Intelligenz zugrunde liegen, umso offensichtlicher zu: Sie reproduzieren die Muster der Herrschaft.

Antifeminismus und die Macht der Plattformen

Auch Sherry Turkles frühe Vision hat sich nicht erfüllt – was sie selbst bereits in späteren Arbeiten thematisiert: Das Internet ist gegenwärtig kein Raum, in dem Menschen aus dem kategorialem Denken und den Identitäten der hiesigen Welt ausbrechen. Im Gegenteil: Diejenigen, die ohnehin schon marginalisiert sind, erleben in den Sphären des Netzes weitere (Versuche der) Einschüchterung und diejenigen, deren chauvinistisches Selbstbild besonders auf der Abgrenzung und Abwertung von anderen basiert, radikalisieren sich auf den Kommunikations-Plattformen.

Allein von 2009 bis 2016 ist es zu einer geschätzten Verdreifachung von Hate-Speech-Aktivitäten gekommen (Carlson 2016). Mit dem Begriff Hassrede bezeichnet die Forschung „nicht beliebige (…) Beleidigungen per se, sondern solche Aussprüche, die Vorurteile (re-)produzieren und marginalisierte Gruppen diskriminieren“ (Quent 2018: 50). Ihre zunehmende Verbreitung online ist auch als Ausdruck des Erstarkens rechter, menschenverachtender Ideologie und ihrer Bewegungen in Europa, in den USA und etwa in Brasilien in den vergangenen Jahrzehnten zu verstehen (vgl. Matamoros-Fernández/Farkas 2021). Und mit dem Beharren auf alten, rassistischen, völkischen Ordnungen, die diese Bewegungen artikulieren, geht maßgeblich die Ablehnung von Feminismus und der Kampf für patriarchale, vermeintlich natürliche Geschlechterordnungen einher.

In Deutschland stimmte 2022 gemäß der Leipziger Autoritarismus-Studie fast ein Viertel der Befragten der Aussage zu, der Feminismus bedrohe unsere gesellschaftliche Ordnung — bereits sieben Prozent mehr als zwei Jahre zuvor. Dieser neue, alte Antifeminismus zeigt sich in Hassnachrichten und Droh- Emails, die Feminist:innen, Frauen* und Queers zunehmend bekommen, besonders diejenigen, die in der Öffentlichkeit stehen, und dabei vor allem linke, rassifizierte und trans Frauen. Er zeigt sich auch in weiteren Formen geschlechtsspezifischer digitaler Gewalt wie etwa im Doxing, also der Hetze, die mit Veröffentlichung der Wohnadressen von Betroffenen einhergeht, oder in der Verbreitung von Fake News und der Montage sexualisierter Bilder zur Diffamierung Einzelner, wie es u.a. Annalena Baerbock erlebt hat. (Es bräuchte noch ein zusätzliches Unterkapitel zu den verschiedenen Formen digitaler geschlechtsspezifischer Gewalt, die hier aus Platzgründen nur beiläufig Erwähnung finden. Zur weiteren Lektüre seien hier u.a. die Arbeiten von Nivedita Prasad (2021) und Anne Roth (2018) zu empfehlen.)

Die Praxis der Vernetzung über Social Media ist zentral für die zunehmend transnational agierende antifeministische Szene, wie verschiedene Arbeiten belegen (vgl. etwa Rothermel 2020; Ging 2017). Das Narrativ, das diese Szene in den vergangenen zehn Jahren im Netz verbreitet, mit dem sich also junge Männer vor allem in Europa und den USA gegenseitig mobilisieren, lautet: Der Westen zerfalle auf Grund des Geburtenrückgangs und gleichzeitiger „Masseneinwanderung“ und der Feminismus sei schuld daran, u.a. weil er die westlichen Frauen von ihrer vermeintlich natürlichen Rolle als Gebärende, als Mütter und Reproduzent:innen eines je als homogen imaginierten Volkes trenne — worin sich der Zusammenhang von Antifeminismus und Rassismus offenbart.

Jenes Narrativ formt die Identität der „Manosphere“, wie Anfang 2020 die erste groß angelegte Studie zeigte, für die mit spezieller Software mehrere Millionen Posts in antifeministischen Onlineforen analysiert wurden (Horta Ribeiro et al. 2021). Der Begriff „Manosphere“ tauchte erstmals 2009 auf einem Blog auf, er verbreitete sich mit dem durch Ian Ironwood (Pseudonym) selbstpublizierten Buch „The Manosphere: A New Hope for Masculinity“ und wurde schließlich auf verschiedenen Foren zur Selbstbeschreibung von Nutzern aufgegriffen (vgl. Rothermel 2020: 495f.). Inzwischen dient er sowohl Teilnehmenden als auch Beobachter:innen als Bezeichnung für ein plattformübergreifendes Netzwerk, das zum Teil aus Individuen, zum Teil aus verschiedenen Untergruppen besteht wie etwa den Männerrechtlern/Maskulinisten, Incels (Involuntrily Celibataires), Pick-Up-Artists (die sich beibringen, Frauen “aufzureißen”) oder MGTOW (Men Going Their Own Way), deren Grad an Misogynie zwar variiert, die sich aber im Antifeminismus vereinen (Horta Ribeiro et al. 2021). Solche Gruppen finden sich auch im deutschsprachigen Internet, sie haben etwa eine eigene Enzyklopädie, die Wikimannia, angelegt, weil Wikipedia angeblich feministische Lügen verbreite (vgl. Wiedemann 2021: 34f.). Vor allem auf Reddit, dem berühmten Chat-Portal, finden sich wichtige Foren der Antifeministen (ich wähle bewusst die männliche Schreibweise, denn zum Kern der Manosphere zählen sich nur Männer), und die Zugriffe aus Deutschland sind so stark, dass nun auch ein deutschsprachiges Format geplant ist (vgl. Birkner 2021). In den vergangenen Jahren wurden zunehmend Forschungsarbeiten zur Manosphere publiziert, zur Frage der Radikalisierung von Usern aus der Manosphere und zu ihrer Verbindung in rechtsradikale Kreise (u.a. Vu et al. 2021).
Doch auch jenseits der zwar dezentralen, aber doch organisierten Manosphere verbreitet sich der Antifeminismus über verschiedene Kanäle und er wirkt dabei, wie er es auch offline tut, als Bindeglied zwischen vermeintlich liberalen, bürgerlichen Kreisen und rechten Gruppen (Wiedemann 2021: 44ff.). Die Mobilisierung im Netz funktioniert hier besonders über einzelne Influencer wie etwa den ehemaligen Psychologie-Professor Jordan Peterson aus Kanada, der auf Youtube knapp 6 Millionen Abonnent:innen hat, und dort exemplarisch das Mantra des digitalen Rechtspopulismus` wiederholt: Anti-Rassist:innen, Feminist:innen und Kulturmarxist:innen würden gemeinsame Sache gegen die Fakten, gegen die Naturwissenschaften machen, um den Westen und die Weißen Männer zu Fall zu bringen (vgl. Wiedemann 2023).

Solche Botschaften finden Resonanz in den Sphären des Netzes, die in ihrer gegenwärtigen Beschaffenheit sowohl auf Verkürzung und Dekontextualisierung als auch auf Emotionalisierung bauen. Das Internet bildet rechte, verschwörungstheoretische und menschenverachtende Haltungen nicht nur ab, es wirkt auch als Verstärker. Das zeigt sich besonders auf Youtube, wo sich „affective publics“ konstituieren, d.h. Agglomerationen von Einzelnen, „mobilized and connected, identified and potentially disconnected through expressions of sentiment“ (Papacharissi 2016). Affiziert von den Bedrohungsszenarien, die Peterson ausmalt, vereint sich eine bis dato unverbundene Gefolgschaft im Bann der Angst vor vermeintlich autoritären Mächten, allen voran vor dem Feminismus.

Auf den Social Media Kanälen können die Affekte der Plattform-Nutzer:innen direkt in Reaktion, in einen öffentlichen Ausdruck münden etwa in Form von Likes oder Kommentaren unter den Videos, die dann wiederum sogleich weitere Nutzer:innen affizieren. So kann potentiell aus jedem und jeder direkt eine beteiligte, eine mitwirkende Person an der Affizierungskette werden. Videos mit provokanten Titeln funktionieren auf Youtube aber nicht nur deshalb besonders gut, weil sie affizieren und öfter angeklickt und kommentiert werden, sondern auch weil der Algorithmus der Plattform sie begünstigt (u.a. Tufekci 2018). Der Prozess der algorithmischen Selektion bildet jene vielfach besprochenen Filterblasen, in denen einzelnen User:innen nur immer noch mehr Inhalte mit ähnlichen bzw. ähnlichen und radikaleren Aussagen vorgeschlagen werden (de Ven/van Gemert 2022: 295). Und dieser Mechanismus greift bei beinahe allen gegenwärtigen profitorientierten digitalen Plattformen und Internet-Anbietern.

Nicht nur jene Algorithmen, auf denen Systeme so genannter künstlicher Intelligenz gegenwärtig basieren, sondern auch jene, die der Netzwerkanalyse der Social Media Plattformen und der Such-Maschinen zugrunde liegen, verstärken sexistische und rassistische Diskurse. Sie filtern und sortieren Informationen auf Basis von Inhalten, die Nutzer:innen zuvor angeklickt oder geliked haben, von Meta-Informationen der genutzten Inhalte und von Interaktionen mit anderen Nutzer:innen und deren Datensätzen (vgl. Stark et al. 2021: 303f.). So ermöglichen sie die „Personalisierung“ von Instagram-Feeds, Google-Suchen oder Netflix-Empfehlungen.

Diese Form der Netzwerkanalyse baut auf „einer reduktionistischen Identitätspolitik“ auf, die sich dann immer wieder bestätigt, schreibt Wendy Chun, eine der zentralen Kritiker:innen der „Homophilie“ der Netzwerk- und Big Data-Analyse (ebd. 2018: 131). Die Analyse teile User:innen in segregierte Nachbarschaften auf und trainiere sie, diese Segregation zu erwarten. Anstatt eine Ära einzuleiten, die Zuweisungen von „Identität“ überwindet, schreiben Netzwerke somit Identität durch vorgegebene Variabeln und Axiome endlos fort (ebd.: 132) — zum Zweck des Profits der Intermediäre, also der Plattformen und Suchmaschinen, deren Werbeeinnahmen steigen, je passgenauer die Inhalte für die Nutzer:innen sind und je länger jene dadurch auf den Plattformen verweilen. Das droht in Vergessenheit zu geraten: Die Plattformen, über die sich digitale Halböffentlichkeiten bilden, liegen in den Händen einzelner profitorientierter Unternehmen statt in den Händen der Öffentlichkeit selbst. Unternehmen bestimmen die Regeln der Kommunikation und sie tun das einzig im Interesse, die Menschen möglichst lange auf den Plattformen zu halten, damit sie mehr Werbeeinnahmen generieren können. Die Verbreitung von Hetze und menschenverachtenden Ideologien ist in ihrem Sinne, denn sie bindet Aufmerksamkeit.

Patriarchat 4.0: Wechselseitige Überwachung der Arbeit am eigenen Bild und an sich selbst

Eine weitere Strategie, junge Menschen, gerade junge Frauen möglichst lange auf den Plattformen zu halten, ist, ihnen zu vermitteln, ihr Körper, ihr Aussehen, ihre Erscheinung sei nicht gut genug und müsse durch bestimmte Produkte optimiert werden — die auf den Plattformen selbst in endlosen Werbeschleifen angepriesen werden. Das schafft den Zustand, den ich an anderer Stelle in Anlehnung an Beatrix Campbell ausführlicher als neoliberales Neo-Patriarchat beschreibe (Wiedemann 2022; Wiedemann 2021: 24). Die Plattformen, die junge Leute im Netz heute am meisten nutzen, regen sie nicht an, mit Identitäten zu spielen oder gar zur Cyborg zu werden. Sie setzen im Gegenteil auf zweierlei: Permanente Selbstdarstellung und die Optimierung dieser Darstellung im immerwährenden Wettbewerb mit anderen.

Vor allem Instagram legt den Nutzer:innen nahe, mit der Optimierung eigener Selfies um Aufmerksamkeit und Likes zu konkurrieren. Facebook hatte die Profilierung Einzelner im Netz bereits etabliert, Instagram befeuert nun wie keine andere Plattform die wechselseitige Überwachung der Arbeit am eigenen Bild und an sich selbst. Es regt eine peer-to-peer-Beobachtung an, die den Geist der Menschen im Neoliberalismus anspricht — und den Geist derjenigen, die als Frauen sozialisiert werden, ganz besonders. Schließlich lernen sie noch immer von klein auf, den Blick von außen zu verinnerlichen, sich mit den Augen der anderen zu betrachten, anderen zu gefallen und an ihrem Aussehen zu arbeiten. Die Nutzer:innen sind auf Instagram Produser:innen, sie verrichten eine Arbeit, an der im erheblichem Umfang nur die Plattform verdient. Für wenige der jungen Leute kann sie sich das ab einem gewissen Grad der Aufmerksamkeit auch finanziell auszahlen: ‚Influencer:innen‘ bekommen Geld von Unternehmen, deren Produkte, deren Ästhetik oder ‚Messages‘ sie in Bilder und Videos mit aufnehmen oder subtil einfließen lassen. Laut einer Umfrage von YouGov Deutschland unter den von 1997 bis 2010 Geborenen hat fast ein Drittel der Generation Z den Wunsch, Influencer:in zu werden, oder ist es nach eigenen Angaben schon (iwd 2022). Das trifft vor allem auf diejenigen zu, die sich als Mädchen identifizieren. Und es sind wiederum auch primär Mädchen und Frauen, die den erfolgreichen Influencer:innen folgen, die in den Bann der Omnipräsenz der Selbstinszenierung und der Schönheit geraten, jener Darstellungen, die zu geronnenen, festen Bildern werden und das eigene Antlitz beim Anblick der Anderen zum Teil des konkurrenzorientierten Marktes machen (vgl. Götz 2021). Bereitwillig betrachten sie sich mit den Augen einer Jury, sehen sich selbst als Models und gleichzeitig als deren Agenturen, die ihre Bilder zu bearbeiten haben.

Die Medienwissenschaftlerin Maya Götz hat untersucht, wie Jugendliche zwischen 12 und 19 Jahren, vor allem Mädchen, Instagram nutzen. Auf den Selfies, die sie hochladen, ist es ihnen besonders wichtig, sich „gut gelaunt“ (90 %), von ihrer besten Seite (87 %) und „möglichst schlank“ (81 %) zu zeigen und dabei gleichzeitig möglichst natürlich auszusehen (88 %) (ebd.). Um dies zu erreichen, nutzen 49 Prozent der Mädchen Filter-Software: 69 Prozent optimieren die Haare, 70 Prozent gestalten die Haut ebenmäßiger und ein Drittel (je 33 %) verändert die Augenfarbe und -größe und macht den Bauch flacher. Dabei zeigen sich signifikante Ähnlichkeiten zu den Personen, denen sie folgen, so Götz in ihrer Studie (ebd.). Der eigene Auftritt und auch das Aussehen müssen beständig ihren Idealen angepasst, also optimiert werden. So berichtet der Präsident der Deutschen Gesellschaft für Ästhetisch-Plastische Chirurgie, dass Frauen immer häufiger Bilder von Influencer:innen auf Instagram mitbrächten, denen sie entsprechen wollen. Und diejenigen, die ihre Gesichter bearbeiten lassen, werden immer jünger (Moser 2020). Eine Studie der American Academy Of Facial Plastic And Reconstructive Surgery zeigte 2019 auf, dass 72 Prozent ihrer Mitglieder angaben, ihre immer jüngeren Patient:innen wollen Eingriffe vornehmen lassen, um besser in ihren Selfies auszusehen. Und die Plattform-Betreiber:innen sind sich dieser Dynamiken voll bewusst: Das Unternehmen Facebook/Instagram ließ psychologische Forschung anstellen, um den Einfluss regelmäßiger Instagram-Nutzung auf die Psyche der jungen Menschen zu untersuchen und die Einsichten zu weiteren Marketing-Zwecken zu nutzen — ohne die Absicht, die Ergebnisse zu veröffentlichen. Sie wurden im Herbst 2021 von der Washington Post geleakt, und darin heißt es etwa: „Wir verschlechtern das Körperbild bei einem von drei Mädchen im Teenager-Alte“’ (vgl. etwa Debionne 2021). Es ist das Geschäftsmodell der Plattform, die jungen Frauen zu verunsichern, denen sich die Werbung für die tollere Kleidung, das bessere Beauty-Produkt oder die ästhetische Behandlung dann umso effizienter andrehen lässt.

Wo bleibt das Befreiungspotential?

Vor dem Hintergrund des gerade Beschriebenen ließe sich heute mancher Account, der sich feministisch nennt und dann aufwendig manikürte Gel-Nägel und glitzernde Klitoris-Ketten präsentiert, vor allem als Ausdruck jenes neoliberalen Popfeminismus fassen, den Constanze Stutz so treffend als „selbstbestimmten Kopfsprung ins Getriebe kapitalistischer Verwertung“ bezeichnet. Wenn man sich aber 2023 durch Bilder von Instagram-Accounts klickt, denen Feminismus eher ein Label zur Selbstermächtigung scheint, gelangt man nicht nur zu lackierten Fingernägeln. Man gelangt auch zu Bildern und Stories, die zur nächsten Demonstration aufrufen und zum Kampf gegen die Zurichtung im kapitalistischen Patriarchat, die nebenbei in drei Sätzen prägnant erklärt wird. Hier zeigt sich, was ebenso jenseits des Netzes gilt: Dass sich wieder eine feministische Bewegung entwickelt hat, die radikale Kritik übt und Kollektivität stiftet, die jene neoliberal durchgesetzte, post-feministische Gesellschaftsordnung herausfordert, nach der vor allem Frauen zugleich an ihrer Souveränität wie auch an ihrer Sexiness zu arbeiten haben. Und diese Bewegung baut ihre transnationale Mobilisierung in zentraler Weise auf digitalen Plattformen auf, die ihr emanzipatorisches Vernetzungspotential noch nicht gänzlich eingebüßt haben.
#Metoo zog seine Kraft daraus, dass Frauen und Queers über das Netz ihre Geschichten teilten und ihr Bewusstsein dafür schärften, dass ihre Betroffenheit nicht individuell, sondern strukturell bedingt ist. Es zog seine Kraft daraus, dass sich Betroffene über tausende von Kilometern hinweg verbunden fühlten, dass sie sich gegenseitig dazu ermutigten, sich zu organisieren — eine Dynamik, die ohne das Internet kaum vorstellbar scheint. Ähnlich mobilisierten sich auch die feministischen NiUnaMenos-Bewegungen: Sie trugen ihren Protest allerorts auf die Straße, nachdem sie sich transnational über verschiedene digitale Kanäle vernetzt hatten. Gerade Twitter galt vielen feministischen Forscher*innen als „Diskursraum“ für marginalisierte Themen wie Sexismus oder Gewalt gegen Frauen, als Raum, kritische Positionen zu entwickeln und größere Öffentlichkeiten zu erreichen und zu mobilisieren (etwa Drüeke/Klaus 2014: 64). Doch wie sich im Fall der Plattform nun besonders deutlich zeigt: Dieses Potential ist schnell in Gefahr, wenn neue Eigentümer:innen die Regeln ändern.

Deshalb kämpfen Feminist*innen gegenwärtig nicht nur darum, die kleinen Spielräume des durchkommerzialisierten Internets zu nutzen. Sie kämpfen längst schon und immer noch um ein anderes Internet. In den vergangenen Jahren kritisieren immer mehr feministische Forscher:innen, Aktivist:innen und Initiativen, wie etwa das Projekt „Feminist Futures“, das Lab „Superrr“ oder „Netzforma*“ – der Verein für feministische Netzpolitik, die Richtung, in die sich das Internet entwickelt hat. Und die Art, wie die Digitalisierung patriarchale Machtverhältnisse festigt und die Interessen, nach denen neue Apps, Geräte und Technologien gestaltet werden. Sie fragen, warum nicht in Software investiert wird, die Solidarität fördert, sondern in jene, die Spionage erleichtert, wie es bei Spycams der Fall ist, mit denen cis Männer heimlich Frauen und Queers beim Gang auf öffentliche Toiletten oder in Fitnessstudio-Duschen filmen und die Videos danach auf Porno-Seiten im Netz verkaufen, oder bei Spy-Apps, mit denen heterosexuelle cis Männer die Handys ihrer Partnerinnen oder Ex-Partnerinnen orten und ihre Online-Aktivitäten überwachen können (vgl. etwa Bauer/Hartmann 2021). In der Tradition feministischer Wissenskritik nehmen sie die Verwobenheit von Kapitalismus und Geschlechterverhältnissen als Ausgangspunkt und fordern die Ökonomisierungslogiken heraus, die das Internet durchsetzen (vgl. Freudenschuss 2014: 18 f.). Sie fragen, wer die datenbasierte Infrastruktur des Netzes gestaltet, wer sie nutzt, um daraus Kapital zu schlagen (vgl. BLZ 2023). Fragen danach, welche Schlussfolgerungen aus Datenanalysen gezogen werden und auf welchen impliziten gesellschaftlichen Prämissen sie basieren (ebd.).
Angelehnt an die Arbeiten früherer Netz-Theoretiker:innen wie etwa Donna Haraway fordern sie den Begriff der Intelligenz hinter der KI-Entwicklung heraus, der die soziale Situiertheit von Wissen ausblendet und den vergeschlechtlichten, eurozentristischen Dualismus von Körper und Geist fortsetzt, welcher durch feministische Wissenschaftskritik am Positivismus doch längst herausgefordert war (vgl. Carstensen/Prietl 2021: 35). Sie kritisieren Big Data Systeme, die auf die Autorität von Zahlen bauen, um vermeintlich neutral-objektives Wissen zu produzieren, dabei aber dazu tendieren, bestehende soziale Ungleichheiten und kulturelle Hierarchien unsichtbar zu machen und so zu reproduzieren (ebd.; D`Ignazio/Klein 2020).

Die jüngeren Arbeiten und Initiativen beleben anti-naturalistische und materialistische Ansätze des Cyberfeminismus der 1990er Jahre wieder und stärken queer-feministische, anti-rassistische und dekoloniale Perspektiven auf Technologie-Entwicklung. So stellt etwa ein Team von Wissenschaftler:innen für den Report von Global Information Society Watch 2018 unter der Überschrift „Feminist infrastructure and community networks: An opportunity to rethink our connections from the bottom up, seeking diversity and autonomy“ Projekte in Brasilien vor, in denen Frauen verschiedener Backgrounds über lokale Server-Strukturen eigene unabhängige digitale Netzwerke aufbauen, um vor Ort mehr Teilhabe für alle an den Gemeinschaften, an Entscheidungsprozessen zu ermöglichen. Es geht darin um die Frage, wie die Digitalisierung vor allem dazu dienen kann, Autonomie und Demokratie zu stärken. Ähnliche Ziele sind in den „Feminist Principles of the Internet“ festgehalten, die nach einem Treffen von 50 Aktivist*innen in Malaysia formuliert wurden: In diesem Projekt arbeiten Forscher:innen und NGOs nun seit 2016 an der Aufgabe, ein Internet zu gestalten, in dem Hass und Belästigung keinen Raum haben, genauso wenig wie kommerzielle Interessen, in dem stattdessen etwa Inhalte redaktionell geprüft werden. Ihr zentrales Anliegen ist, wie es die utopischen Diskurse zum Internet einst prophezeiten, einen Kommunikations- und Informationsraum zu erschaffen, der allen Menschen gleichermaßen zur Verfügung steht.

Mit Blick auf die Projekte und Kämpfe feministischer Aktivist:innen und Forscher:innen bleibt die Hoffnung, dass die Digitalisierung irgendwann noch einlöst, was sie einst versprach: Dass sie dazu beiträgt, das Patriarchat zu zerschlagen und alle anderen Herrschaft- und Ausbeutungsverhältnisse auch.

Bibliographie

Angerer, Marie-Luise (1999): body options. körper.spuren.medien.bilder. Wien: Turia und Kant.
Bauer, Jenny-Kerstin/Hartmann, Ans (2021): „Formen digitaler geschlechtsspezifischer Gewalt“. In: Prasad, Nivedita: Geschlechtsspezifische Gewalt in Zeiten der Digitalisierung: Formen und Interventionsstrategien. Bielefeld: transcript Verlag: 63-100.
Birkner, Helena (2021): „Reddit eröffnet erste Niederlassung in Deutschland“: www.horizont.net/medien/nachrichten/social-news-plattform-reddit-eroeffnet-erste-niederlassung-in-deutschland-195353 (zuletzt aufgerufen am 10.03.2023).
BLZ/Bayerische Landeszentrale für Politische Bildungsarbeit (2023): „Tech-Feminismus“: https://www.blz.bayern.de/tech-feminismus.html (zuletzt aufgerufen am 10.03.2023).
bmfsfj Bundesministerium für Familie, Senioren, Frauen und Jugend (Hg.) (2021): „Dritter Gleichstellungsbericht. Digitalisierung geschlechtergerecht gestalten“: https://www.bmfsfj.de/resource/blob/184544/c0d592d2c37e7e2b5b4612379453e9f4/dritter-gleichstellungsbericht-bundestagsdrucksache-data.pdf (zuletzt aufgerufen am 10.03.2023).
Brunner, Katharina/Harlan, Elisa/Reitmeir, Shannon (2023): „Zu sexy: Wie KI-Algorithmen Frauen benachteiligen können“: https://www.br.de/nachrichten/netzwelt/zu-sexy-wie-ki-algorithmen-frauen-benachteiligen-koennen,TUn1QL2 (zuletzt aufgerufen am 10.03.2023).
Carlson, Caitlin R. (2016): „Hashtags and hate speech: The legal and ethical responsibilities of social media companies to manage content online“. In: Vanacker, Bastiaan/Heider, Don (Hgg.): Ethics for a digital age. New York: Peter Lang: 123–140.
Carstensen, Tanja/Prietl, Bianca (2021): „Digitalisierung und Geschlecht: Traditionslinien feministischer Auseinandersetzung mit neuen Technologien und gegenwärtige Herausforderungen“. In: FZG – Freiburger Zeitschrift für GeschlechterStudien: 29-44.
Chang, Emily (2018): Brotopia: Breaking Up the Boys’ Club of Silicon Valley. Edmonton: Portfolio/Penguin.
Chun, Wendy Hui Kyong (2018): „Queering Homophily: Muster der Netzwerkanalyse“. In: Zeitschrift für Medienwissenschaften, Nr. 18: 131-148.
Cockburn, Cynthia (1988): Die Herrschaftsmaschine. Geschlechterverhältnisse und technisches Know-how. Berlin/Hamburg: Argument.
D’Ignacio, Catherine/Klein, Lauren F. (2020): Data Feminism. Cambridge, MA: MIT Press.
Davies, Huw C./Eynon, Rebecca (2018): „Is digital upskilling the next generation our ‘pipeline to prosperity’?“ In: New Media & Society: 3961–3979.
Debionne, Philippe (2021): „Facebook hält Studie unter Verschluss: Instagram schadet jungen Mädchen“: https://www.berliner-zeitung.de/zukunft-technologie/facebook-haelt-studie-unter-verschluss-instagram-schadet-jungen-maedchen-li.183407 (zuletzt aufgerufen am 10.03.2023).
Dorer, Johanna (2022): Genealogie neuer Kommunikationstechnologien und Geschlecht. Zu den Anfängen des Internets. In: Dorer, Johanna/Geiger, Brigitte/Hipfl, Brigitte/Ratković, Viktorija (Hgg.): Handbuch Medien und Geschlecht. Springer Reference Sozialwissenschaften. Wiesbaden: Springer VS.
Eisenrieder, Veronika (2003): Von Enten, Vampiren und Marsmenschen – von Männlein, Weiblein und dem ‚Anderen‘: Soziologische Annäherungen an Identität, Geschlecht und Körper in den Weiten des Cyberspace. München: Herbert Utz.
Freudenschuss, Magdalena (2014): Digitalisierung: eine feministische Baustelle – Einleitung. In: Femina Politica – Zeitschrift für feministische Politikwissenschaft, 23(2): 9-21.
Fuchs, Gesine/Graf, Patricia (2019): Soziale Ungleichheit 4.0 – Geschlechterverhältnisse und Digitalisierung. In: Femina Politica – Zeitschrift für feministische Politikwissenschaft, 1: S. 85-94.
Geiling, Lukas Merlin/Jende, Patrick (2021): „Gender und Informatik“: https://blogs.urz.uni-halle.de/informatikundgesellschaft/files/2021/11/geiling_und_jende.pdf (zuletzt aufgerufen am 10.03.2023).
Ging, Debbie (2017): „Alphas, Betas, and Incels: Theorizing the Masculinities of the Manosphere“. In: Men and Masculinities 22 (4): 638–657.
Götz, Maya (2021): „Hauptsache perfekt und ‚natürlich‘“. Die Selbstinszenierung von Mädchen auf Instagram. In: proJugend, 1: 8-12.
Hagendorff, Thilo (2019): „Rassistische Maschinen?“. In Maschinenethik, Wiesbaden: Springer VS: 121–134.
Haraway, Donna (1985): „A manifesto for cyborgs. Science, technology, and socialist feminism in the 1980’s“. In: Socialist Review 80: 65–108.
Hicks, Marie (2013). „De-brogramming the history of computing [Think piece]“. In:
Hogan, Mél/Luka, M.E. (2014): „Polluted and Predictive, in 133 Words“. In: König, René/Rasch, Miriam (Hg.): Society of the Query Reader. Reflections on Web Search. Amsterdam: Institute of Network Cultures: 239-255.
Horta Ribeiro, Manuel et al. (2021): „The Evolution of the Manosphere across the Web“. In: Proceedings of the International AAAI Conference on Web and Social Media 15 (1): 196–207.
Horwath, Ilona (2022): „Algorithmen, KI und soziale Diskriminierung“. In: Schnegg, Cordula/Voithofer, Caroline/Auer, Manfred/Tschuggnall, Julia (Hgg.): Innsbrucker Gender Lectures IV. Innsbruck: University Press und Open Access: 71-101.
https://www.rnd.de/lifestyle/botox-und-instagram-schonheits-ops-bei-jungen-menschen-nehmen-zu-NPPLITGKPFGRZGNKBILFOPPFXY.html (zuletzt aufgerufen am 10.03.2023).
IEEE Annals of the History of Computing 35.1: 88–88.
iwd/Der Informationsdienst des Instituts der deutschen Wirtschaft (2022): „Influencer: Ein wachsender Werbemarkt“: https://www.iwd.de/artikel/influencer-ein-wachsender-werbemarkt-532151/ (zuletzt aufgerufen am 10.03.2023).
Jagodzinski, Jan (2004): Identität im Cyberspace. Ein psychoanalytischer Zugang. In: Hipfl, Brigitte/Klaus, Elisabeth/Scheer, Uta Identitätsräume: Nation, Körper und Geschlecht in den Medien. Eine Topografie. Bielefeld: transcript Verlag, S. 338-364.
Kantayya, Shalini (2020): „Coded Bias“: www.netflix.com/de/title/81328723 (zuletzt aufgerufen am 10.03.2023).
Krämer, Sybille (Hg.) (2015): Ada Lovelace. Die Pionierin der Computertechnik und ihre Nachfolgerinnen. Paderborn: Wilhelm Fink.
Matamoros-Fernández, Araidna/Farkas, Johan (2021): „Racism, Hate Speech, and Social Media: A Systematic Review and Critique“. In: Television & New Media, 22(2): 205–224.
Moser, Talisa (2020): „Selfie-Boom: Generation Instagram setzt verstärkt auf Botox“:
Noble, Safiya U. (2018): Algorithms of oppression: How search engines reinforce racism. New York: NYU Press.
Papacharissi, Zizi (2016): „Affective publics and structures of storytelling: sentiment, events and mediality“. In: Information, Communication & Society 19 (3): 307–324.
Plant, Sadie (1998 [engl. 1997]): nullen + einsen. Digitale Frauen und die Kultur der neuen Technologien. Berlin: Berlin Verlag.
Prasad, Nivedita/bff: Bundesverband Frauenberatungsstellen und Frauennotrufe (Hgg.) (2021): Geschlechtsspezifische Gewalt in Zeiten der Digitalisierung. Formen und Interventionsstrategien. Bielefeld: transcript Verlag.
Quent, Matthias (2018): „Zivilgesellschaft: Das globale Dorf verteidigen: Strategien gegen den kulturellen Backlash in sozialen Medien“. In: Baldauf, Johannes/Ebner, Julia/Guhl, Jakob (Hgg.) (2018): Hassrede und Radikalisierung im Netz. Der OCCI-Forschungsbericht: 48-54: www.isdglobal.org/wp-content/uploads/2018/09/ISD-NetzDG-Report-German-FINAL-26.9.18.pdf (zuletzt aufgerufen am 10.03.2023).
Roth, Anne (2019): „Digitale Gewalt gegen Frauen“: https://media.ccc.de/v/pw19-263-digitale-gewalt-gegen-frauen (zuletzt aufgerufen am 10.03.2023).
Rothermel, Ann-Kathrin (2020): “Die Manosphere. Die Rolle von digitalen Gemeinschaften und regressiven Bewegungsdynamiken für on- und offline Antifeminismus”. In: Forschungsjournal Soziale Bewegungen 33 (2): 491–505.
Scheele, Alexandra (2019): „Wider die Automatismen: Arbeit im digitalen Wandel“. In: Femina Politica – Zeitschrift für feministische Politikwissenschaft, 28(1): 104-111.
Schmidt, Francesca (2021): „Sexismus und Rassismus im Code. Diskriminierung oder Gerechtigkeit durch Algorithmen?“. In: Politikum, Heft 1: Künstliche Intelligenz: 40-44.
Schrade, Robin (2021): Wer sucht, kann gefunden werden. Problemgeschichten der Wissensorganisation von der Scholastik bis zur Suchmaschinenforschung. Bielefeld: transcript Verlag.
Stark, Birgit/Magin, Melanie/Jürgens, Pascal (2021): „Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern“. In: Eisenegger, Mark/Blum, Roger/Ettinger, Patrick/Prinzing, Marlis (Hgg.): Digitaler Strukturwandel der Öffentlichkeit: Historische Verortung, Modelle und Konsequenzen. Wiesbaden: Springer VS: 303-321.
Stefflbauer, Nakeema (2021): „Dekolonisierung des Digitalen: Feminismus und intersektionale Technologie“: https://www.gwi-boell.de/de/2021/02/11/dekolonisierung-des-digitalen-feminismus-und-intersektionale-technologie (zuletzt aufgerufen am 10.03.2023).
Streit, Anne von (2011): Entgrenzter Alltag – Arbeiten ohne Grenzen?: Das Internet und die raum-zeitlichen Organisationsstrategien von Wissensarbeitern. Bielefeld: transcript Verlag.
Tufekci, Zeynep (2018): „Youtube, the Great Radicalizer“: www.nytimes.com/2018/03/10/opinion/sunday/youtube-politics-radical.html (zuletzt aufgerufen am 10.03.2023).
Turkle, Sherry (1998 [engl. 1995]): Leben im Netz. Identität in Zeiten des Internet. Reinbek b. Hamburg: Rowohlt.
Ven, Inge van den/Gemert, Ties van (2022): „Filter bubbles and guru effects: Jordan B. Peterson as a public intellectual in the attention economy“. In: Celebrity Studies 13 (3): 289–307.
Vu, Anh V. et al. (2021): „ExtremeBB: Enabling Large-Scale Research into Extremism, the Manosphere and Their Correlation by Online Forum Data“: https:// arxiv.org/abs/2111.04479 (zuletzt aufgerufen am 10.03.2023).
Wiedemann, Carolin (2021): Zart und frei. Vom Sturz des Patriarchats. Berlin: Matthes&Seitz.
Wiedemann, Carolin (2022): „Patriarchat 4.0“. In: OXI. Wirtschaft anders denken: https://carolinwiedemann.com/portfolio/patriarchat-4-0/ (zuletzt aufgerufen am 10.03.2023).
Wiedemann, Carolin (2023): „Jordan Peterson und die digitale Öffentlichkeit: Rechtspopulistischer Selbstunternehmer in der Manosphere“. In: Jung, Simone et al. (Hgg.): Entgrenzte Öffentlichkeit. Debattenkulturen im politischen und medialen Wandel. Bielefeld: transcript Verlag (im Erscheinen).
Wietlisbach, Oliver (2019): „Ich habe eine Apple Card beantragt. Was sie anboten, war eine sexistische Beleidigung“: https://www.watson.ch/digital/wirtschaft/797668983-apples-kreditkarte-ist-eine-verdammt-sexistische-angelegenheit (zuletzt aufgerufen am 10.03.2023).