Skizze des Artikels für das „Handbuch Rassismusforschung“, herausgegeben von Bojadzijev, Manuela et al., das im Herbst 2024 bei Nomos erscheint.

Abstract:
Lange hat die Forschung zur Digitalisierung, vor allem im deutschsprachigen Raum, sich für Rassismus kaum interessiert. Doch mittlerweile ist klar: Digitale Infrastrukturen verstärken Rassismus in verschiedener Hinsicht und sie erweitern seine Funktionsweisen. Der Artikel zeigt, wie sich die wissenschaftliche Beschäftigung mit Rassismus und digitalen Infrastrukturen entwickelt hat, und zeichnet dabei verschiedene Phänomene nach. So werden erstens digitale Anwendungen als Orte der Vervielfältigung rassistischer Hetze und Mobilisierung in den Blick genommen und zweitens Systeme sogenannter künstlicher Intelligenz als Maschinen der Reproduktion und Automatisierung rassifizierender Unterscheidungen analysiert. Jene beiden vermeintlich getrennten Felder lassen sich schließlich unter Berücksichtigung der Ökonomien des Plattformkapitalismus’ in ihren Zusammenhängen verstehen.

Schlüsselbegriffe:
Algorithmen der Unterdrückung; künstliche Intelligenz; Plattformen; Hate Speech; rassistische Mobilisierung; Plattformkapitalismus; Coded Bias

Einleitung
In der Anfangszeit des Internets waren es insbesondere zwei Annahmen im Hinblick auf die Frage, wie sich der Rassismus und der Umgang mit Rassismus im und durch das Netz verändern würden, die im Zentrum der Auseinandersetzung standen (vgl. Daniels 2013): Erstens, die Prognose, das Internet würde die Menschen von den Machtverhältnissen der hiesigen Welt befreien, von der Macht der Konzerne und der Regierungen (vgl. Barlow 1996), ebenso wie von alten rassifizierten Identitäten und Identitätspolitiken, die im körperlosen Cyberspace überwunden werden könnten (vgl. v.a. Turkle 1995; Nakamura 2002), und, zweitens, die damit verbundene Annahme, dass die Frage nach Rassismus die Forschung zum Internet maßgeblich leiten und das Verständnis der Funktionsweise von Rassismus schärfen würde (vgl. u.a. Kolko et al. 2000; Nelson et al. 2000).
Ersteres hat sich kaum bewahrheitet, im Gegenteil: Neue Formen des Rassismus erweitern die alten. Anonyme Vernetzungsmöglichkeiten genau wie personalisierte Echokammern stärken und vervielfältigen Formen rassistischer Hetze und Mobilisierung. Systeme sogenannter künstlicher Intelligenz reproduzieren und automatisieren rassifizierende Unterscheidungen. Der Plattformkapitalismus hat die Mobilität der Daten gefördert, aber nicht die Grenzen für jene Menschen aufgehoben, die vor allem in den ehemaligen Kolonien neue Formen ausgebeuteter Arbeit verrichten — ob als Clickworker:innen oder in Coltan-Minen.
Die zunehmende Sichtbarkeit dieser Phänomene lässt nun allmählich die zweite Annahme aus den frühen 2000er-Jahren zur Realität werden: nämlich die, dass die Auseinandersetzung mit Rassismus zentral wird für die Forschung zum Internet und zu digitalen Infrastrukturen. Zu den genannten Phänomenen und ihren Zusammenhängen gibt es immer mehr Studien — vor allem im englischsprachigen Raum.
In den späten 1990er- und den frühen 2000er-Jahren werfen aber auch im deutschsprachigen Feld bereits einzelne sozial- und auch kulturwissenschaftliche Arbeiten Fragen zum Internet im Zusammenhang mit Identifizierungspraktiken und Machtverhältnissen auf. Gerade am Anfang stärken sie dabei oft den angesprochenen Befreiungsdiskurs, der sich vor allem auf die Ebene der Repräsentation konzentriert und den Cyberspace als virtuelle Parallelwelt ansieht, in dessen ‚Weiten‘ man sich gewissermaßen von den kategorisierten Körpern lösen könne (vgl. Eisenrieder 2003). Der Fokus jener Arbeiten zu „Cyberidentitäten“ (Helff 2011: 99) liegt dabei meist mehr auf Genderfragen als auf denen nach Rassifizierung, was etwa Sissy Helff in Digitales Schwarzsein beklagt. Sie analysiert ‚race-Repräsentationen‘, wie sie es nennt, auf dem Blog Greetings from Africa. Ähnliche Analysen greifen schon 2003 Joana Breidenbach und Ina Zukrigl auf: Anhand ethnologischer Fallstudien stellen sie dar, wie sich ‚kulturelle Identitäten‘, wie es bei ihnen heißt, im Internet verändern, wenn etwa in bestimmten Chaträumen marginalisierte, rassifizierte Menschen Sprecher:innen-Positionen erlangen — Analysen, die weiterhin für Fragen nach antirassistischer Vernetzung und Mobilisierung relevant sind.

Das Internet als Rassismus-intensivierender Kommunikationsraum

„Wird die Welt für die Teilnehmer zum ‚globalen Dorf‘? […] Werden hierdurch [die Vernetzung, Anm. C.W.] interkulturelle Verstehensprozesse befördert?“, fragen auch Thomas A. Wetzstein et al. schon 1995 (12) in Datenreisende. Die Kultur der Computernetze, einer der ersten großen deutschsprachigen Studien zur Netznutzung, die sich der Bewegungsforschung zuordnen lässt. Diese ist hier vor allem deshalb interessant, weil sie nicht nur das globale Demokratisierungspotenzial der Computernetze diskutiert, sondern auch schon damals zeigt, dass ebenso das Potenzial zur Mobilisierung rechter Akteur:innen und zur Verbreitung völkischer Ideologie größer wird. Und das hat sich in der Zeit nach der Veröffentlichung nur gesteigert: Das Internet als Vernetzung verschiedener Rechner existierte zwar schon seit den 1950er-Jahren, doch mit der Erfindung des World Wide Web, mit einem auf Hypertextverbindungen basierenden Informationssystem mit Verlinkungsfunktionen, etablierte sich ab Mitte der 1990er-Jahre jenes Internet, wie wir es heute kennen: Ein dezentrales und unreguliertes Netzwerk, das frei verfügbare Informationen auf jedem Rechner bietet und mit speziellen Programmen, Browser genannt, darstellbar ist. Nicht zuletzt rechte Akteur:innen wissen dies zu nutzen: Schon 1995 geht Stormfront – White Nationalist Ressource Page als erste neonazistische Website online. Deren Gründer Don Black, ein Anführer des Ku-Klux-Clans, sagt drei Jahre später in einem Interview: „It’s been a tremendous boom for us. […] I feel like I’ve accomplished more on the Web than in my 25 years of political activism. Whereas before, we could reach only people with pamphlets or holding rallies with no more than a few hundred people, now we can reach potentially millions“ (Richardson 1998). Ähnlich euphorisch äußern sich deutschsprachige Neonazis, als sie das World Wide Web für sich entdecken, mit dem sie allerorts agitieren — und dabei, wenn gewünscht, anonym bleiben können, was besonders bei der Verbreitung verbotener Schriften von Interesse ist, wie etwa Thomas Pfeiffer zeigt (2002). An der Vernetzungsaktivität rechter Gruppen über das Netz hat sich trotz neuer Gesetze kaum etwas geändert (vgl. Jasser/Wankmüller 2020). Stefan Glaser, der ebenfalls seit dem Jahrtausendwechsel zum Thema recherchiert und jugendschutz.net leitet, schreibt im Vorwort des Rechtsextremismusberichts 2020/21: „Rechtsextremismus im Netz erlebt einen traurigen Boom“ (2021: 3).
Wie in seinem Fall sind es im deutschsprachigen Raum weiterhin oft Initiativen und Aktivist:innen jenseits der Universität, die Recherchearbeiten zu rechter Mobilisierung über digitale Infrastrukturen übernehmen, etwa die Amadeo Antonio Stiftung. Die genannten Beispiele zur digitalen Verbreitung völkischer Ideologie analysieren meist sowohl rassistische als auch antisemitische und antiziganistische Diskurse und Feindbilder, ohne sie dabei in eins zu setzen.
International ist die Forschung speziell zu Rassismus im Netz bereits umfangreich und sie ist auch für den hiesigen Kontext aufschlussreich, beschränkt sich die Analyse von Netzphänomenen schließlich nicht auf einen geografischen Raum — und ebenso wenig auf eine Disziplin; viele Forschungen sind durch die Beteiligung von Wissenschaftler:innen aus unterschiedlichen Feldern transdisziplinär angelegt (vgl. Jakubowicz et al. 2017).
Die ersten einschlägigen Arbeiten legen die Soziolog:innen Les Back et al. in den 1990er-Jahren vor mit ihrem Werk Racism on the internet: Mapping neo-fascist subcultures in cyberspace (1998). Im Beitrag „Aryans reading Adorno: Cyber-Culture and Twenty-First Century Racism“ erläutert Back, wie ‚white supremacists‘ die Ideologie ihrer ‚rassischen‘ Vorherrschaft durch die Nutzung von Computer- und onlinevermittelten Inhalten lokal wie global zu etablieren suchen (vgl. Back 2002; vgl. auch Nolden 2020). Auch Jessie Daniels, eine weitere Pionierin dieser Forschungsrichtung, zeigt, wie das Internet verschiedenen, voneinander bis dahin unabhängig agierenden Gruppen und Einzelpersonen weltweit die Möglichkeit bietet, sich über die Selbstbeschreibung des „Weißseins“ und des damit verbundenen Überlegenheitsanspruchs als Kollektiv zu erfahren (2009: 660). Während für Daniels’ Rassismusverständnis die Ideologie der Vorherrschaft und etwa Bezüge auf Theoretiker:innen wie W. E. B. Du Bois zentral sind, arbeiten manch andere Forscher:innen in diesem Feld mit Rassismusdefinitionen jenseits des kolonialgeschichtlichen Kontexts. Je nach Rassismusdefinition und Fragestellung werden hierbei zum Teil auch Antisemitismus und Antiziganismus in die Untersuchungen zu Rassismus einbezogen, ohne Unterschiede in den Ideologien geltend zu machen. Andrew Jakubowicz und seine Kolleg:innen etwa, die ebenfalls schon in den späten 1990er-Jahren mit der „Cyberrassismus“-Forschung beginnen und das Feld seitdem regelmäßig sichten, definieren Rassismus als Machtbeziehung, die auf der Zuschreibung von Geno-, Phänotypen und Kulturen basiere (2017: 3) – ohne den Verweis auf die Ideologie der „Weißen Vorherrschaft“. In ihren Arbeiten und in jenen, die sie zusammentragen, rücken Fragen danach ins Zentrum, wie Menschen online rassifiziert und welche rhetorischen Strategien der Normalisierung für die Rassifizierungen genutzt werden, aber auch generell danach, wie kollektive Identitäten konstruiert werden (vgl. Jakubowicz et al. 2017: 49–50).
Gerade in den vergangenen zehn Jahren, so zeigen Matamoros-Fernández und Farkas (2021), nimmt in einer immer differenzierteren Forschungslandschaft zu Social Media und Messengerdiensten die Aufmerksamkeit für rassistische Onlinemobilisierung zu, nicht zuletzt wegen des Aufstiegs rechter Regierungschefs in den USA, in Brasilien und England und des Wissens um ihre global vernetzten Unterstützer:innen (ebd.: 206).
Allein von 2009 bis 2016 ist es zu einer geschätzten Verdreifachung von hate speech-Aktivitäten im Internet gekommen (vgl. Carlson 2016). Mit dem Begriff Hassrede bezeichnet die Forschung „nicht beliebige harsche Aussprüche, radikale Kritik oder Beleidigungen per se, sondern solche Aussprüche, die Vorurteile (re-)produzieren und marginalisierte Gruppen diskriminieren“, wie Matthias Quent festhält (2018: 50) – wonach der Begriff neben rassistischen auch sexistische, antisemitische, antiziganistische und ableistische Aussprüche umfasst und damit als Ausdruck rechter, menschenverachtender Ideologie zu verstehen ist. Und doch wird er im öffentlichen Diskurs bisweilen nicht derart klar definiert (vgl. Ettinger 2017) und damit der Blick auf die Narrative hinter feindseligen Kommentaren verstellt sowie die Herausforderung im Umgang mit den Narrativen geschmälert (vgl. Baldauf et al. 2017: 6). Wenn Facebook etwa einzelne Worte als hate speech ausmacht und sie löschen lässt, verschwinden schließlich nicht die Erzählungen, deren Teil die Worte sind, nicht die rassistische Ideologie, die sie ausdrücken, und nicht die Herrschaftsverhältnisse, die sie legitimieren.
Jene Forschungsarbeiten, die speziell rassistische hate speech untersuchen, situieren deren Zunahme aber meist innerhalb von größeren gesellschaftlichen Zusammenhängen. Auch im deutschsprachigen Raum wird die Verbreitung rassistischer Hassrede über digitale Infrastrukturen immer häufiger zum Thema (vgl. Stahel 2020). Und hier ebenfalls etwa im Zusammenhang mit der Zunahme von Mobilisierungen gegen Geflüchtetenunterkünfte offline — vor allem seit den gewalttätigen Ausschreitungen von Heidenau und Freital im Sommer 2015 (vgl. Baldauf et al. 2017: 6). Die Verbreitung der Hassrede online wird als Teil eines umfangreichen „kulturellen Backlashs gegen progressive Errungenschaften“ verstanden (Quent 2018: 48ff.), zum Beispiel gegen die Bereitschaft zur Aufnahme von Geflüchteten, gegen Antidiskriminierungsgesetze und das öffentliche Skandalisieren rassistischer Polizeigewalt.
Gegen Bewegungen, denen diese ‚Errungenschaften‘ zu verdanken sind, wiegeln neurechte Influencer:innen auf ihren Kanälen auf. Einer der Erfolgreichsten unter ihnen ist der ehemalige Psychologie-Professor Jordan Peterson aus Kanada, der auf Youtube knapp 6 Millionen Abonnent:innen hat, und dort exemplarisch das Mantra des digitalen Rechtspopulismus wiederholt: Antirassist:innen, Feminist:innen und Kulturmarxist:innen würden gemeinsame Sache gegen die Fakten, gegen die Naturwissenschaften machen, um den Westen und die Weißen Männer zu Fall zu bringen. Er untermauert die rassistischen Narrative, die schon die ‚hite Supremacists‘ in den Anfängen des Internets verbreiten, über vermeintlich wissenschaftliche Studien, die er online verlinkt (vgl. Wiedemann 2023; Conner/Weinman 2022). Als Fake News betitelt er antirassistische Aufklärungskanäle und verbreitet dabei selbst genau das: Fake News im Gewand von Statistik, die nichts als rassistische Scheinkorrelation ist (vgl. Evans 2018). Er und andere neurechte Influencer:innen schaffen so jenseits alter hierarchischer Nazistrukturen neue lose Verbindungen zwischen vormals vereinzelten Individuen, die im Netz ideologisch ihre Bande knüpfen, ohne sich zu Mitgliedschaften oder zur Präsenz an bestimmten Orten, in bestimmten Räumen verpflichten zu müssen (vgl. IiD 2020). Der Erfolg der neuen rechten Influencer:innen lässt sich nicht unabhängig von den digitalen Infrastrukturen und auch nicht unabhängig von der Beschaffenheit der Plattformen verstehen.

Algorithmen der Unterdrückung

Die Soziologin Lea Stahel etwa zeigt, dass verschiedene digitale Kanäle, von Blogs über Foren (z.B. 4chan), aber auch Chats (z.B. Telegram) besonders für die Verbreitung von Ressentiments und vermeintlichen Bedrohungsszenarien wie der völkischen Erzählung des großen Austauschs geeignet sind, insofern Autor:innen Posts unmittelbar und impulsiv veröffentlichen und ihnen simplifizierend-dramatisierende Inhalte mehr Aufmerksamkeit bescheren (vgl. 2020: 2). Weitere Forschungsarbeiten fokussieren, wie rassistischer ‚Hass‘ in Memes und anderen Bildern oder audiovisuellem Material (re-)produziert wird (vgl. Lamerichs et al. 2018) oder wie sich auf bestimmten Foren rassistische Kollektive radikalisieren (vgl. Holnburger/Schwarz 2018; IiD 2020). Dabei wird die digitale Infrastruktur über Analysen der Interfaces, der Algorithmen und der Nutzungsoptionen der Plattformen als Akteur:in für die rassistische Mobilisierung miteinbezogen (vgl. Miškolci et al. 2020: 14). Und das nicht nur im Hinblick darauf, dass sie rechten Agitator:innen vielfältige technische Verbreitungselemente (z.B. Videos, Hashtags) bietet (vgl. Stahel 2020: 2), anonyme Kommunikation ermöglicht (vgl. u.a. Bachmann et al. 2017) und die Nutzung von Fake-Profilen und Bots (Computerprogramme) zulässt, um mehr Zustimmung vorzutäuschen (metrische Manipulation) (vgl. Stahel 2020: 25f.), sondern etwa auch durch die Wahl der Inhalte, die sie selbst anbietet, also insofern sie selbst durch bestimmte Algorithmen immer wieder reißerischen, im Zweifel rassistischen Inhalt vorschlägt (vgl. Awan 2014). Gerade auf Youtube, so zeigt etwa Zeynep Tufekci (2018), verbreiten sich Videos mit emotionalen, polarisierenden Titeln erstens, weil sie affizieren – und für den Rassismus ist die Adressierung über Affekte zentral – und dadurch öfter angeklickt und kommentiert werden, und zweitens, weil der Algorithmus der Plattform sie begünstigt.
Hier kommen Perspektiven in der Folge des material turn oder auch infrastructural turn zum Tragen; Perspektiven, die zunehmend nichtmenschliche Akteur:innen in sozial- und kulturwissenschaftlichen Analysen mitberücksichtigen. Vielleicht ist es kein Zufall, dass dieser turn in jene Zeit fällt, in der die Etablierung einer weitverzweigten digitalen Infrastruktur die Gegenüberstellung von Mensch und Maschine, Materie und Diskurs, von Struktur und Handlung etc. weiter herausfordert.
Arbeiten, die in diesem Feld nach der agency von Algorithmen fragen, analysieren zum Beispiel die Vorsortierung von Google-Suchen, also die Rolle sogenannter Echokammern und Filterblasen für die Fragmentierung der Gesellschaft (Thimm 2017) oder für die Radikalisierung einzelner Gruppen (vgl. Holnburger/Schwarz 2018). Als Echokammern und Filterblasen werden jene Räume und Kanäle bezeichnet, die durch Informationsintermediäre wie Suchmaschinen oder soziale Netzwerkplattformen entstehen, die Informationen filtern, sortieren und personalisieren (vgl. Stark et al. 2021: 303f.). Dies passiert auf der Basis von Inhalten, die Nutzer:innen zuvor angeklickt oder gelikt haben, von Metainformationen der genutzten Inhalte und von Interaktionen mit anderen Nutzer:innen und deren Datensätzen (ebd.). Diese Intermediäre basieren auf Algorithmen, die Netzwerke nach Mustern der Ähnlichkeit durchsuchen. Jene Form der Netzwerkanalyse baut auf „einer reduktionistischen Identitätspolitik“ auf, die sie dann immer wieder bestätigt, schreibt Wendy Chun (2018: 131), eine der zentralen Kritiker:innen der ‚Homophilie‘ der Netzwerk- und Big-Data-Analyse. Die Analyse teile User:innen in segregierte Nachbarschaften auf und trainiere sie, diese Segregation zu erwarten. Anstatt eine Ära einzuleiten, die Zuweisungen von „race“ und „Identität“ überwindet, schreiben Netzwerke somit Identität durch vorgegebene Variablen und Axiome endlos fort (ebd.: 132) – zum Zweck des Profits der Intermediäre, also der Plattformen und Suchmaschinen. Deren Werbeeinnahmen steigen dadurch, denn je passgenauer die Inhalte für die Nutzer:innen sind, desto länger verweilen jene dann auf den Plattformen.
Chuns Arbeit, die im deutschsprachigen Raum etwa die Medienwissenschaftler:innen Clemens Apprich (u.a. 2018) und Nelly Y. Pinkrah (u.a. 2021) aufgreifen, verbindet verschiedene zentrale Fragen aus dem Feld der Forschung zu Rassismus und digitalen Infrastrukturen: die nach rassistischer Mobilisierung online mit denen nach den Algorithmen der Unterdrückung, um es mit Safiya Umoja Noble (2018) zu sagen. Nicht nur jene Algorithmen nämlich, die der Netzwerkanalyse der Social-Media-Plattformen zugrunde liegen, die also auf die genannte Art nach Mustern der Ähnlichkeit in den Daten suchen und so die ‚Personalisierung‘ von Instagram-Feeds oder Netflix-Empfehlungen ermöglichen, sondern auch viele andere Algorithmen, auf denen Systeme sogenannter künstlicher Intelligenz gegenwärtig basieren, tendieren dazu, rassistische Praktiken zu automatisieren.
Unter den Schlagwörtern ‚Coded Bias‘ und ‚algorithmische Diskriminierung‘ wird auch im deutschsprachigen Raum in verschiedenen Disziplinen diskutiert, inwiefern Rechenoperationen rassistische und hetero-sexistische Stereotype reproduzieren (vgl. Hagendorff 2019; Horwath 2022). Sie beziehen sich oft auf die einschlägigen Arbeiten US-amerikanischer Forscher:innen, die den ‚algorithmischen Rassismus‘ zunächst im Umgang mit Bildmaterial dokumentieren. So etwa mit folgenden Beispielen: In den 2000er-Jahren zeigte Google bei der Schlagwortsuche nach ‚black girls‘ durchweg sexualisierte und sexistische Bilder (vgl. Noble 2018); bei Schönheitswettbewerben, bei denen Bewerber:innen durch künstliche Intelligenzen bewertet wurden, sortierten die Algorithmen alle Nichtweißen Menschen aus (vgl. Benjamin 2019: 49f.); Google Photos taggte ein Bild zweier Schwarzer Freundinnen als „Gorillas“ und schloss damit an kolonialrassistische Narrative an (ebd.: 110). Andere Arbeiten zeigen, dass bei Bewerbungsverfahren, etwa für Jobs bei Amazon, in denen eine vermeintlich neutrale künstliche Intelligenz (KI) helfen soll, die besten Kandidat:innen auszuwählen, alle Frauen und Nichtweißen Menschen aussortiert werden, obwohl die Bewerbungen anonym sind, also keine Namen und keine Angaben zu Geschlecht oder Herkunft enthalten (vgl. Kantayya 2020). Die Funktionslogik dieser ‚künstlichen Intelligenz‘ besteht darin, dass der Algorithmus auf Basis vorhandener Datensätze etwa bestimmte Muster erkennt, die Führungskräfte im Schnitt gegenwärtig vorweisen: Da Weiße Männer aktuell zumeist Führungspositionen bekleiden bzw. Führung repräsentieren, gelten der KI somit Gemeinsamkeiten in den Lebensläufen Weißer Männer als Muster, die eine besondere Eignung für Führungspositionen versprechen. Lebensläufe, die jene Eigenschaften nicht vorweisen, werden deshalb aussortiert.
Die Systeme ‚lernen‘ entweder auf Basis von Datensätzen, die ihnen eingespeist, und nach Variablen, die vorgegeben werden, und reproduzieren insofern die Urteile und Perspektiven derer, die sie trainieren. Oder sie lernen ‚frei‘, auf der Basis aller verfügbaren Daten, Muster zu erkennen – und sie zu reproduzieren (vgl. Hagendorff 2019). So erklären einige Forscher:innen den Umstand, dass etwa Gesichtserkennungssoftware bei Weißen Männern am besten funktioniert, mit dem Hinweis darauf, dass diejenigen, die den Algorithmus mit Daten trainieren, vorwiegend Weiße Männer seien, die wiederum Bildersätze wählen, die ihnen selbst entsprechen. Doch noch wichtiger scheint die Erklärung, dass auch der im Netz verfügbare Satz an Daten, in diesem Fall der Satz an Bildern, die medialen Sichtbarkeitsverhältnisse der Menschen weltweit widerspiegelt, in denen Schwarze Frauen weiterhin am wenigsten repräsentiert sind (vgl. D’Ignacio/Klein 2020: 137).
Wie die rassistisch-fehlerhafte Gesichtserkennung im Fall von Polizeiarbeit rassistische Praktiken verschärft, zeigt etwa Kantayya (2020): Wenn Überwachungssoftware Bilder vermeintlicher Täter:innen falsch zuordnet, landen Schwarze Menschen im Gefängnis, die nie kriminell waren. Die Software folgt dem Blick des Weißen Kommissars oder Kolonisators, in dessen Augen Schwarze Menschen ohnehin zur Kriminalität neigen (vgl. Thompson 2020). Dieses Muster, diese vermeintliche Korrelation sieht auch der Computer, der ebenfalls die vorhandenen Daten nach Mustern ordnet und dann Kausalitäten erstellt: Dieser bemerkt also, dass mehr Schwarze als Weiße Menschen inhaftiert sind und schließt daraus, dass diese mehr zur Kriminalität tendieren. So automatisiert er die rassistische Ideologie auch jenseits der fehlerhaften Bilderkennung (vgl. Schmidt 2021).
Was überhaupt als Kriminalität und was als Sicherheitsmaßnahme gilt, weiß die Maschine schnell, lernt sie doch beim Blick auf die Welt, aus kolonial geprägten Augen zu schauen. Katrin Köppert (2021) schreibt in Bezug auf Simone Brownes Dark Matters. On the Surveillance of Blackness (2015) vom ‚algorithmischen Kolonialismus‘“. Koloniales Wissen werde nicht nur dadurch fortgeschrieben, dass die Algorithmen rassistisch diskriminieren, sondern auch, weil sie an koloniale Logiken des Navigierens, Auffindens, Überwachens und Klassifizierens gekoppelt sind. Als System der Klassifikation und Hierarchisierung habe sich der Kolonialismus nicht nur in das Denken, Wahrnehmen und Fühlen der Menschen eingeschrieben (vgl. ebd.), sondern auch in jene digitalen Technologien, die uns beim Denken, Wahrnehmen usw. helfen sollen, wie auch etwa Roland Meyer in Operative Portraits. Eine Bildgeschichte der Identifizierbarkeit zeigt (2019).
Inwiefern sich durch die Verbreitung digitaler Infrastrukturen neue, alte Ausbeutungsverhältnisse reproduzieren und etablieren, analysieren ebenfalls eine Reihe von Forscher:innen, wie etwa Abeba Birhane, deren Arbeit Algorithmic Colonization of Africa (2020) zahlreiche Beispiele dafür nennt, dass das rasante Wachstum der KI-Interventionen überall in Afrika Parallelen zur Kolonialzeit aufweist, etwa über den Einsatz biometrischer Identifizierungssysteme. Unter dem Begriff ‚Digitaler Kolonialismus‘ wird auch noch etwas anderes verstanden: Die massenhafte Speicherung und Nutzung von Daten durch die großen Techunternehmen. Renata Avila, Senior-Beraterin für Digitale Rechte bei der World Wide Web Foundation, beschreibt digitalen Kolonialismus als „die neue Entfaltung einer quasi-imperialen Macht über eine große Anzahl von Menschen, ohne deren ausdrückliche Zustimmung“ (vgl. Baskakov 2022). Das betrifft alle Menschen weltweit, die digitale Infrastrukturen nutzen. Besonders profitabel ist die Datenextraktion und -aneignung heute aber genau da, wo der Datenschutz begrenzt ist, was wiederum auf die meisten Länder Afrikas zutrifft und damit auch auf diese Weise koloniale Ausbeutung fortschreibt (vgl. ebd.).
In Surrogate Humanity (2019) analysieren Neda Atanasoski und Kalindi Vora in Anlehnung an Wendy Chuns Race and/as Technology (2009), wie Technologie Menschen immer noch wie im Kolonialismus rassifiziert, um bestimmte Arbeiten zu verteilen, und wie der Rassismus gleichzeitig in die Vorstellung von technischem Fortschritt eingebaut ist, insofern, als dass die Technologie des Rassismus die zentrale Unterscheidung der Moderne bezweckt: zwischen Lebewesen und Dingen, zwischen Subjekten und Objekten, zwischen dem, was als Mensch gilt, und dem, was angeeignet und ausgebeutet werden darf (vgl. u.a. Chun 2009; Coleman 2009).

Fazit und Ausblick
Die kulturelle Logik des Binären durchsetzt das Digitale und materialisiert es — und dass das Begriffspaar ‚Herr/Sklave‘ in der Informatik und im Software-Engineering immer noch verwendet wird, ist vielsagend (vgl. Pinkrah 2021). Doch längst wurde das binäre Denken in den postcolonial und queer studies herausgefordert. Und es ist auch möglich, anderen Code zu schreiben, andere Netzwerke zu bauen, als die derzeit maßgeblichen, schreibt Nelly Pinkrah: Netzwerke, die Differenz und Inklusion begünstigen statt Homophilie. Letztere ist schließlich vor allem der Profitlogik der Plattformen geschuldet. Und so zeigt sich erneut und doch zum Teil ganz anders als vor der Etablierung der digitalen Infrastrukturen, dass sich die Funktionsweise von Rassismus in Gänze nicht jenseits der Betrachtung der gegenwärtigen Wirtschaftsmodelle hinter den Netzwerken verstehen lässt. Literaturverzeichnis

Apprich, Clemens (2018): Data Paranoia: How to Make Sense of Pattern Discrimination. In: Apprich, Clemens/Chun, Wendy Hui Kyong/Cramer, Florian (Hrsg.): Pattern Discrimination. Lüneburg: meson press, S. 99–123.
Atanasoski, Neda/Vora, Kalindi: Surrogate Humanity. Race, Robots, and the Politics of Technological Futures. Durham: Duke University Press.
Awan, Imran (2014): Islamophobia and Twitter: A Typology of Online Hate against Muslims on Social Media. In: Policy and Internet 6, H. 2, S. 133–50.
Bachmann, Götz/Knecht, Michi/Wittel, Andreas (2017): The Social Productivity of Anonymity. In: Ephemera. Theory and Politics in Organization 17, H. 2, S. 241–258.
Back, Les (2002): Aryans reading Adorno: Cyber-culture and twenty-first century racism. In: Ethnic and Racial Studies 25, S. 628–651.
Back, Les/Keith, Michael K./Solomos, John (1998): Racism on the Internet: Mapping neo-fascist subcultures in cyberspace. In: Kaplan, Jeffrey/Bjørgo, Tore (Hrsg.): Nation and race: The developing Euro-American racist subculture. Boston: Northeastern University Press, S. 73–101.
Baldauf, Johannes/Dittrich, Miro/Hermann, Melanie/Kollberg, Britta/Lüdecke, Robert/Rathje, Jan (2017): Toxische Narrative. Monitoring rechts-alternativer Akteure. Berlin: Amadeo Antonio Stiftung: www.amadeu-antonio-stiftung.de/w/files/publikationen/monitoring-2017.pdf, 01.12.2022.
Barlow, John Perry (1996): A Declaration of the Independence of Cyberspace. www.eff.org/de/cyberspace-independence, 01.12.2022.
Baskakov, Antonia (2022): Big-Tech-Unternehmen sammeln Daten in Afrika: Das ist digitaler Kolonialismus. In: Tagesspiegel: www.tagesspiegel.de/politik/das-ist-digitaler-kolonialismus-8150332.html, 01.12.2022.
Becker, Matthias (2020): Antisemitismus im Internet. In: Aus Politik und Zeitgeschichte (APuZ), 26–27, S. 48–53.
Benjamin, Ruha (2019): Race After Technology. Abolitionist Tools for the New Jim Code. Cambridge: Polity Press.
Birhane, Abeba (2020): Algorithmic Colonization of Africa. In: SCRIPTed 389, H. 17:2: script-ed.org/?p=3888, 01.12.2022.
Breidenbach, Joana/Zukrigl, Ina (2003): Vernetzte Welten – Identitäten im Internet, Aus Politik und Zeitgeschichte: www.bpb.de/shop/zeitschriften/apuz/27249/vernetzte-welten-identitaeten-im-internet/#footnote-target-30, 01.12.2022.
Browne, Simone (2015): Dark Matters: On the Surveillance of Blackness. New York: Duke University Press.
Carlson, Caitlin R. (2016): Hashtags and hate speech: The legal and ethical responsibilities of social media companies to manage content online. In: Vanacker, Bastiaan/Heider, Don (Hrsg.): Ethics for a digital age. New York: Peter Lang, S. 123–140.
Chun, Wendy Hui Kyong (2009): Introduction: Race and/as Technology, or, How to Do Things to Race. In: Camera Obscura 24, S. 7–35.
Chun, Wendy Hui Kyong (2018): Queering Homophily: Muster der Netzwerkanalyse. In: Zeitschrift für Medienwissenschaften 18, S. 131–148.
Coleman, Beth (2009): Race as Technology. In: Camera Obscura 24, S. 177–207.
Conner, Christopher T./Weinman, Markus (2022): Discriminating tastes: Why academia must tackle its „race science“ problem. In: Salon: www.salon.com/2022/06/05/discriminating-tastes-why-academia-must-tackle-its-race-science-problem/, 01.12.2022.
D’Ignacio, Catherine/Klein, Lauren F. (2020): Data Feminism. Cambridge, MA: MIT Press.
Daniels, Jessie (2009): Cyberracism: White Supremacy Online and the New Attack on Civil Rights. New York: Rowman and Littlefield.
Daniels, Jessie (2013): Race and racism in Internet Studies: A review and critique. In: New Media & Society 15, H. 5, S. 695–719.
Eisenrieder, Veronika (2003): Von Enten, Vampiren und Marsmenschen – von Männlein, Weiblein und dem „Anderen“: Soziologische Annäherungen an Identität, Geschlecht und Körper in den Weiten des Cyberspace. München: Herbert Utz.
Ettinger, Patrik (2017): Hate Speech in Social Media – Aspekte eines neuen Phänomens, Fokusbericht, Stiftung gegen Rassismus und Antisemitismus: www.chronologie.gra.ch/assessment/fokusbericht-2017-hate-speech-in-social-media-aspekte-eines-neuen-phaenomens/, 01.12.2022.
Evans, Gavin (2018): The Unwelcome Revival of Race Science. In: The Guardian: www.theguardian.com/news/2018/mar/02/the-unwelcome-revival-of-race-science, 01.12.2022.
Glaser, Stefan (2004): Rassismus im Internet – Anlass zur Auseinandersetzung?! In: Braun, Stephan/Hörsch, Daniel (Hrsg.): Rechte Netzwerke – eine Gefahr. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 221–229.
Glaser, Stefan (2021): Junge Menschen nachhaltig vor rechtsextremen Erlebniswelten schützen, in: jugendschutz.net: Bericht 2020/21. Rechtsextremismus im Netz, https://www.jugendschutz.net/fileadmin/daten/publikationen/lageberichte/bericht_2020_2021_rechtsextremismus_im_netz.pdf, 06.03.2024, S.3.
Hagendorff, Thilo (2019): Rassistische Maschinen? In: Maschinenethik. Wiesbaden: Springer VS, S. 121–134.
Helff, Sissy (2011): Digitales Schwarzsein: Afrofuturismus, Authentizitätsdiskurs und Rassismus im Cyberspace. In: Gutberlet, Marie-Hélène/Helff, Sissy (Hrsg.): Die Kunst der Migration: Aktuelle Positionen zum europäisch-afrikanischen Diskurs. Material – Gestaltung – Kritik. Bielefeld: transcript, S. 95–112.
Holnburger, Josef/Schwarz, Karolin (2018): Desinformation: Welche Rolle spielen Desinformationen für Hassrede und Extremismus im Netz und welche Maßnahmen haben soziale Medien zur Bekämpfung von Desinformation ergriffen? In: Baldauf, Johannes/Ebner, Julia/Guhl, Jakob (Hrsg.) (2018): Hassrede und Radikalisierung im Netz. Der OCCI-Forschungsbericht, 01.12.2022, S. 39–47.
Horwath, Ilona (2022): Algorithmen, KI und soziale Diskriminierung. In: Schnegg, Cordula/Voithofer, Caroline/Auer, Manfred/Tschuggnall, Julia (Hrsg.): Innsbrucker Gender Lectures IV. Innsbruck: University Press und Open Access, S. 71–101.
IiD – Irgendwo in Deutschland (2020): Name it, face it! Rechten Terror bekämpfen!: irgendwoindeutschland.org/wp-content/uploads/2021/01/Aufruf_Broschur_A4_2020_web.pdf, 01.12.2022.
Jakubowicz, Andrew/Dunn, Kevin/Mason, Gail/Paradies, Yin/Bliuc, Ana-Maria/Bahfen, Nasya/Oboler, Andre/Atie, Rosalie/Connelly, Karen (2017): Cyber racism and community resilience. Cham: Springer.
Jasser, Greta/Wankmüller, Agnes (2020): Alt-Right, Alt-Tech, Alt-Internet? Rechte Online Plattformen und ihre Funktion. In: Forschungsjournal Soziale Bewegungen 33, H. 2, S. 506–512.

Kantayya, Shalini (2020): Coded Bias. Film: www.netflix.com/de/title/81328723, 01.12.2022.
Köppert, Katrin (2021): Digitaler Kolonialismus in der visuellen Kultur: www.fromprinttopixel.ch/de/die-macht-der-bilder/digitaler-kolonialismus, 01.12.2022.
Kolko, Beth/Nakamura, Lisa/Rodman Gilbert B. (2000): Race in Cyberspace: An Introduction. In: Kolko, Beth/Nakamura, Lisa/Rodman, Gilbert B. (Hrsg.): Race in Cyberspace. New York: Routledge, S. 1–13.
Lamerichs, Nicolle/Nguyen, Dennis/Puerta, María del Carmen/Radojevic, Radmila (2018): Elite Male Bodies: The Circulation of Alt-Right Memes and the Framing of Politicians on Social Media. In: Participations 15, H. 1, S. 180–206.
Matamoros-Fernández, Araidna/Farkas, Johan (2021): Racism, Hate Speech, and Social Media: A Systematic Review and Critique. Television & New Media 22, H. 2, S. 205–224.
Meyer, Roland (2019): Operative Porträts. Eine Bildgeschichte der Identifizierbarkeit von Lavater bis Facebook. Konstanz: Konstanz University Press.
Miškolci, Jozef/Kováčová, Lucia/Rigová, Edita (2020): Countering Hate Speech on Facebook: The Case of the Roma Minority in Slovakia. In: Social Science Computer Review 38, H. 2, S. 128–46.
Nakamura, Lisa (2002): Cybertypes. Race, Ethnicity, and Identity on the Internet. New York: Routledge.
Nelson, Alondra/Tu, Thuy Linh Nguyen/Hines, Alicia H. (Hrsg.) (2001): Technicolor: Race, Technology, and Everyday Life. New York: NYU Press.
Noble, Safiya U. (2018): Algorithms of oppression: How search engines reinforce racism. New York: NYU Press.
Nolden, Marcus (2020): Rassismus im Netz. In: Friese, Heidrun/Nolden, Marcus/Rebane, Gala/Schreiter, Miriam (Hrsg.): Handbuch Soziale Praktiken und Digitale Alltagswelten. Wiesbaden: Springer VS, S. 1–11.
Pfeiffer, Thomas (2002): „Das Internet ist billig, schnell und sauber. Wir lieben es“. Rechtsextremisten entdecken den Computer. In: Bundeszentrale für politische Bildung (Hrsg.): Rechtsextremismus im Internet. Bonn: bpb.
Pinkrah, Nelly (2021): Das Digitale ist alt. In: Gunda Werner Institut: www.gwi-boell.de/de/2021/02/11/das-digitale-ist-alt, 01.12.2022.
Quent, Matthias (2018): Zivilgesellschaft: „Das globale Dorf verteidigen: Strategien gegen den kulturellen Backlash in sozialen Medien“. In: Baldauf, Johannes/Ebner, Julia/Guhl, Jakob (Hrsg.) (2018): Hassrede und Radikalisierung im Netz. Der OCCI-Forschungsbericht, S. 48–54.
Richardson, Sandee (1998): Net spreads message, draws in recruits: www.stormfront.org/dblack/press062898.htm, 01.12.2022.
Schmidt, Francesca (2021): Sexismus und Rassismus im Code. Diskriminierung oder Gerechtigkeit durch Algorithmen? In: Politikum, Heft 1: Künstliche Intelligenz, S. 40–44.
Schrade, Robin (2021): Wer sucht, kann gefunden werden. Problemgeschichten der Wissensorganisation von der Scholastik bis zur Suchmaschinenforschung. Bielefeld: transcript.
Schwarz-Friesel, Monika (2019): Judenhass im Internet. Antisemitismus als kulturelle Konstante und kollektives Gefühl. Leipzig: Hentrich & Hentrich.
Stahel, Lea (2020): Status quo und Maßnahmen zu rassistischer Hassrede im Internet: Übersicht und Empfehlungen. Federal Department of Home Affairs FDHA, Office for Combating Racism, S. 1–71.
Stark, Birgit/Magin, Melanie/Jürgens, Pascal (2021): Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern. In: Eisenegger, Mark/Blum, Roger/Ettinger, Patrick/Prinzing, Marlis (Hrsg.): Digitaler Strukturwandel der Öffentlichkeit: Historische Verortung, Modelle und Konsequenzen. Wiesbaden: Springer VS, S. 303–321.
Thimm, Caja (2017): Digitale Öffentlichkeit zwischen Fragmentierung und Mini-Publics. In: Binder, Ulrich/Oelkers, Jürgen (Hrsg.): Der neue Strukturwandel von Öffentlichkeit. Reflexionen in pädagogischer Perspektive. Weinheim: Beltz Juventa, S. 49–60.
Thompson, Vanessa Eileen (2020): Racial Profiling, institutioneller Rassismus und Interventionsmöglichkeiten. In: bpb.de: www.bpb.de/gesellschaft/migration/kurzdossiers/308350/racial-profiling-institutioneller-rassismus-und-interventionsmoeglichkeiten, 01.12.2022.
Tufekci, Zeynep (2018): „Youtube, the Great Radicalizer“. In: New York Times vom 10.03.2018: www.nytimes.com/2018/03/10/opinion/sunday/youtube-politics-radical.html, 01.12.2022.
Turkle, Sherry (1995): Life on the Screen, Identity in the Age of the Internet. London: Weidenfeld & Nicholson.
Unabhängige Kommission Antiziganismus (2021): Perspektivwechsel. Nachholende Gerechtigkeit. Partizipation: www.institut-fuer-menschenrechte.de/das-institut/gefoerderte-projekte/unabhaengige-kommission-antiziganismus, 01.12.2022.
Wetzstein, Thomas A./Dahm, Hermann/Steinmetz, Linda (1995): Datenreisende. Die Kultur der Computernetze. Leverkusen: Opladen.
Wiedemann, Carolin (2023): Jordan Peterson und die digitale Öffentlichkeit: Rechtspopulistischer Selbstunternehmer in der Manosphere. In: Jung, Simone/Kempf, Victor: Entgrenzte Öffentlichkeit. Debattenkulturen im politischen und medialen Wandel, Bielefeld: transcript.