Zum Inhalt springen
Wenn Technologie rassistisch ist

Wenn Technologie rassistisch ist

Februar ist Black History Month. Deshalb möchte ich hier das Duo “Rassismus und neue Technologie” thematisieren.

Das Internet, neue Technologien und die Digitalisierung haben so manche geografische oder klassenspezifische Barriere abgeschafft. Doch Technologie entsteht nicht in einem komplett wertfreien Vakuum, jede Technologie, die entwickelt wird, ist eben immer nur so gut wie die Gesellschaft, in der sie existiert.

So ist das Weiß-Sein im Bereich von Technologie-Entwicklung immer noch der Standard, neue Produkte werden oft nur für bestimmte Gruppen entwickelt und getestet. Automatische Seifenspender erkennen dunklere Hände nicht, Flughafen-Scanner können Menschen mit Afro-Frisuren nicht richtig einordnen, Gesichtserkennung-Softwares haben bei BIPoC (Black, Indigenous People of Color) die größten Fehlerquoten, hier ganz besonders bei Schwarzen Frauen*. Da BIPoC, Frauen* und behinderte Menschen in der Technikbranche und unter Entwickler*innen unterrepräsentiert sind, kommt es noch viel zu oft zur sogenannten “i-Methodology”. Das ist die falsche Annahme, dass Nutzer*innen eines Produktes immer auch die gleichen Bedürfnisse und Interessen haben wie die Entwickler*innen.

Und auch Google ist Teil des Problems: Nicht nur werden Schwarze Frauen* bei der Bildersuche stereotyp präsentiert, Schwarze Kultur wird auch marginalisiert, wie sich anhand der Bildsuchergebnisse von “black hair” zeigt. Hier überwiegen eindeutig die Bilder von weißen Frauen mit schwarzen Haaren und nicht Frisuren Schwarzer Frauen*.

Wie dies alles geändert werden kann? Ein beginnender Ansatz wären diversere Teams bei Produktdesigner*innen und Entwickler*innen.

Zum Abschluss noch eine Empfehlung für euch:

Hier kann etwas über die Geschichte von Schwarzem Widerstand in Österreich nachgelesen werden.