In KI-Systemen schlummern immer noch rassistische Vorurteile. Der Grund: Auch künstliche Intelligenz wird von Menschen gemacht. Wer in Großbritannien ein Visum beantragt, dessen Daten wurden bis vor Kurzem von einem Algorithmus gescreent. Die Software weist jedem Antragsteller, der für einen Studien- oder touristischen Aufenthalt in das Land einreisen will, ein grünes, gelbes oder rotes Risiko-Rating zu. Das automatisierte Verfahren wurde vom zuständigen Home Office Anfang August ausgesetzt. Der Grund: Der Algorithmus war rassistisch. Die Behörde soll eine geheime Liste mit „verdächtigen Nationalitäten“ geführt haben, die automatisch ein rotes Risiko-Rating erhielten. Von einem „speedy boarding for white people“, einem Schnellverfahren für weiße Leute, sprach hinterher die Bürgerrechtsorganisation Foxglove. Während Weiße vom algorithmischen Grenzer durchgewinkt wurden, mussten sich Schwarze offenbar noch einer Sicherheitskontrolle unterziehen. Eine brutale Selektion. Es ist nicht das erste Mal, dass Algorithmen Schwarze Menschen diskriminieren. So hat Googles Foto-App 2015 einen Afroamerikaner und seine Freundin als „Gorillas“ getaggt. Als wären Menschen Affen. Algorithmen haben nach wie vor Probleme damit, Gesichter von Afroamerikanern zu erkennen – die Fehlerrate ist bis zu zehn Mal höher als bei Weißen, wie zahlreiche Studien belegen. Doch anstatt seine Modelle zu optimieren, hat Google einfach die Kategorien „Gorilla“, „Schimpanse“ und „Affe“ entfernt – und das Problem damit „gelöst“. Die Technik ist noch nicht weit genug, um vorurteilsfrei zu sein, also macht man sie blind. Ein epistemologischer Taschenspielertrick. Das Problem ist damit freilich nicht gelöst – es ist struktureller Art. Denn Maschinen, die mit rassistisch verzerrten Daten von Menschen trainiert werden, reproduzieren Stereotype. Wenn von Vorurteilen geleitete Polizisten Afroamerikaner in bestimmten Vierteln kontrollieren, schickt eine Predictive-Policing-Software die Einsatzkräfte immer wieder in diese Quartiere und perpetuiert damit das Racial Profiling, weil die Modelle mit verzerrten Daten gefüttert werden. So werden Stereotype durch automatisierte Systeme zementiert. Ein Teufelskreis.

via taz: Dekolonialisierung von Algorithmen: Programmierter Rassismus

Categories: Allgemein