Entscheidungen mithilfe von Algorithmen zu treffen, ist nicht nur an US-Hochschulen gängige Praxis. Eine neue Studie zeigt nun, dass Vorhersage-Algorithmen weiße und asiatische Studierende bevorzugen. Dies wirft auch für deutsche Bildungseinrichtungen wichtige Fragen auf. Während deutsche Hochschulen vor allem auf den Notenschnitt setzen, gehört es besonders für angelsächsische Hochschulen zur Normalität, Zulassungsentscheidungen auf Basis von Prognosealgorithmen zur Vorhersage des Studienerfolgs zu treffen. Offenbar sind diese Vorhersagealgorithmen allerdings häufig rassistisch voreingenommen gegenüber schwarzen und hispanischen Studierenden. Dies zeigt eine neue Studie, durchgeführt unter der Federführung von Denisa Gándara (University of Texas at Austin), die ergab, dass Vorhersagemodelle den potenziellen Erfolg weißer und asiatischer Studierender überschätzen. Die untersuchten Modelle sagten das Versagen schwarzer und hispanischer Studierender in 19 Prozent bzw. 21 Prozent der Fälle falsch voraus, verglichen mit falsch-negativen Raten für weiße und asiatische Gruppen von 12 Prozent bzw. 6 Prozent. Gleichzeitig sagen die Modelle den Erfolg weißer und asiatischer Studierender in 65 Prozent bzw. 73 Prozent der Fälle falsch voraus, verglichen mit falsch-negativen Raten für schwarze und hispanische Studierende von 33 Prozent bzw. 28 Prozent. „Unsere Ergebnisse zeigen ein beunruhigendes Muster: Modelle, die häufig verwendete Merkmale zur Vorhersage des Erfolgs von College-Studierenden verwenden, prognostizieren letztendlich schlechtere Ergebnisse für ethnische Minderheitengruppen und sind oft ungenau“, fasst Gándaras Co-Autor Hadis Anahideh zusammen, Assistenzprofessor für Wirtschaftsingenieurwesen an der University of Illinois. „Dies unterstreicht die Notwendigkeit, inhärente Verzerrungen in der prädiktiven Analytik in Bildungseinrichtungen anzugehen.“
via news4teachers: Hochschulzulassung: Vorhersage-Algorithmen oft rassistisch voreingenommen