Diskriminierung & AlgorithmWatch
Datum:
AlgorithmWatch ist eine gemeinnützige Nichtregierungsorganisation die sich dafür einsetzt, dass Algorithmen und Künstliche Intelligenz (KI) Gerechtigkeit, Demokratie, Menschenrechte und Nachhaltigkeit stärken, statt sie zu schwächen.
Seit kurzem bietet AlgorithmWatch eine neue Meldestelle für algorithmische Diskriminierung.
Wie diskriminieren Algorithmische Systeme?
Algorithmische Systeme können Entscheidungen treffen, die Menschen diskriminieren, sei es bei der Vergabe von Sozialleistungen oder bei der Jobsuche. Wenn die Systeme auf der Grundlage von Daten Entscheidungen treffen, in denen Vorurteile stecken, fließen diese Vorurteile in die Entscheidungen ein – wenn nichts dagegen getan wird.
Weitere Quellen von Diskriminierung können die Annahmen sein, die in die Entwicklung eines Modells einfließen, dessen Zweck oder auch die Art und Weise, wie ein System verwendet wird. Das ist dann der Fall, wenn zum Beispiel ein Gesichtserkennungssystem vor allem Schwarze Personen identifiziert oder wenn ein System die Leistungen von Mitarbeitenden misst und dabei nicht die besonderen Bedürfnisse von Menschen mit Behinderungen berücksichtigt.
Technisch gesteuerte Entscheidungen liefern also nicht zwangsläufig „neutralere“ oder „objektivere“ Ergebnisse, denn die Systeme selbst sind nicht neutral. Menschen mit ihren Annahmen und Interessen beeinflussen die Entwicklung und den Einsatz der Systeme.