Negativfaktor Frau
Das AMS will alle Arbeitslosen von Software bewerten lassen – für Unbehagen sorgt speziell, dass Frauen automatisch eine schlechtere Bewertung bekommen.
Die Digitalisierung beeinflusst immer mehr Bereiche unseres Lebens – mit wem wir auf ein Date gehen, welche Produkte wir kaufen, und bald auch: wer eine teure Weiterbildung beim Arbeitsmarktservice (AMS) bekommt und wer nicht.
Zunehmend lassen öffentliche Einrichtungen ihre Daten auswerten und Prognosen über Bürger erstellen. Aktuell macht das Arbeitsmarktservice Schlagzeilen. „AMS bewertet Arbeitslose künftig per Algorithmus“, schrieb der „Standard“. Das AMS ließ Forscher die eigenen Daten auswerten und ein statistisches Modell erstellen, mit dem es die Arbeitsmarktchancen für jeden Einzelnen berechnen kann. Mithilfe der Kalkulation werden dann Ressourcen verteilt.
Wer im Jahr 2019 arbeitslos wird, für den ermittelt das AMS automatisch eine Zahl, wie gut oder schlecht die Chancen am Arbeitsmarkt sind. Jeder Arbeitslose wird in eine von drei Gruppen eingeteilt, ab 2020 soll diese Einteilung Konsequenzen haben: Kommt die Software zum Schluss, dass man der stärksten Gruppe angehört, wird man eher wenig Förderung bekommen – da man vermutlich auch ohne Hilfe einen Job findet. Wer in der Gruppe mit mittleren Chancen am Arbeitsmarkt fällt, kriegt leichter teure Fachausbildungen – hier wird viel Geld investiert. Und wessen Chancen nur in der untersten Gruppe liegen, kriegt tendenziell günstige Kurse. Wobei AMS-Berater einzelne Einstufungen ändern dürfen.
Ziel der Kalkulation ist, vor allem jenen Jobsuchenden teure Kurse zu zahlen, die ansatzweise Chancen am Arbeitsmarkt haben. Kein Wunder, dass genau auf die Ressourcen geblickt wird. Das AMS steht unter Effizienzdruck, und die aktuelle Regierung kürzt das jährliche Budget sogar. Trotzdem wirft diese Prognose schwerwiegende Fragen auf – allem voran: Werden Frauen im neuen System benachteiligt?
Das AMS hat die Synthesis Forschung GmbH beauftragt, den neuen Algorithmus zu entwerfen. Auf 16 Seiten wurde nun die Methode erklärt – doch diese Erklärung wirft mehr Fragen als Antworten auf. Positiv fließt in die Bewertung von Arbeitslosen ein, wenn man EU-Bürger ist oder über höhere Ausbildung verfügt. Negativ wird beispielsweise bewertet, wenn man über 50 ist oder nicht aus der EU stammt – auch ist es ein Negativfaktor, eine Frau zu sein.
Im Dokument steht: „– 0,14 x GESCHLECHT_WEIBLICH“. Jede Frau bekommt automatisch den negativen Faktor von minus 0,14 angerechnet. Sind ein männlicher und eine weibliche Arbeitsuchende in allen Aspekten gleich (gleiches Alter, gleiche Ausbildung, gleiche Berufserfahrung), kriegt die Frau trotzdem eine schlechtere Prognose.
Zu Recht betont das AMS gegenüber profil: Es ist nicht schuld an dieser gesellschaftlichen Benachteiligung. Die Zahlen des AMS spiegeln anscheinend wider, dass es Frauen am Arbeitsmarkt eine Spur schwerer haben. „Wir kämpfen seit unserer Gründung gegen Diskriminierung“, sagt AMS-Chef Johannes Kopf – und weist darauf hin, dass man die dezidierte Vorgabe hat, 50 Prozent aller Mittel für die Förderung von Frauen einzusetzen (obwohl Frauen nur 43 Prozent der Arbeitslosen ausmachen).
In den Vorgaben des AMS ist die Förderung von Frauen zwar großgeschrieben, trotzdem ist es rechnerisch möglich, dass der Algorithmus diesen Zielen widerspricht – und Frauen es schlimmstenfalls eine Spur schwieriger haben, teure Weiterbildung zu erhalten. Solche ethischen Bedenken tauchen permanent auf, wenn der Staat Algorithmen für wichtige Entscheidungen nutzt. Die USA sind ein Extrembeispiel: Dort setzt die Justiz sogar Software ein, die Richtern bei der Entscheidung helfen soll, welche Häftlinge auf Bewährung freikommen. Die Software sagt vorher, wer in Zukunft eine schwere Straftat begehen wird. Doch solche Algorithmen sind umstritten – auch weil sich zeigt, dass Afroamerikaner deutlich strenger bewertet werden.
Algorithmen bergen die Gefahr, gesellschaftliche Ungleichheit einzuzementieren. Laut den Daten haben beispielsweise Frauen schlechtere Chancen am Arbeitsmarkt – doch wie gerecht ist es, ihnen ein schlechteres Ranking zu geben und auch die Ressourcen danach zu verteilen?
Derzeit stellt sich die Frage, ob der AMS-Algorithmus in der Praxis einzelne Bevölkerungsgruppen wie Frauen diskriminieren wird – wir wissen es genau genommen nicht. Hierzu fehlt bisher eine genaue wissenschaftliche Evaluation. Der Statistiker Erich Neuwirth meint: Es wäre sinnvoll, noch nähere Tests mit den Daten des AMS zu machen. „Die bisher veröffentlichten Unterlagen sind zu wenig für eine Bewertung“, sagt Neuwirth, pensionierter Professor der Universität Wien. Wenn das AMS Sorgen ausräumen will, kann es zwei Schritte setzen: Unabhängige Wissenschafter (die nicht an dem Projekt beteiligt waren) zu einer Evaluierung einladen – um den Algorithmus auf unbeabsichtigte Diskriminierung zu untersuchen. Zweitens sollte auch die Anwendung im Alltag evaluiert werden: Wie sehr beeinflussen solche Zahlen das Verhalten von AMS-Mitarbeitern?
Das Arbeitsmarktservice ist nur der Anfang: Wir können bereits beobachten, dass öffentliche Einrichtungen zunehmend – auch aus Kostengründen – ihre Daten durchleuchten und Bürger statistisch bewerten lassen. Da ist es nur fair, wenn auch diese Einrichtungen stärker durchleuchtet werden.
Dieser Text erschien zuerst im Nachrichtenmagazin profil (Ausgabe vom 21.10.2018).
View Comments
Es ist eine Frecheit, was sich die Kärntner Politiker besondersa der gerhard Dörfler und CO erlauben? Besonders das Verbrecherische Beziks Gericht Feldkirchen 9560 Kärnten.
Das BG - Feldkirchen 9560 namentlich:
Manfred cPick, Irene Malle de Cillia, Barbara Krische, Martin Huber, Felix Perl, Lucas Glantschnig, und weitere Personen sind wegen Mehrfachen Gaunereien bei de rSTA Angezeigt worden.
Wegen:
Einbrüche, Diebstählen auch von Geldern € 55,000.- € 4,900,., € 510.- u s w, Urkundne Fälschungen, Betrügereien, Gerichts Mißbrauchs durch Fälschungen, StaatsGrund Gesetz Mißbrauchs, Körper Verletzungen mit Fahrerflüchten, Stockings u s w.
Dsa bringt der Betrügerische ORF Österreich nicht.
Das Verbrecherische BG - Feldkirchen namentlich oben ist Bestechbar und unterstüzt Verbrechern zu weiteren Verbrechen.
Seit April 2007 in über 2000 Fällen.
Einbruch und Balkongeländer Dieb Stahl am 20 Juni 2012 um 8 Uhr vom Mehrfach Verbrechern Manfred Pick, Irene Malle de Cillia, Barbara Krische, Falix Perl, Lucas Glantschnig und besonders vom Oberverbrecher und GerichtsUrkunden Fälschern Werner Mosing und vom Geld Dieb Felix Fuchs
Weiteres wenn sich der ORF oder die Nichtsnutzigen Möchtegern Politiker einmal in Schwung kommen würden un d die OPFER und GESCHÄDIGTEN einmal Unterstützen würden und nicht die Befölkerung Verarschen. Basonders der Lügner und Betrüger Gerhard Dörfler und das Verbrecherische BG - Feldkirchen 9560 Kärnten Foregger Platz 1
ORTNER 06506173419
Bobogirl macht einfach schlechte Musik.
...ganz unabhängig davon und der Richtigkeit des Geschriebenen, finde ich den Satz mit dem Feenstaub sehr herzig. Herrlich! :D
Thanks to my father who stated to me regarding this website,
this web site is truly amazing.
Danke! Ich mag das Wort Feenstaub auch sehr gern, weil man sich damit herrlich lächerlich über Dinge machen kann
Aber hallo! Echte Geeks spielen doch kein Monopoly. "Battlestar Galactica - Das Brettspiel" ist das Minimum!
Klingonisches Monopoly ist gerade noch erlaubt! Aber stimmt, dass Battlestar-Galactica-Spiel muss ich auch dringend ausprobieren...
Throughout our tests, we'd say you're better off just mounting that SD card
and dragging your content over. Maca is believed to have the
knack of invading you when you want, but it also shows you a nasty WAP-compatible site designed as the lowest common denominator for data-capable dumbphones.
Love Green Smoκe. It's one of the exceptional brands available on the market and one i enjoy utilizing.
Glad you are getting things resolved.