X

Negativfaktor Frau

Das AMS will alle Arbeitslosen von Software bewerten lassen – für Unbehagen sorgt speziell, dass Frauen automatisch eine schlechtere Bewertung bekommen.

Die Digitalisierung beeinflusst immer mehr Bereiche unseres Lebens – mit wem wir auf ein Date gehen, welche Produkte wir kaufen, und bald auch: wer eine teure Weiterbildung beim Arbeitsmarktservice (AMS) bekommt und wer nicht.

Zunehmend lassen öffentliche Einrichtungen ihre Daten auswerten und Prognosen über Bürger erstellen. Aktuell macht das Arbeitsmarktservice Schlagzeilen. „AMS bewertet Arbeitslose künftig per Algorithmus“, schrieb der „Standard“. Das AMS ließ Forscher die eigenen Daten auswerten und ein statistisches Modell erstellen, mit dem es die Arbeitsmarktchancen für jeden Einzelnen berechnen kann. Mithilfe der Kalkulation werden dann Ressourcen verteilt.

Wer im Jahr 2019 arbeitslos wird, für den ermittelt das AMS automatisch eine Zahl, wie gut oder schlecht die Chancen am Arbeitsmarkt sind. Jeder Arbeitslose wird in eine von drei Gruppen eingeteilt, ab 2020 soll diese Einteilung Konsequenzen haben: Kommt die Software zum Schluss, dass man der stärksten Gruppe angehört, wird man eher wenig Förderung bekommen – da man vermutlich auch ohne Hilfe einen Job findet. Wer in der Gruppe mit mittleren Chancen am Arbeitsmarkt fällt, kriegt leichter teure Fachausbildungen – hier wird viel Geld investiert. Und wessen Chancen nur in der untersten Gruppe liegen, kriegt tendenziell günstige Kurse. Wobei AMS-Berater einzelne Einstufungen ändern dürfen.

Ziel der Kalkulation ist, vor allem jenen Jobsuchenden teure Kurse zu zahlen, die ansatzweise Chancen am Arbeitsmarkt haben. Kein Wunder, dass genau auf die Ressourcen geblickt wird. Das AMS steht unter Effizienzdruck, und die aktuelle Regierung kürzt das jährliche Budget sogar. Trotzdem wirft diese Prognose schwerwiegende Fragen auf – allem voran: Werden Frauen im neuen System benachteiligt?

Das AMS hat die Synthesis Forschung GmbH beauftragt, den neuen Algorithmus zu entwerfen. Auf 16 Seiten wurde nun die Methode erklärt – doch diese Erklärung wirft mehr Fragen als Antworten auf. Positiv fließt in die Bewertung von Arbeitslosen ein, wenn man EU-Bürger ist oder über höhere Ausbildung verfügt. Negativ wird beispielsweise bewertet, wenn man über 50 ist oder nicht aus der EU stammt – auch ist es ein Negativfaktor, eine Frau zu sein.

Im Dokument steht: „– 0,14 x GESCHLECHT_WEIBLICH“. Jede Frau bekommt automatisch den negativen Faktor von minus 0,14 angerechnet. Sind ein männlicher und eine weibliche Arbeitsuchende in allen Aspekten gleich (gleiches Alter, gleiche Ausbildung, gleiche Berufserfahrung), kriegt die Frau trotzdem eine schlechtere Prognose.

Zu Recht betont das AMS gegenüber profil: Es ist nicht schuld an dieser gesellschaftlichen Benachteiligung. Die Zahlen des AMS spiegeln anscheinend wider, dass es Frauen am Arbeitsmarkt eine Spur schwerer haben. „Wir kämpfen seit unserer Gründung gegen Diskriminierung“, sagt AMS-Chef Johannes Kopf – und weist darauf hin, dass man die dezidierte Vorgabe hat, 50 Prozent aller Mittel für die Förderung von Frauen einzusetzen (obwohl Frauen nur 43 Prozent der Arbeitslosen ausmachen).

In den Vorgaben des AMS ist die Förderung von Frauen zwar großgeschrieben, trotzdem ist es rechnerisch möglich, dass der Algorithmus diesen Zielen widerspricht – und Frauen es schlimmstenfalls eine Spur schwieriger haben, teure Weiterbildung zu erhalten. Solche ethischen Bedenken tauchen permanent auf, wenn der Staat Algorithmen für wichtige Entscheidungen nutzt. Die USA sind ein Extrembeispiel: Dort setzt die Justiz sogar Software ein, die Richtern bei der Entscheidung helfen soll, welche Häftlinge auf Bewährung freikommen. Die Software sagt vorher, wer in Zukunft eine schwere Straftat begehen wird. Doch solche Algorithmen sind umstritten – auch weil sich zeigt, dass Afroamerikaner deutlich strenger bewertet werden.

Algorithmen bergen die Gefahr, gesellschaftliche Ungleichheit einzuzementieren. Laut den Daten haben beispielsweise Frauen schlechtere Chancen am Arbeitsmarkt – doch wie gerecht ist es, ihnen ein schlechteres Ranking zu geben und auch die Ressourcen danach zu verteilen?

Derzeit stellt sich die Frage, ob der AMS-Algorithmus in der Praxis einzelne Bevölkerungsgruppen wie Frauen diskriminieren wird – wir wissen es genau genommen nicht. Hierzu fehlt bisher eine genaue wissenschaftliche Evaluation. Der Statistiker Erich Neuwirth meint: Es wäre sinnvoll, noch nähere Tests mit den Daten des AMS zu machen. „Die bisher veröffentlichten Unterlagen sind zu wenig für eine Bewertung“, sagt Neuwirth, pensionierter Professor der Universität Wien. Wenn das AMS Sorgen ausräumen will, kann es zwei Schritte setzen: Unabhängige Wissenschafter (die nicht an dem Projekt beteiligt waren) zu einer Evaluierung einladen – um den Algorithmus auf unbeabsichtigte Diskriminierung zu untersuchen. Zweitens sollte auch die Anwendung im Alltag evaluiert werden: Wie sehr beeinflussen solche Zahlen das Verhalten von AMS-Mitarbeitern?

Das Arbeitsmarktservice ist nur der Anfang: Wir können bereits beobachten, dass öffentliche Einrichtungen zunehmend – auch aus Kostengründen – ihre Daten durchleuchten und Bürger statistisch bewerten lassen. Da ist es nur fair, wenn auch diese Einrichtungen stärker durchleuchtet werden.


Dieser Text erschien zuerst im Nachrichtenmagazin profil (Ausgabe vom 21.10.2018).

View Comments

  • Liebe Ingrid Brodnig!
    So ein Glück, dass ich wieder am Radio gepickt bin https://oe1.orf.at/artikel/437477

    Diesmal wollte ich Ihr Buch "Hass im Netz" zuerst lesen, bevor ich mich öffentlich für Sie freue. Was mich beim Interview gleich hellhörig gemacht hat, war der starke Einstieg: Das persönliche Gegenüber, der Augenkontakt erleichtern einen respektvollen Austausch! Und im Buch habe ich super brauchbare Tipps bekommen, von der Weiterbildung in der Online-Welt ganz abgesehen.

    Im Kepler Salon in Linz werden Sie sicher viele Freunde gewinnen http://www.kepler-salon.at/de/Veranstaltungen/Hass-im-Netz.-Was-wir-gegen-Hetze-Mobbing-und-Luegen-tun-koennen

    Ich werde inzwischen Ihr Buch lebhaft verschenken und weiterempfehlen.
    Herzlich, Heidemarie

    PS: hab' übrigens bei meinem Buchhändler auch ein witziges Vorlesebuch mit einem sympathischen Troll eingepackt http://www.lunamag.de/2016/03/07/neue-kinderbuecher/#!

  • Auch "Profil" entlohnt seine freien Mitarbeiter sehr schlecht!

  • Und WAS, wenn UNSER SYSTHEM durch die "Belohnungen" der Lügner LÜGNER produziert ?
    Jedes Kindergartenkind
    wird es Ihnen sagen:
    "Das Fernseh'n lügt ".

  • ich denke mir, da fehlt was, dieser Artikel behandelt meiner Meinung nach nur oberflächlich eine Seite, also die Lügen. was aber überhaupt nicht angesprochen wird ist die Wahrheit, die immer die Basis bildet und lediglich weitergestrickt, übertrieben usw ... wird. der Misstrauen, die Unzufriedenheit etc. ist extrem groß in unseren "westlichen" Gesellschaften, diese kommt nicht von Ungefähr und ist auch nicht unbegründet. wer sich diesem einfach nur über die Lügengeschichten nähert, wird dem Thema nicht gerecht. die Wahrheit ist nämlich furchterregend genug, wie manche einbilden ihre eigenen Interessen der Welt aufzubomben. die Lügengeschichten und Propaganda nur irgendwelchen Untergrundseiten zuzuordnen ist mMn schon ein großer Fehler!

  • Sehr geehrte Frau Brodnig,

    vielen Dank für Ihren Vortrag bei uns am Gymnasium. Ihr Vortrag ist Teil der Medienkompetenzentwicklung bei uns an der Schule und unterstützt unsere Schülerinnen und Schüler kritisch mit Medien umzugehen.

    Ich habe Ihnen eine E-Mail geschrieben und hoffe sie hat sie erreicht.

    Viele Grüße
    Uwe Kranz

  • 1 20 21 22 23 24 38