Aktuell und Digital

Der Blog rund um digitales Arbeiten

Vorurteil durch Technik. Wie kommt der Bias in die künstliche Intelligenz?

Anbieter von Machine Learning-Anwendungen bringen gerne ein magisches Versprechen: im Gegensatz zum Menschen sei Technik objektiv, lasse sich nicht so beeinflussen wie der Mensch. Regt sich Widerstand bei Ihnen? Es klingt, als wären wir alle unfähig, sachgerecht Entscheidungen zu treffen. Menschen als geistig glibbrige, von Emotionen getriebene Wesen versus kluge, kühle Technik?

andreea-popa-unsplash.jpg

Immer ojektiv? Guter Versuch.

Künstliche Intelligenz ist eine faszinierende Technologie, keine Frage. Doch ihre Entwicklung erfordert Fachwissen und Tec-Know-How, keine Schnellschüsse..
Künstliche Intelligenz könne, so das Versprechen, Prozesse wie die Personalauswahl oder Gerichtsurteile jenseits menschlicher Entscheidungsfehler gestalten; im Gegensatz zum Menschen sei Technik objektiv. Doch leider zeigen Machine Learning-Anwendungen immer wieder einen „Bias“, sprich Schieflage in Entscheidungsprozessen. Woher kommt der Bias? Schauen wir hin.

Input-Bias/Pre-existing Bias: der Fehler wird eingebaut

Jede künstliche Intelligenz, jede Machine Learning-Anwendung wird über Daten trainiert; diese Trainingsdaten stehen am Anfang der Entwicklung. Sie sind mit entscheidend dafür, wie das Modell „lernt“ und zu Ergebnissen kommt. Sind die Datensätze wenig repräsentativ oder fehlen Daten von Bevölkerungsgruppen, entwickelt das Modell einen „Bias“.

Bekannt geworden ist das KI-System von Amazon, mit dem das Unternehmen automatisierte Bewerberbeurteilungen erreichen wollte; dazu sollte das System aus Bewerberdaten automatisch geeignete Bewerber herausfiltern. Das System wurde auf Basis der Daten von Bewerbern trainiert, die Amazon angenommen hatte. Da Amazon in der Vergangenheit vorwiegend Männer eingestellt hatte, entwickelte das System eine „Schieflage“: es sortierte Frauen akkurat als ungeeignete Bewerber aus, mehr dazu hier.

Mehr noch, das System forschte systematisch nach Hinweisen auf weibliche Bewerber, z. B. die Ausbildung an Frauencolleges.

Fazit: dieses Machine Learning-Modell hat seinen Auftraggebern in Sachen Besetzungspraxis den Spiegel vorgehalten.

Throughput Bias/Emerging Bias: der Fehler im Tun

Diese Fehler entstehen in der Datenverarbeitung durch das Modell, etwa durch Fehler in der Konfiguration der Hard- oder Software. Damit das nicht passiert, braucht es Kontrolle auf zwei Ebenen. Die Ergebnisse der Anwendungen müssen regelmäßig inhaltlich von Fachexperten und technisch von Data Scientists überprüft werden. Medizinische Anwendung prüfen beispielsweise Fachärzte, Personalauswahlprogramme prüfen Eignungsdiagnostiker: jeder Schuster zu seinen Leisten.

Traurig: vom Chatbot zum Hater

Künstliche Intelligenz ist anpassungsbereit. Das bedeutet aber auch: unerwünschte Veränderungen sind jederzeit möglich. Auch dann, wenn das System nach der Testphase gut funktioniert hat.

So hatte Microsoft 2016 eine künstliche Intelligenz, genauer einen Chat-Bot namens Tay entwickelt. Wie der US-amerikanische Autor Ben Eubanks in einem Buch „Artificial Intelligence for HR“ berichtet, war das Konzept interessant; man wollte prüfen, ob so ein Bot „menschlicher“ werden könne, wenn er mit Menschen interagiert. Die traurige Entwicklung: Trolle fütterten Tay mit ihren Hassposts. In kürzester Zeit, so Ben Eubanks, verwandelte sich der Chatbot „von einem fröhlichen Teenager in ein hasserfülltes Monster“. Tay lobte Hitler und entwickelt innerhalb eines Tages (!) ein umfassende Repertoire rassistischer und frauenhassender Statements.

Fazit: überfüttert mit üblem Input, passte sich die künstliche Intelligenz den Hassern an.

Output Bias: Ergebnis als Ohrfeige

Output Bias meint die unkritische Nutzung der Ergebnisse, ohne Prüfung der Folgen für Betroffene. Es ist kein weltbewegendes Problem, wenn die Kaufempfehlungen von Machine Learning-Systemen nicht optimal sind. Geht es aber um Chancen und Fair Play, wird es schnell haarig: Frauen fliegen dank KI-Systemen aus Bewerbungsverfahren. Software für Richter, die in den USA die Rückfälligkeit von Straftätern errechnet, benachteiligt systematisch Schwarze, berichtet, Lorena Jaume-Palasí .

Wer kann das wollen?