Input-Bias/Pre-existing Bias: der Fehler wird eingebaut
Jede künstliche Intelligenz, jede Machine Learning-Anwendung wird über Daten trainiert; diese Trainingsdaten stehen am Anfang der Entwicklung. Sie sind mit entscheidend dafür, wie das Modell „lernt“ und zu Ergebnissen kommt. Sind die Datensätze wenig repräsentativ oder fehlen Daten von Bevölkerungsgruppen, entwickelt das Modell einen „Bias“.
Bekannt geworden ist das KI-System von Amazon, mit dem das Unternehmen automatisierte Bewerberbeurteilungen erreichen wollte; dazu sollte das System aus Bewerberdaten automatisch geeignete Bewerber herausfiltern. Das System wurde auf Basis der Daten von Bewerbern trainiert, die Amazon angenommen hatte. Da Amazon in der Vergangenheit vorwiegend Männer eingestellt hatte, entwickelte das System eine „Schieflage“: es sortierte Frauen akkurat als ungeeignete Bewerber aus, mehr dazu hier.
Mehr noch, das System forschte systematisch nach Hinweisen auf weibliche Bewerber, z. B. die Ausbildung an Frauencolleges.
Fazit: dieses Machine Learning-Modell hat seinen Auftraggebern in Sachen Besetzungspraxis den Spiegel vorgehalten.
Throughput Bias/Emerging Bias: der Fehler im Tun
Diese Fehler entstehen in der Datenverarbeitung durch das Modell, etwa durch Fehler in der Konfiguration der Hard- oder Software. Damit das nicht passiert, braucht es Kontrolle auf zwei Ebenen. Die Ergebnisse der Anwendungen müssen regelmäßig inhaltlich von Fachexperten und technisch von Data Scientists überprüft werden. Medizinische Anwendung prüfen beispielsweise Fachärzte, Personalauswahlprogramme prüfen Eignungsdiagnostiker: jeder Schuster zu seinen Leisten.
Traurig: vom Chatbot zum Hater
Künstliche Intelligenz ist anpassungsbereit. Das bedeutet aber auch: unerwünschte Veränderungen sind jederzeit möglich. Auch dann, wenn das System nach der Testphase gut funktioniert hat.
So hatte Microsoft 2016 eine künstliche Intelligenz, genauer einen Chat-Bot namens Tay entwickelt. Wie der US-amerikanische Autor Ben Eubanks in einem Buch „Artificial Intelligence for HR“ berichtet, war das Konzept interessant; man wollte prüfen, ob so ein Bot „menschlicher“ werden könne, wenn er mit Menschen interagiert. Die traurige Entwicklung: Trolle fütterten Tay mit ihren Hassposts. In kürzester Zeit, so Ben Eubanks, verwandelte sich der Chatbot „von einem fröhlichen Teenager in ein hasserfülltes Monster“. Tay lobte Hitler und entwickelt innerhalb eines Tages (!) ein umfassendes Repertoire rassistischer und frauenhassender Statements.
Fazit: überfüttert mit üblem Input, passte sich die künstliche Intelligenz den Hassern an.
Output Bias: Ergebnis als Ohrfeige
Output Bias meint die unkritische Nutzung der Ergebnisse, ohne Prüfung der Folgen für Betroffene. Es ist kein weltbewegendes Problem, wenn die Kaufempfehlungen von Machine Learning-Systemen nicht optimal sind. Geht es aber um Chancen und Fair Play, wird es schnell haarig: Frauen fliegen dank KI-Systemen aus Bewerbungsverfahren. Software für Richter, die in den USA die Rückfälligkeit von Straftätern errechnet, benachteiligt systematisch Schwarze, berichtet, Lorena Jaume-Palasí .
Wer kann das wollen?