Aktuell und Digital

Der Blog rund um digitales Arbeiten

Eine Frage der Transparenz – wie arbeitet künstliche Intelligenz?

Künstliche Intelligenz (KI) ist eine zukunftsweisende Technologie – sie kann aus Daten lernen, Muster erkennen und sich sozusagen „selbst verbessern“. Doch viele KI-Technologien gelten als „Blackbox“ - sie produzieren Ergebnisse, die angeblich nicht erklärbar sind. Das ist problematisch. Vor allem dann, wenn KI-Prognosen Menschen und ihre Lebenschancen betreffen.

Alles Blackbox?

Künstliche Intelligenz - „unerklärlich“?

Das umstrittene System des Arbeitsmarktservice‘ Österreich gibt eine Prognose, wie die Arbeitsmarktchancen von Jobsuchenden zu bewerten seien. KI-Anwendungen geben in der Finanzindustrie eine Prognose ab für das Kreditausfallsrisiko. Somit entscheiden sie mit, ob eine Privatperson oder ein Unternehmen einen Kredit erhält.
Wie entstehen diese Entscheidungen? - „Vielleicht liegt ihr Betrieb in einem Viertel, in dem es häufig zu Pleiten kommt, oder sie haben einen merkwürdig klingenden Nachnamen“, so Hans-Peter Burghof vom Lehrstuhl für Bankwirtschaft und Finanzdienstleistungen an der Universität Hohenheim im Handelsblatt online.

Das Blackbox-Problem ganz praktisch.

Ein wesentlicher Unterschied zwischen herkömmlicher Software und KI-Technologie: KI wird anhand von Daten „trainiert“, nicht nach festen Regeln programmiert. Somit hat KI, symbolisch gesprochen, einen gewissen Freiraum, Entscheidungen zu treffen. Das macht die Technologie besonders spannend.

Doch „non-explainable artificial intelligence“, also „nicht-erklärbare künstliche Intelligenz“, ist mit ihrer Intransparenz auch ein Problem. Zum einen können sich technische und logische Fehler in der Blackbox verstecken, die keiner überprüfen kann - außer dem Hersteller. Das ist ungefähr so, als wäre die Motorhaube Ihres Autos fest verschweißt – Sie können nur hoffen, dass alles störungsfrei läuft.

Zum anderen besteht auch die Gefahr, dass Entscheidungen gesellschaftlich fragwürdig sind. Die Datenschutzbehörde in Österreich stoppte deshalb 2020 ein System, das beim Arbeitsmarktservice Österreich (AMS) im Ersteinsatz war. Die Software sollte die Arbeitsmarktchancen von Jobsuchenden bewerten – und den Betreuern der Arbeitslosen Entscheidungshilfe bieten, beim wem sich welche Maßnahmen „lohne“. Es hagelte Kritik, denn für als „chancenarm“ eingeschätzte Arbeitsloser hätte sich der Zugang z. B. für zu wertiger Weiterbildung reduziert, so die durchaus realistische Einschätzung. Auch Wissenschaftlerinnen und Wissenschaftler erläuterten, dass dies durchaus möglich sei, mehr dazu hier.

2020 stoppte die österreichische Datenschutzbehörde mit einem Bescheid das umstrittene.System, nun geht der Streit in die nächste Runde.

Die Hintergründe der vermeintlichen Unerklärlichkeit

Einige Anbieter argumentieren, man könne die Entscheidungsfindung der künstlichen Intelligenz nicht offenlegen – es handle sich dabei um ein sensibles Geschäftsgeheimnis. Lege man die Grundlagen offen, so könne werde man angreifbar für Mitbewerber und Nachahmer.

Doch das Argument greift nicht so recht. Wettbewerb belebt das Geschäft, und schützen kann sich kein Anbieter gegen Wettbewerb in der Marktwirtschaft. Außerdem: wer die Grundidee offenlegt, legt noch lange nicht seine gesamte Forschung und Entwicklung offen; diesen Rückstand müsste ein Mitbewerber erst einmal aufholen. Zudem gibt es die Möglichkeit, die Entscheidungsfindung des Systems durch Wissenschaftler einschätzen zu lassen.

Technisch gesehen - Transparenz ist möglich

Technisch gesehen ist Transparenz durchaus möglich, denn KI ist nicht KI. Es gibt ohnehin Systeme, deren Entscheidungsgrundlagen nachvollziehbar sind, so KI-Anwendungen, die sogenannte „Decision Trees“ und lineare Regression nutzen. Diese „Entscheidungsbäume“ erlauben es nachzuvollziehen, nach welchen Kriterien die Daten im Entschjeidungsprozess "sortiert" werden und wie das System zu Entscheidungen kommt.

Komplizierter wird es bei künstlichen neuronalen Netzen, eine Form der KI, die ähnlich arbeitet wie das menschliche Gehirn und komplexere Probleme löst.

Zusammenfassend schreibt Christian Warmuth vom Teaching Team am Hasser-Plattner-Institut:

„Auch wenn KNN (künstliche neuronale Netze) sehr komplex sein können…, so gibt es auch Techniken, um Teile davon ‚nachvollziehbar‘ zu machen bzw. zu markieren, was Einfluss auf eine Entscheidung hat“.

Häufig wird es darum gehen, Erklärbarkeit und Komplexität der Problemlösung in ein Gleichgewicht zu bringen - ein Trade-Off.

Treiber des Themas Transparenz ist auch die Wissenschaft mit laufenden Forschungsprojekten, hier das Beispiel Fraunhofer mit Team „Erklärbare KI“.

Fazit:

Die Intransparenz von Blackbox-KI-Systemen steht in der Kritik. Konnten Anbieter früher noch von der zugeschriebene „Magie“ dieser Anwendungen profitieren, hat sich das Blatt gewendet. Die Entscheidungen künstlicher Intelligenz sollen nachvollziehbar sein. Die Alternative: künstliche Intelligenz von Anfang an als erklärbare künstliche Intelligenz oder Explainable AI (XAI) zu entwickeln.

Mitte Februar2020 hat die Europäische Kommission deswegen in ihrem „Weißbuch“ zur Künstlichen Intelligenz gefordert, dass selbstlernende Systeme vom Menschen überprüfbar sein müssen. Vera Jourova, Vizepräsidentin der Kommission, sprach sich dafür aus, „Black-Box-Algorithmen“ für Behörden zugänglich zu machen.

Und nun - was machen Sie daraus?

Sie sind gefragt, frei nach Kant: es geht um den Mut, sich seines eigenen Verstandes zu bedienen. Dazu müssen Sie kein KI-Experten sein. Einige Kernfragen zu KI-Anwendungen finden Sie hier im Blog..

Treibt Sie das Thema künstliche Intelligenz in Personalauswahl und Personalführung in Ihrer Organisation um? Kontaktieren Sie mich gerne dazu.