Allgemein

KI ist neutral – oder?

Der Künstlichen Intelligenz (KI, engl. Artifical Intelligence, AI) werden viele, völlig überzogene, Science Fiction-Thrillern entsprungene Zuschreibungen gemacht, im Sinne von: Morgen übernehmen KI-Systeme die Weltherrschaft (was natürlich Blödsinn ist).

Einem Aspekt jedoch muss man sich in der Tat genauer widmen: der vermeintlichen Neutralität von KI-Systemen.

Denn diese gibt es de facto nicht! Also nicht per se. KI basiert (zumeist) darauf, dass das System mit sehr umfangreichen Datensätzen „gefüttert“ wird = Machine Learning, aus denen Algorithmen Schlüsse ziehen.

Beispiel Verkehrszeichenerkennung

Einem Computer für autonomes Fahren beispielsweise werden tausende an Fotos von Verkehrszeichen präsentiert, so dass er „lernt“, diese unter verschiedensten Umständen zu erkennen: halb verschneit, im Gegenlicht, durch Zweige verdeckt usw. – und ich kann sagen, dass das schon richtig gut funktioniert. Die automatische Verkehrszeichenerkennung in meinem Auto sichtet die relevanten Schilder erstaunlich gut.

Beispiel Kreditwürdigkeit

Sollen nun aus dem KI-System Schlüsse gezogen werden wie z.B. die Kreditwürdigkeit einer Person, so werden der KI Daten präsentiert, die Zusammenhänge widerspiegeln zwischen Umständen/ Merkmalen einer Person und Informationen über Kreditausfälle, Zahlungszuverlässigkeit usw.

Daraus leiten die Algorithmen Korrelationen ab wie bspw.: weißer Mann Mitte 40 von Beruf Anwalt = Kreditwürdigkeit 100%; oder eben auch Frau Mitte 20, Alleinerziehend, Arbeitslos: Kreditwürdigkeit = 20% (alles rein fiktive Beispiele von mir). Hört sich jetzt erst mal nicht soo unwahrscheinlich an, und würde man vielleicht auch selbst so einwerten.

Die Auswahl der Datengrundlage

Das Problem ist, dass je nach Auswahl der Quelldaten die Ergebnisse der Bewertung ausfallen. Würde man zB. die KI ausschließlich mit Informationen füttern über Anwälte Mitte 40, die ihre Kredite nicht bedient haben, so wäre es für diese Personengruppe danach quasi aussichtslos, bei Prüfung durch diese KI einen Kredit zu erhalten. Obwohl die Datengrundlage für den Lernprozess extrem einseitig und damit nicht repräsentativ war.

Um ein Machine-Learning-Modell zu trainieren – also das Verarbeitungsmodell, in dem ein Algorithmus zum Einsatz kommt, werden Daten benötigt. Diese tragen häufig eine Verzerrung in sich, beispielsweise ein Übergewicht an Beobachtungen einer bestimmten Gruppe, die sich beim Trainieren auf das Modell überträgt. In der Fachsprache wird von einem „Bias“ gesprochen, wenn ein Modell eine systematische Verzerrung aufweist.

IT Finanzmagazin

Frau in Küche

In einem Vortrag dazu hat der Referent erzählt, dass sie sich gewundert haben, dass eine Software zur automatischen Bilderkennung Personen, die in einer Küche standen, oft mit hohem Prozentsatz als Frau identifiziert hat. Sie haben herausgefunden, dass die Datengrundlage fürs Machine Learning dieser KI sehr oft Frauen in der Küche gezeigt hat und nur deutlich seltener Männer in Küchen. Somit hat das System eine Korrelation hergestellt zwischen Küche und Frau, und es hat bei Personen in Küchen auf „Frau“ geschlossen.

Hier ist also große Aufmerksamkeit und Sorgfalt gefragt. Vor allem muss man sich bei der Auswahl der Daten selbst bewusst sein, welche Diskriminierungen (Bias) unter Umständen erzeugt werden könnten. Zumal solche diskriminierenden Sachverhalte (bzw. die Zusammenhänge, die ein Machine Learning-System aus den Daten bildet) oftmals nicht direkt auffällig oder eingängig sind.

Fairness

Den Algorithmen muß idealerweise Fairness beigebracht werden. Im oben zitierten Artikel werden dazu einige Maßnahmen vorgestellt.

Diese sind mathematisch/ statistisch und ehrlicherweise ist es mir nun zu kompliziert, mich da näher einzulesen, um das erläutern zu können.

Nachvollziehbarkeit

Ein weiterer Aspekt ist die Nachvollziehbarkeit der Entscheidung. Hieran wird, soweit ich weiß, auch kräftig gearbeitet. Die KI darf keine Black Box sein, in die man Fragen reinkippt, und unten purzelt eine -42- raus 😉 Sondern der Weg der Entscheidungsfindung muss im Nachhinein nachvollziehbar sein: auf welcher Grundlage hat das System welche Entscheidung getroffen. Nur dann kann das Ergebnis eingeordnet und bewertet werden.

Fazit

Nichts desto trotz ist KI ein wahnsinnig spanndendes Thema mit unglaublich viel Potential. Aber, wie immer, muss man um die Gefahren und Herausforderungen wissen.