Allgemein

KI ist neutral – oder?

Der KĂŒnstlichen Intelligenz (KI, engl. Artifical Intelligence, AI) werden viele, völlig ĂŒberzogene, Science Fiction-Thrillern entsprungene Zuschreibungen gemacht, im Sinne von: Morgen ĂŒbernehmen KI-Systeme die Weltherrschaft (was natĂŒrlich Blödsinn ist).

Einem Aspekt jedoch muss man sich in der Tat genauer widmen: der vermeintlichen NeutralitÀt von KI-Systemen.

Denn diese gibt es de facto nicht! Also nicht per se. KI basiert (zumeist) darauf, dass das System mit sehr umfangreichen DatensĂ€tzen „gefĂŒttert“ wird = Machine Learning, aus denen Algorithmen SchlĂŒsse ziehen.

Beispiel Verkehrszeichenerkennung

Einem Computer fĂŒr autonomes Fahren beispielsweise werden tausende an Fotos von Verkehrszeichen prĂ€sentiert, so dass er „lernt“, diese unter verschiedensten UmstĂ€nden zu erkennen: halb verschneit, im Gegenlicht, durch Zweige verdeckt usw. – und ich kann sagen, dass das schon richtig gut funktioniert. Die automatische Verkehrszeichenerkennung in meinem Auto sichtet die relevanten Schilder erstaunlich gut.

Beispiel KreditwĂŒrdigkeit

Sollen nun aus dem KI-System SchlĂŒsse gezogen werden wie z.B. die KreditwĂŒrdigkeit einer Person, so werden der KI Daten prĂ€sentiert, die ZusammenhĂ€nge widerspiegeln zwischen UmstĂ€nden/ Merkmalen einer Person und Informationen ĂŒber KreditausfĂ€lle, ZahlungszuverlĂ€ssigkeit usw.

Daraus leiten die Algorithmen Korrelationen ab wie bspw.: weißer Mann Mitte 40 von Beruf Anwalt = KreditwĂŒrdigkeit 100%; oder eben auch Frau Mitte 20, Alleinerziehend, Arbeitslos: KreditwĂŒrdigkeit = 20% (alles rein fiktive Beispiele von mir). Hört sich jetzt erst mal nicht soo unwahrscheinlich an, und wĂŒrde man vielleicht auch selbst so einwerten.

Die Auswahl der Datengrundlage

Das Problem ist, dass je nach Auswahl der Quelldaten die Ergebnisse der Bewertung ausfallen. WĂŒrde man zB. die KI ausschließlich mit Informationen fĂŒttern ĂŒber AnwĂ€lte Mitte 40, die ihre Kredite nicht bedient haben, so wĂ€re es fĂŒr diese Personengruppe danach quasi aussichtslos, bei PrĂŒfung durch diese KI einen Kredit zu erhalten. Obwohl die Datengrundlage fĂŒr den Lernprozess extrem einseitig und damit nicht reprĂ€sentativ war.

Um ein Machine-Learning-Modell zu trainieren – also das Verarbeitungsmodell, in dem ein Algorithmus zum Einsatz kommt, werden Daten benötigt. Diese tragen hĂ€ufig eine Verzerrung in sich, beispielsweise ein Übergewicht an Beobachtungen einer bestimmten Gruppe, die sich beim Trainieren auf das Modell ĂŒbertrĂ€gt. In der Fachsprache wird von einem „Bias“ gesprochen, wenn ein Modell eine systematische Verzerrung aufweist.

IT Finanzmagazin

Frau in KĂŒche

In einem Vortrag dazu hat der Referent erzĂ€hlt, dass sie sich gewundert haben, dass eine Software zur automatischen Bilderkennung Personen, die in einer KĂŒche standen, oft mit hohem Prozentsatz als Frau identifiziert hat. Sie haben herausgefunden, dass die Datengrundlage fĂŒrs Machine Learning dieser KI sehr oft Frauen in der KĂŒche gezeigt hat und nur deutlich seltener MĂ€nner in KĂŒchen. Somit hat das System eine Korrelation hergestellt zwischen KĂŒche und Frau, und es hat bei Personen in KĂŒchen auf „Frau“ geschlossen.

Hier ist also große Aufmerksamkeit und Sorgfalt gefragt. Vor allem muss man sich bei der Auswahl der Daten selbst bewusst sein, welche Diskriminierungen (Bias) unter UmstĂ€nden erzeugt werden könnten. Zumal solche diskriminierenden Sachverhalte (bzw. die ZusammenhĂ€nge, die ein Machine Learning-System aus den Daten bildet) oftmals nicht direkt auffĂ€llig oder eingĂ€ngig sind.

Fairness

Den Algorithmen muß idealerweise Fairness beigebracht werden. Im oben zitierten Artikel werden dazu einige Maßnahmen vorgestellt.

Diese sind mathematisch/ statistisch und ehrlicherweise ist es mir nun zu kompliziert, mich da nÀher einzulesen, um das erlÀutern zu können.

Nachvollziehbarkeit

Ein weiterer Aspekt ist die Nachvollziehbarkeit der Entscheidung. Hieran wird, soweit ich weiß, auch krĂ€ftig gearbeitet. Die KI darf keine Black Box sein, in die man Fragen reinkippt, und unten purzelt eine -42- raus 😉 Sondern der Weg der Entscheidungsfindung muss im Nachhinein nachvollziehbar sein: auf welcher Grundlage hat das System welche Entscheidung getroffen. Nur dann kann das Ergebnis eingeordnet und bewertet werden.

Fazit

Nichts desto trotz ist KI ein wahnsinnig spanndendes Thema mit unglaublich viel Potential. Aber, wie immer, muss man um die Gefahren und Herausforderungen wissen.