Machine Learning und Algorithmic Bias – Eine Einführung

Neulich habe ich eine Artikelserie verfolgt, in der es um die Befangenheit (Bias) in Algorithmen der Maschinenintelligenz ging, die durchaus problematisch sein kann.

IBM hat eine Softwarebibliothek veröffentlicht, die bei dieser Problematik weiterhilft, und bietet eine große Menge an weiterführenden Informationen an.

Definition

Intelligente Software wird (grob gesprochen) entwickelt, indem man mittels statistischer Verfahren vorhandene Daten analysiert, um das so angelernte Modell zu benutzen, um damit unbekannte, neue Daten zu bewerten.

In einer Software, die Jobbewerbungen vorsortiert, benutzt man so beispielsweise eine große Menge abgeschlossener Bewerbungen, um daraus zu lernen, welche Bewerber aufgrund welcher Eigenschaften besonders gut für die angebotenen Jobs geeignet sind. Ein so gewonnenes Modell benutzt man dann, um neue Bewerbungen maschinell auszuwerten und vorzusortieren.

Frauen waren lange eher selten in technischen Berufen zu finden. Ein einfacher Lernalgorithmus könnte daher zum Schluss kommen, daß das Geschlecht bestimmt, wer sich besonders gut für eine Ingenieurstelle eignet.

Diese Art der (Fehl-) Einschätzung, die sich aus den Daten oder der Funktionsweise der Algorithmus ergibt, bezeichnet man als Befangenheit (english Bias).

Wie der unten aufgeführte Artikel „The Risk of Machine-Learning Bias (and How to Prevent It)“ stellvertretend für viele andere Dokumente verdeutlicht, kann ein solcher Bias gravierende Folgen haben.

Daher wird schon lange darüber nachgedacht, wie man mit dieser Problematik umgehen kann, und wie man konkret den Bias aus intelligenter Software herausbekommen kann.

IBM Bluemix

Bei IBM Bluemix handelt es sich um das Cloud-Angebot der IBM, das auch für Entwicklung und den Betrieb von Maschinenintelligenz verwendet werden kann.

Dort hat man die Forschung der letzten Jahre gesichtet, und daraus eine Softwarebibliothek entwickelt, die einige der Verfahren für das De-Biassing leichter anwendbar machen. Die Bibliothek ist als Open Source frei verfügbar, und unterstützt diverse neuere Rechenverfahren.

Zusätzlich stellt IBM einen Service auf Bluemix zur Verfügung, der sich insbesondere auch an Nichtexperten richtet. Dort erfährt man viel über die Hintergründe der Befangenheit in Algorithmen. Man lernt die Algorithmen kennen und kann eigene Versuche mit Daten und Verfahren machen.

 Artikel

Unter dem Titel „AI Fairness 360: An Extensible Toolkit for Detecting, Understanding, and Mitigating Unwanted Algorithmic Bias“ hat IBM ein wissenschaftliches Dokument veröffentlicht, das die vorhandenen Algorithmen sichtet, und erklärt, wie De-Biassing funktioniert (sehr lesenswert).

In der Mitte des Dokuments findet sich beispielsweise ein Architekturdiagramm, daß verdeutlicht, wie man mit Hilfe von mehreren, ineinandergreifenden Algorithmen befangene Daten bereinigen kann (und wie komplex eine solche Pipeline ist).

Software

Die Bibliothek kann Jedermann/ -frau aus dem Github-Repository „AI Fairness 360 (AIF360) auf GitHub“ herunterladen. Offensichtlich ist jedoch die Installation nicht ganz trivial.

Hier erfährt man aus der ReadMe Datei u.a welche Algorithmen konkret unterstützt werden (derzeit sind es  10 Verfahren aus den Jahren 2012 bis 2018), und man erfährt, welche Fairness-Metriken unterstützt werden.

Interessant ist auch der Slack Channel, der dort verlinkt ist. Über Slack kann man einfach Kontakt mit den Experten aufnehmen.

Webauftritt

Unter dem Link „Interaktiver Webauftritt auf IBM Bluemix“ finden sich Demos, Beschreibungen, Videos und weitere Lernmaterialien. Hier kann man auch online mit solchen Algorithmen „spielen“ und erhält so einen guten Ein- und Überblick über die Softwarebibliothek.

Die Jupiter Notebooks, die dort angeboten werden lassen sich in eine eigene Installation importieren. Hiermit kann man sich dann interaktiv die Beispiele ansehen, und Versuche anstellen. Oder man hat hiermit eine erste Grundlage für eigene Arbeiten.

Insgesamt ist es – wie ich finde – ein sehr guter Beitrag zu dem Spezialthema „Bias“ in der Maschinenintelligenz.

Weiterführende Informationen

Das Original dieses Artikels ist auf Der Produktmanager erschienen (©Andreas Rudolph). Folgeartikel zum Thema gibt es über die (→Mailingliste), oder indem Sie →mir auf Twitter folgen.

In der Online Version des Artikels finden Sie hier die versprochenen weiterführenden Links:

Comments are closed.