Ethik der künstlichen Intelligenz

Wenn Sie sich ein wenig mit dem Thema der künstlichen Intelligenz befassen, werden Sie schnell auf Fragestellungen stoßen, die über die reine Technologie hinausgehen oder auch über die betriebswirtschaftlichen Aspekte.

Über intelligente Algorithmen verleihen wir Maschinen menschliche Fähigkeiten, und fragen uns richtigerweise ob diese Software allen ethischen Aspekten genügt.

Ethik

In der Anlage finden Sie zwei längere, lesenswerte Artikel der Wochenzeitung Die Zeit und einen Artikel aus dem Heise Verlag, die erklären, warum künstliche Intelligenz und ethische Aspekte sehr eng zusammenhängen.

Heise berichtet davon, daß viele Deutsche den Einsatz der künstlichen Intelligenz skeptisch sehen, und liefert so die ökonomische Begründung für das Problem:

Die Mehrheit der Deutschen steht einer Umfrage des Instituts YouGov zufolge dem Einsatz Künstlicher Intelligenz (KI) misstrauisch gegenüber. Nur rund jeder Siebte – 15 Prozent – denkt demnach, dass der Nutzen der Technologie gegenüber den Risiken überwiegt, wie die repräsentative Umfrage ergab. 45 Prozent der Befragten sehen gleich viele Gefahren und Chancen, weitere 26 Prozent bewerten die Risiken als höher als den möglichen Nutzen.“

Ich will die Inhalte der beiden Artikel aus der Wochenzeitung Die Zeit hier nicht inhaltlich wiederholen, jedoch macht das folgende Zitat aus dem Artikel „Künstliche Intelligenz : Der Todesalgorithmus“ das Dilemma klar, vor dem wir stehen:

„Die Möglichkeit, den Stecker zu ziehen, wenn die ermächtigte künstliche Intelligenz sich gegen unsere (unmittelbaren) Interessen stellt, wird es nicht geben. Sie wird klüger sein, als wir denken, immerhin haben wir sie mit dieser Fähigkeit ausgestattet, als wir die Naturanlage der Vernunft, die uns von allen anderen Lebewesen unterscheidet, an leblose Materie weitergaben. Wir haben, so bekunden KI-Philosophen wie Nick Bostrom, keine Alternative zur Hoffnung, dass künstliche Intelligenz unsere Werte teilt: in allem, was wir ihr aufgetragen haben, wie in allem, was wir noch gar nicht voraussehen können.

Ich gehe nicht davon aus, daß sich die Entwicklung hin zu intelligenter Software zurückdrehen läßt. Vielmehr bin ich davon überzeugt, daß intelligente Anwendungen entstehen werden – so oder so, und hier oder dort.

Bereits die beiden obigen Zitate machen aber klar, daß die Technik der KI nicht von ethischen Fragen getrennt werden kann und sollte, die mit der Technik zusammenhängen. Die Zitate machen aber auch klar, daß wir Europäer das Heft des Handelns nicht aus der Hand legen sollten. Schliesslich wäre es fatal für uns, wenn unsere zukünftigen KI Anwendungen ausschliesslich in Ländern entstehen würden, die es mit ethischen Grundsätzen nicht so genau nehmen.

Ethik-Beirat

Wie Sie in der Pressemitteilung „SAP gründet als erstes europäisches Technologieunternehmen Ethik-Beirat für künstliche Intelligenz“ lesen können, hat SAP einen ersten, wichtigen Schritt gemacht, um genau diese ethischen Grundsätze zu forcieren, denen die zukünftigen intelligenten Systeme gehorchen sollen. Es bleibt zu hoffen, daß andere Unternehmen ähnliche Initiativen starten.

Kernelement der Initiative ist ein externes Gremium, das Einfluss auf die Entwicklungsrichtung der KI bekommen wird. Dieses Gremium hat laut SAP die folgende Funktion:

„Die neuen Leitlinien, das externe Gremium und der interne Ausschuss bilden einen Kontrollrahmen, damit auch mit KI-Lösungen unterstützt durch Fähigkeiten von SAP Leonardo Machine Learning die Integrität des Unternehmens und das Vertrauen in sämtliche SAP-Lösungen gewahrt bleibt.  „

Gleichzeitig werden Aktivitäten auf EU-Ebene unterstützt, um einen Beitrag zur Umsetzung einer europäischen Strategie für künstliche Intelligenz zu leisten.

Beispiel

Sie werden sich vielleicht fragen, welche Gestaltungsfelder es konkret gibt, und wie die große Initiativen konkret mit Software zusammenhängen. Hierzu möchte ich zum Abschluss ein (fiktives) Beispiel liefern, das klar machen soll, wie wichtig es ist, über die übergeordneten Aspekte nachzudenken und zu sensibilisieren.

Technisch betrachtet lernt künstliche Intelligenz aus Daten, und optimiert seine Entscheidungen anhand von Rückmeldungen, die aussagen, wie gut seine Entscheidungen waren.

Stellen Sie sich ein konkretes Softwaresystem für das Bewerbermanagement vor, dessen Ausgangsdaten einen leichten Bias haben, d.h bestimmte Merkmale stärker gewichten. Dieser Bias würde dazu führen, daß bestimmte Bewerber bevorzugt würden. Über die Rückmeldeschleife könnte sich der Bias verstärken, und am Ende würde das System zu ungerechten Entscheidungen kommen, und zudem bestünde die Gefahr, daß die Entscheidungen suboptimal sind, ohne, daß man es richtig merkt.

Ethisches Entwickeln bedeutet, daß man sich bereits ganz zum Anfang Gedanken zu den Ausgangsdaten machen muss, und, daß man die Ausgewogenheit der Algorithmen mitbedenken muss. Ich erwarte, daß ein solches Gremium solche und ähnliche Denkanstöße liefert, und auch Hinweise auf das Rüstzeug gibt, um z.B. die Ausgewogenheit bei den Daten herzustellen.

Weiterführende Informationen

Das Original dieses Artikels ist auf Der Produktmanager erschienen (©Andreas Rudolph). Folgeartikel zum Thema gibt es über die (→Mailingliste), oder indem Sie →mir auf Twitter folgen.

Das Foto gehört der SAP SE, und wird entsprechend der Presseregeln verwendet.

In der Online Version des Artikels finden Sie hier die versprochenen weiterführenden Links:

Comments are closed.