China und die USA entwickeln sich gegenwärtig zu den Zentren der künstlichen Intelligenz, und Europa muss sich bemühen, Schritt zu halten, um nicht abgehängt zu werden. Die Frage ist, wie dies geschehen soll.
Die weiter unten erwähnten Artikel grob zusammenfassend wird schnell klar, daß wir Aktivitäten auf europäischer Ebene benötigten, um auf dem Gebiet der KI Schritt halten zu können, und um die zukünftigen (ethischen) Regeln mitzubestimmen, nach denen KI Software arbeiten soll.
Der unten angefügte Artikel „Was wir von China lernen können“ listet die folgenden Bereiche auf, in denen wir von China lernen können, und stellt dar, warum die chinesische KI Strategie i.w.S gut ist:
Jedoch gilt in China und den USA eben auch das Prinzip „Big brother lebt mittendrin“. So wird KI sowohl in China als auch in den USA eingesetzt ohne ethische Grundsätze zu beachten. Speziell auf diesem Gebiet müssen wir in Europa selbst aufpassen, daß wir hier unsere eigenen Grundsätze etablieren.
Die Interviews bzw Beschreibungen in den angefügten Artikeln „Europa hat die geistige Führung übernommen“ und „Künstliche Intelligenz: Kommission treibt Arbeit an Ethikleitlinien weiter voran“ greifen den Punkt zu den Regeln wieder auf, die in den Strategien von China und den USA kaum Beachtung finden.
So hat inzwischen eine hochrangige Expertengruppe Richtlinien erarbeitet, nach denen in Europa KI stattfinden soll, und man hat damit die geistige Führerschaft übernommen. Aktuell befinden sich diese Leitlinien in der Pilotphase.
Zentrale Elemente dieser Richtlinien sind, daß KI in Europa stets den Menschen in den Vordergrund stellen muss, der dann auch immer wissen muss, wann er mit KI kommuniziert. Letztendlich muss auch sichergestellt bleiben, daß der Mensch seine Autonomie behält, und seine Verantwortlichkeit.
Dies sind die Anforderungen im Wortlaut, die eine solche vertrauenswürdige KI laut der Ethikleitlinien der EU Kommission erfüllen muss:
„Vorrang menschlichen Handelns und menschlicher Aufsicht: KI-Systeme sollten gerechten Gesellschaften dienen, indem sie das menschliche Handeln und die Wahrung der Grundrechte unterstützen‚ keinesfalls aber sollten sie die Autonomie der Menschen verringern, beschränken oder fehlleiten.
Robustheit und Sicherheit: Eine vertrauenswürdige KI setzt Algorithmen voraus, die sicher, verlässlich und robust genug sind, um Fehler oder Unstimmigkeiten in allen Phasen des Lebenszyklus des KI-Systems zu bewältigen.
Privatsphäre und Datenqualitätsmanagement: Die Bürgerinnen und Bürger sollten die volle Kontrolle über ihre eigenen Daten behalten und die sie betreffenden Daten sollten nicht dazu verwendet werden, sie zu schädigen oder zu diskriminieren.
Transparenz: Die Rückverfolgbarkeit der KI-Systeme muss sichergestellt werden.
Vielfalt, Nichtdiskriminierung und Fairness: KI-Systeme sollten dem gesamten Spektrum menschlicher Fähigkeiten, Fertigkeiten und Anforderungen Rechnung tragen und die Barrierefreiheit gewährleisten.
Gesellschaftliches und ökologisches Wohlergehen: KI-Systeme sollten eingesetzt werden, um einen positiven sozialen Wandel sowie die Nachhaltigkeit und ökologische Verantwortlichkeit zu fördern.
Rechenschaftspflicht: Es sollten Mechanismen geschaffen werden, die die Verantwortlichkeit und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse gewährleisten.“
Viele dieser Elemente erfordern fundamentale Erweiterungen bei den KI Verfahren. So sind z.B. die Anforderungen der Transparenz und der Fairness nicht einfach zu lösen.
Dort eröffnen sich dann auch wieder Felder, auf denen die heimischen Unternehmen Wettbewerbsvorteile erzielen können, und so ist es vielleicht nicht schlecht, daß unsere Strategie mit der Ethik beginnt.
Das Original dieses Artikels ist auf →Der Produktmanager erschienen (©Andreas Rudolph). Folgeartikel zum Thema gibt es über die (→Mailingliste), oder indem Sie →mir auf Twitter folgen.
In der Online Version des Artikels finden Sie hier die versprochenen weiterführenden Links: