Künstliche Intelligenz (KI) ist vielen Menschen auf der ganzen Welt nicht geheuer. Die aktuelle Studie im Auftrag der Stiftung Weltwirtschaftsforum (WEF) hat das gerade erst wieder bewiesen. Höchste Zeit also, der Begeisterung über technische Möglichkeiten einen Rahmen in Form von ethischen Leitlinien gegenüberzustellen. Die Protagonisten der Künstlichen Intelligenz haben auf der KI-Konferenz AI4U über KI und Ethik diskutiert. Das Ergebnis: Man ist sich der Gefahren bewusst und beginnt gegenzusteuern.

KI ist ein Hype-Thema, obwohl es diese Forschungsdisziplin schon seit Jahrzehnten gibt. Doch tatsächlich erlebt sie gerade Quantensprünge an technischen Neuerungen. Ebenfalls neu – zumindest in unserer Wahrnehmung – ist, dass KI heute fast alle Branchen betrifft. Egal ob Marketing, Medizin, Automotive, Versicherungen oder Landwirtschaft, überall kann KI zum Einsatz kommen und Entscheidungen beeinflussen.

Die Welt ist sich einig, dass KI gefährlich ist

Genau das macht Menschen Angst. Die aktuellste Studie des Weltwirtschaftsforums (WEF) zeigt: 41 Prozent der befragten 20.000 Menschen in 27 Ländernsind über den Einsatz künstlicher Intelligenz besorgt. 48 Prozent meinen, die Anwendung von KI durch Firmen sollte stärker als bislang reguliert werden. 19 Prozent der Befragten wollen gar ein Verbot von KI. Besonders erstaunlich ist der breite Konsens, den die Weltbevölkerung in der Studie an den Tag legt. Denn laut WEF spielte bei dem Ergebnis weder Alter, Einkommen oder Bildungsniveau der Befragten eine Rolle. Kurz: Egal ob alt, jung, reich, arm, gebildet oder weniger gebildet, die Welt ist sich einig, dass KI gefährlich ist.

KI kann Menschen unabsichtlich diskriminieren

Die gute Nachricht: Maschinen können keine eigenmächtigen Entscheidungen treffen. Es ist der Mensch, der die Regeln für die Entscheidungsfindung der Maschine festlegt. Die schlechte Nachricht aber ist, dass KI-gesteuerte Technologien manchmal Entscheidungen treffen, die zwar den gegebenen Regeln folgen, aber in ihrer Konsequenz nicht gewollt sind. Ein Beispiel: Das Targeting und die Ausspielung von Anzeigen auf Facebook erfolgt KI-gesteuert. Auch Job-Anzeigen sind davon betroffen. Aufgrund der Datenmenge und der rückgekoppelten Vermittlungserfolge hat der Algorithmus dann z.B. gelernt, dass er die Ausschreibung für eine zu besetzende Mathematiker-Stelle nur an weiße, männliche Personen im Alter von 30 Jahren ausliefern braucht. Denn vor allem diese Personengruppe tritt die Stelle am Ende an. Frauen und ältere Menschen dagegen wurden im Laufe der Zeit komplett ausgegrenzt. Ein Zustand, den weder die ausschreibende Firma noch Facebook intendierte, die durch KI und ihren selbstlernenden und sich stetig optimierenden Algorithmus aber einfach passiert ist. Ähnliche Fälle sind denkbar, wenn Banken ihre Kredite zukünftig KI-gestützt vergeben oder Versicherungen ihre Risikobewertungen durchführen.

Wissenschaftler arbeiten an Transparenz und dem Ende der Black Box

Es sind also nicht nur die extremen Fragestellungen wie wir sie z.B. aus dem Automotive-Bereich kennen wie „Überfahre ich das Kind oder den Greis?“, die die Wissenschaft gerade umtreibt. Auch auf den ersten Blick „harmlose“ Anwendungen können unethische Auswirkungen haben. Eine Maßnahme, die dem entgegenwirken soll, ist die Forderung nach mehr Transparenz in der KI-Technologie. Die vielzitierte „Black Box“, bei der die Daten vorne hineinlaufen und eine Entscheidung hinten herauskommt, muss für den Menschen transparent und nachvollziehbar werden. „KI wird nur gesellschaftliche Akzeptanz erfahren – und damit auch in der Wirtschaft breit eingesetzt werden können, wenn die Menschen ihr vertrauen“, bringt es Prof. Dr. Antonio Krüger vom Deutschen Forschungszentrum für Künstliche Intelligenz auf den Punkt. Einer der Forschungsschwerpunkte an seinem Institut liegt u.a. darin, die Entscheidungsfindung von Tiefen Neuronalen Netzen bzw. von KI transparenter und erklärbar zu machen.

Bereitschaft für ethische Leitlinien für KI wächst

Klar wurde bei der Diskussion, dass das Thema KI und Ethik in Wissenschaft, Politik und Wirtschaft inzwischen sehr ernst genommen wird – zumindest in Deutschland und Europa. Erst im Januar verkündete Sheryl Sandberg, Co-CEO von Facebook, 6,5 Mio. Euro für den Aufbau eines Ethik-Instituts für KI an der TU München bereit zu stellen. Im Oktober bereits soll das „TUM Institute for Ethics in Artificial Intelligence“ seine Arbeit aufnehmen. Auch immer mehr Unternehmen und sogar Staaten sehen die Notwendigkeit, ihrer Arbeit durch Leitlinien für KI einen ethisch akzeptablen Rahmen zu geben. Mario Brandenburg, Mitglied des Deutschen Bundestages und Obmann der Enquete-Kommission „Künstliche Intelligenz“ gibt aber zu bedenken: „Man kann nicht für jeden Anwendungsfall einen Rechtsraum bauen“. Einig sind sich Politik und Wissenschaft aber, dass es ohne Regelungen auch nicht geht – wobei es mit dem Grundgesetz, dem Verbraucherschutz und z.B. der DSGVO im Prinzip schon einen sehr brauchbaren rechtlichen Rahmen gäbe. Allerdings ginge es nicht darum, KI ethisch zu programmieren sondern darum, dass wir Menschen den Umgang mit KI ethisch gestalten, betonte Frau Prof. Dr. Petra Grimm, Leiterin des Instituts für Digitale Ethik an der HdM Stuttgart.

KI und Ethik AI4U 2019
Mario Brandenburg, MdB; Prof. Dr. Petra Grimm (HdM), Prof. Dr. Antonio Krüger (DFKI)
KI für Jedermann?

Abgesehen von den unbestreitbaren Risiken von KI wurde auf der AI4U auch der umgekehrte Ansatz diskutiert, wie ethisch es denn sei, zu wenig Technologie einzusetzen? Was, wenn KI-gestützte Entscheidungen im Durchschnitt viel besser sind als die der Menschen? Ist es dann unethisch, keine KI einzusetzen? Und welche Fehler wiegen schwerer, die durch Technologie verursachten oder die von Menschen begangenen? Sind beispielsweise 5.000 Verkehrstote durch autonomes Fahren schlimmer als 10.000 Tote durch menschliches Versagen? Auf solche Fragen gibt es aktuell noch keine Antwort. Wichtig ist aber, diesen Diskurs öffentlich und so breit wie möglich zu führen. Denn, und das gaben die KI-Experten auf der AI4U zu bedenken: KI lässt sich leicht bauen und es wird immer leichter werden. Die Verantwortung verteilt sich damit auf immer mehr Schultern. Spätestens dann braucht es zwingend gesellschaftlich akzeptierte und weitreichende Leitlinien für einen ethisch verantwortungsvollen Einsatz von KI.

Weiterführende Links:

AI4U Konferenz

Studie des Weltwirtschaftsforums