Künstliche Intelligenz bestimmt unser Leben immer mehr. Doch die algorithmischen Entscheidungen sind oft fragwürdig, profitorientiert und intransparent. Höchste Zeit für mehr Ethik.
von Florian Wüstholz (erschienen im Doppelpunkt 24/19)
Eine Entlassung ist eine schreckliche Situation. Noch schlimmer ist es, wenn die Entlassung nicht von einer Vorgesetzten oder der Personalabteilung beschlossen wird, sondern von einem Algorithmus. Schätzt dieser die Leistung als zu gering ein, die Pausen als zu lang oder das Tempo als zu langsam, folgt die Kündigung. Dem Algorithmus ist das Kind, das zu Hause seit einer Woche krank ist, egal. Und er nimmt auch keine Rücksicht auf die Partnerin, die ebenfalls vor ein paar Wochen entlassen wurde. Aufs Alter schon gar nicht.
Dieses Szenario ist keine futuristische Dystopie, sondern knallharte Realität in amerikanischen Logistikzentren von Amazon. In den vergangenen Jahren überwachte dort ein System die ohnehin schon ausgebeuteten Arbeitenden auf Schritt und Tritt. Es überprüfte, wie viel Zeit diese «untätig» verbringen, wandelte menschliche Handlungen in Datenpunkte um und entschied, wer bleiben darf und wer gehen muss. Dabei zählte einzig die Effizienz und der Profit. Erklärungen, Fairness und Transparenz sucht man hier vergebens.
Der Algorithmus von Amazon ist einer von vielen, die als Künstliche Intelligenz (KI) bezeichnet werden. Längst besiedeln die Spielarten von KI nicht bloss die digitale Welt, sondern drängen in unseren physischen Alltag. Sie mähen den Rasen und steuern Küchengeräte und Autos. Sie entscheiden über Kreditvergaben, ob die Sozialhilfe überwiesen wird und was wir als Nächstes im Radio hören. Oder sie erkennen Menschen anhand ihres Gangs auf Videoaufnahmen und steuern Drohnen und Waffen. Fast immer sind wir also von den Entscheidungen der Maschinen betroffen. Sollten wir der künstlichen Intelligenz nicht auch ein bisschen Ethik mit auf den Weg geben?
Künstliche Intelligenz kommt in verschiedenen Formen und Farben. Manchmal handelt es sich um vorprogrammierte Algorithmen, die aus komplexen Daten die immer gleichen Resultate liefern. Sie tun genau das, was wir von ihnen verlangen. Viele bedienen sich heute aber auch sogenannter neuronaler Netzwerke und lernen mit der Zeit dazu. Sie ziehen aus den Unmengen von gesammelten Daten ihre eigenen Schlüsse. Wie sie sich in der Zukunft verhalten, ist nicht vorhersehbar – ihr Inneres ist eine Black Box.
Dabei sind von Beginn weg auch Werte, Abwägungen und Ziele im Spiel. Denn Programmierinnen und Entwickler geben der KI bestimmte Werte und Anhaltspunkte mit auf den Weg. Diese bestimmen, ob ein Staubsaugerroboter eine Spinne einsaugt oder ob ein «Recruiting Algorithmus» den Namen oder das Foto – und damit das Geschlecht der Person – im Bewerbungsverfahren in Betracht zieht. Die Technologie ist also alles andere als neutral. Und damit sind wir im Reich der Ethik.
«Je nachdem, wie KI angewendet werden, kann sie entscheidend in unsere Lebenswelt eingreifen», erklärt Jean-Daniel Strub, Ethiker und Mitgründer von ethix.ch. Gemeinsam mit dem Philosophen Johan Rochel setzt er sich im «Lab für Innovationsethik» dafür ein, dass ethische Fragen im Wettlauf der Innovation nicht untergehen. «KI kann Freiheiten einschränken aber gegebenenfalls auch ausweiten. Es geht darum, die Leitplanken so zu setzen, dass aus ethischer Perspektive ein Fortschritt resultiert.» Zum Beispiel indem die Algorithmen gerechter und fairer entscheiden. Die Ethik sei zudem besonders wichtig, «wenn die rechtlichen Rahmenbedingungen noch unklar und unscharf sind» – beispielsweise dort, wo Datenschutzgesetze noch nicht auf dem neusten Stand sind.
Das erfordert eine differenzierte Debatte, denn je nach Einsatzgebiet von KI stehen unterschiedliche ethische Fragen im Vordergrund. So ist es etwas anderes, ob sie in der Justiz zur Urteilsfindung oder bei einer Privatfirma im Marketing eingesetzt wird. «Wir müssen uns individuell und kollektiv auf den Weg begeben, die relevanten Werte zu identifizieren», fordert Strub. Das betrifft auch die Frage, wie selbstständig KI agieren können darf. Doch eines ist klar: «Am Ende stehen Werte wie Vertrauen, Transparenz, Fairness und Gerechtigkeit sowie Autonomie im Zentrum.»
Können wir denn einer «ethischen» KI mehr vertrauen? «Ethik schafft Vertrauen, weil wir uns bewusst mit den Chancen und Risiken der neuen Möglichkeiten auseinandersetzen und darüber auch Rechenschaft ablegen können», erklärt Cornelia Diethelm vom Centre for Digital Responsibility. Sie setzt sich dafür ein, dass Unternehmen beim Einsatz von Algorithmen und KI einen ethischen Standpunkt einnehmen. «Wenn es nur um mehr Profit für einige wenige geht, weckt das Misstrauen. Und auch dann, wenn mit unseren Daten etwas gemacht wird, das wir nicht wissen oder nicht wollen oder diese gar gegen uns verwendet werden.» Diethelm denkt an neue Möglichkeiten wie individualisierte Preise beim Online-Shopping, die sich der errechneten Kaufkraft anpassen oder Krankenkassenprämien, die von den Daten unserer Fitnesstracker abhängen.
«Nicht alles, was technologisch möglich ist, ist auch sinnvoll», meint deshalb Diethelm. Vieles was heute getan wird, würde einer ethischen Überprüfung nicht standhalten. «Deshalb braucht es Grenzen und diese Grenzen müssen wir Menschen festlegen.»
Doch mit wie viel Ethik und mit welchen Werten sollen wir KI ausstatten? Ein Staubsaugroboter richtet schliesslich deutlich weniger Schaden an als ein autonomes Waffensystem. «Schlussendlich hängt es immer vom konkreten Anwendungsfall ab, wie unproblematisch oder ethisch fragwürdig etwas ist», sagt Diethelm. Dabei müssen wir auch immer verschiedene Werte und Güter gegeneinander abwägen. «Wie viel Videoüberwachung trägt zu mehr Sicherheit bei? Wie viel Privatsphäre wollen wir für Personalisierung aufgeben?» Das dürften nicht alleine die Unternehmen bestimmen, die KI einsetzen.
«Es ist davon auszugehen, dass öffentlich finanzierte Akteure besser in der Lage sind, den unparteiischen moralischen Standpunkt einzunehmen», argumentiert auch Strub. Ein Ansatz bietet dabei die Anfang April 2019 veröffentlichte KI-Richtlinie der EU, mit der diese eine Vorreiterrolle in der ethischen Entwicklung von KI einnehmen will. Die Richtlinie wurde von einem Gremium von Expertinnen und Experten ausgearbeitet und fordert unter anderem, dass Algorithmen auf «Diversität, Nichtdiskriminierung und Fairness» getrimmt werden sollen. Und vor allem sollen Menschen jederzeit wissen, wenn sie es mit einer Maschine zu tun haben.
Das kommt nicht bei allen gut an. Einige befürchten, dass die Innovation durch solche Richtlinien in weniger regulierte Länder abwandert. Anderen geht die Sache zu wenig weit – darunter auch der Ethiker Thomas Metzinger, der selbst im Gremium sass. Die Richtlinie sei zwar das Beste, was es derzeit gibt. Doch gleichzeitig sei sie «lauwarm, kurzsichtig und vorsätzlich vage». Er befürchtet gar, dass es zu weiteren Fällen von «ethischem Weisswaschen» führe. Bereits heute geben sich Konzerne wie Facebook einen ethischen Anstrich, indem sie zum Beispiel Ethikinstitute an Universitäten finanzieren.
Strub sieht die Sache differenzierter. «Aus unserer Sicht fassen die Guidelines der EU gut begründete ethische Standards plausibel zusammen», erklärt er. «Die Richtlinie stellt das Individuum ins Zentrum und hat den Anspruch, dass die Technologie dem Menschen dienen soll.» Zudem sei die Richtlinie als «lebendiges Dokument» konzipiert, das mit der nun entfachten Diskussion wachsen und sich weiterentwickeln solle. Dazu gehöre auch der Austausch mit denjenigen, die Technologien vorantreiben und nutzen. «Der Ethik sollte dabei jedoch eine genügend gewichtige Rolle einnehmen, auch als kritisches Korrektiv.»
Künstlicher Intelligenz darf also kein Freipass ausgestellt werden. Zu stark beeinflusst sie mit ihren Entscheidungen unser Leben. Damit wir den Algorithmen vertrauen können, müssen sie transparent gemacht werden und einer ethischen Überprüfung standhalten – und dafür braucht es eine Debatte, welche Werte uns wichtig sind.