Uni Tübingen
A Blog by Machine Learning Cluster
15. Dezember 2021
Artikel von Bob Williamson

Es ist immer noch die Moral des Menschen, die in der KI steckt

Über ethische Aspekte der Künstlichen Intelligenz (KI) wird heute viel diskutiert. Weitverbreitet ist dabei die Ansicht, KI dürfe nie dazu dienen, Entscheidungen über Menschen zu treffen. "Einspruch!", sage ich dazu in diesem Blogbeitrag: Statt uns darüber Sorgen zu machen, was die KI alles über uns entscheidet, sollten wir unseren Blick von der Technik als solcher lösen und mehr auf diejenigen richten, die ihren Einsatz in Auftrag geben.

„Vorurteilsbehaftete Entscheidungen“

Als problematisch an der KI erachten viele, dass ihre Algorithmen auf „Vorurteilen“ beruhen. Diese könnten zum Beispiel schädliches Verhalten von Menschen aus dem Lauf der Geschichte widerspiegeln, welches dann in entsprechend „schlechten“ Entscheidungen weiterlebt. Für mich hingegen ist hier der Begriff „Vorurteil“ selbst problematisch. Das fängt schon damit an, dass man ihn kaum definieren kann. Was dem einen als Vorurteil erscheint, lobt der andere als Ausweis von Mitte und Maß.

Statt uns über die „Voreingenommenheit“ „vorurteilsbehafteter Entscheidungen“ aufzuregen, sollten wir uns, meine ich, lieber mit dem Akt der „Entscheidung“ als solchem befassen. Mir geht es darum zu zeigen, dass die heutige Ethikdebatte rund um KI von einer unausgesprochenen Vorannahme geprägt ist, nämlich darüber, was es eigentlich heißt, eine Entscheidung zu treffen; und auch darüber, in welchem Moment sie getroffen wird. Mal angenommen, ich wurde schon so oft von Regen pitschnass, dass ich eines Tages beschließe, in Zukunft morgens einen Regenschirm mitzunehmen, wenn die Wettervorhersage eine Regenwahrscheinlichkeit von mehr als 30% anzeigt. Jeden Morgen befrage ich mein Handy und handle entsprechend der Vorhersage. Wer entscheidet hier nun, ob der Regenschirm eingepackt wird? Und wann genau wird die Entscheidung getroffen? Gängigen Annahmen über KI zufolge, trifft der Algorithmus im Handy die Entscheidung. Daraus wird dann gern gefolgert, dass ich meine Autonomie der Maschine geopfert habe. „Bitte genau hinschauen!“, fordere ich hier. Dann offenbart sich, was in Wirklichkeit geschieht: Die Technik spielt nur eine vermittelnde Rolle, die Verantwortung aber bleibt bei mir. Dieses einfache Beispiel zeigt, dass man hier mit den Begriffen des Delegierens und der Autonomie höherer Ordnung arbeiten muss. Meine Autonomie behalte ich voll und ganz, denn ich bin es, der die Entscheidungsregel (nennen wir sie „E“) festlegt: „Falls Vorhersage > 30%, dann Regenschirm mitnehmen“. Nachdem ich Regel „E“ definiert habe, delegiere ich die Entscheidung an eine Maschine, genauer gesagt, an ein äußerst komplexes soziotechnisches System. Zu diesem gehört ohne Zweifel auch ein „KI-Algorithmus“, der numerische Wahrscheinlichkeiten berechnet. Meine ursprüngliche, autonome Entscheidung, mir Unterstützung von außen zu holen, wird durch ein komplexes technisches System ermöglicht, mir von diesem aber nicht abgenommen. Wenn ich mich an meine eigene Regel halte und eines Tages ihr getreu den Regenschirm zu Hause lasse, um mir dann abermals eine Regendusche abzuholen, liegt die Verantwortung dafür folglich immer noch bei mir: Ich bin es, der die Regel „E“ ersonnen und beschlossen hat, zu riskieren, dass ich drei von zehn Mal in einen Regen gerate.

Entscheidungen sind das Ergebnis einer Prozesskette. Um über den moralischen Wert einer Entscheidung zu befinden, muss man die ganze Kette in den Blick nehmen.

Dieses einfache Beispiel veranschaulicht einen wichtigen Aspekt jeder KI-gestützten Entscheidung, und zwar auch in Fällen, wo es um mehr geht als nur darum, trocken zu bleiben: Folgt man der Prozesskette nur weit genug zurück, trifft man irgendwann auf einen oder mehrere echte Menschen, die die Kette technischer Prozesse in Auftrag gegeben haben und für sie letztlich verantwortlich sind. Der Prozesskette die Schuld – gar die alleinige – für ethische Missstände zu geben, ist ungefähr so absurd, wie meinem Handy die Schuld dafür zu geben, dass ich nass geworden bin.

Dem Mobiltelefon die Schuld zu geben, ist aber genau das, was viele gerne täten. „Die Technik hat uns in die Irre geführt!“, heißt es dann. Dies ist ein ungerechtes, oder zumindest unfaires, Urteil über technische Lösungen, denn es greift zu kurz: Im Vergleich zur Alternative, mich jeden Morgen von neuem spontan und intuitiv zu entscheiden, hat meine explizite Entscheidungsregel „E“, den großen Vorteil, dass sie eindeutig ist und ihr Wert evaluiert werden kann. Würde ich aus dem Bauch heraus entscheiden, gäbe es nichts zu evaluieren, und ich würde eine wie auch immer geartete Überprüfung meiner Entscheidung vermutlich auch nicht auf mich nehmen. Dies zeigt den großen Vorteil davon, bei schwerwiegenden Entscheidungen Detailfragen an eine Maschine zu delegieren. Dann ist man gehalten, mit präziser Logik zu arbeiten, das heißt, die Aufgabe mathematisch zu formulieren. Ist dies einmal geleistet, lässt sich die Entscheidung viel leichter evaluieren und ihre Qualität unter Umständen verbessern.

Seit April 2021 ist Bob Williamson Professor für Grundfragen des maschinellen Lernens an der Universität Tübingen. Davor lebte und arbeitete er in Canberra in Australien. © Elia Schmid / Universität Tübingen

Ködertricks durchschauen – Manipulation als Dienstleistung

Ist das überhaupt wichtig? Oh ja! Macht man nämlich die Technik zum Sündenbock, können sich diejenigen, in deren Händen KI wirklichen Schaden anrichtet, hinter diesem ganz prima verstecken. Wenn große Werbefirmen Forschung über Voreingenommenheit und Fairness sponsern, lassen sie damit eine Gedankenstraße, die sie bereits erfolgreich in unseren Köpfen angelegt haben – nämlich dass Privatsphäre gleichbedeutend sei mit der Geheimhaltung von Information – zusätzlich verbreitern. Dass aber nicht die Information selbst den großen Schaden anrichtet, sondern das, was mit ihr angestellt wird, soll niemandem auffallen. Internetwerbefirmen wie Google oder Facebook mögen vielleicht vorbildliche Datenschutzregeln haben (und diese sogar einhalten): Auf ihren Servern werden Ihre persönliche Daten schon sicher sein. Diese können die Firmen aber dort (mit Ihrem ausdrücklichen Einverständnis) verwenden, um Sie derart systematisch zu manipulieren, dass Sie es gar nicht mitbekommen. Und genau damit verdienen sie ihr Geld.

Nicht, dass eine sich selbst lenkende Technik autonom werden könnte, sollte unsere Sorge sein, sondern dass wir unsere eigene Autonomie verlieren; und zwar gerade nicht an jene Technik, sondern an Unternehmen, die von echten Menschen geführt werden, die diese Technik vorsätzlich zum alleinigen Zweck der Manipulation entwickelt haben. Werbung hat nur dann einen Wert, wenn sie effektiv ist, und effektiv ist sie nur dann, wenn es ihr gelingt, den Empfänger (charmant „User“ genannt) erfolgreich zu manipulieren. Was mir die Ruhe raubt, sind weniger die ethischen Probleme, die von der KI als solcher ausgehen, sondern ist vielmehr das Geschäftsmodell dieser großen Konzerne: Manipulation als Dienstleistung.

 

Was tun?

Zum Glück sind wir nicht hilflos, und widerfährt uns das auch nicht zum ersten Mal. Die Geschichte kennt Beispiele dafür, dass eine Technologie erst dann richtig eingeordnet werden konnte, als man begriff, dass nicht sie selbst, sondern ihre Anwender für den mit ihr verursachten Schaden verantwortlich waren. Selbstverständlich kann und soll man an der jeweiligen Technologie nachbessern, wenn ihr Gebrauch dadurch mehr in Einklang mit ethischen Grundsätzen gebracht werden kann. Verantwortlich dafür ist allerdings derjenige, der die Technik in Auftrag gibt. Auch hier gilt unsere Sorge nicht der Ethik der Technik, sondern der Ethik menschlichen Handelns, welches schon immer den Einsatz von Technik beinhaltete und auch in Zukunft beinhalten wird. Ähnlich wie uns die Erfindung der Schriftsprache und der Mathematik (welche man genauso wie die KI als Technologien auffassen kann) ermöglicht haben, menschlicher zu werden (ohne Sprache keine Moralphilosophie), so kann auch die Technologie, an deren Entwicklung wir hier arbeiten, helfen, uns als Menschen weiterzuentwickeln.

Damit uns dies aber gelingt, müssen wir uns darüber im Klaren sein, wer die Verantwortung trägt. Letztendlich sind dies immer Menschen. Jede Technologie wird am Ende von realen Menschen in Auftrag gegeben. Diese sollten für die Folgen ihres Tuns zur Rechenschaft gezogen werden können. Heutzutage ist es allerdings gar nicht so einfach, diese Menschen ausfindig zu machen. Das liegt aber nur an unserem obsessiven Glauben, dass die Technik selbst den Schaden verursacht, und wir uns folglich nicht die Mühe machen, die langen Ketten auslösender Ereignisse bis zum ursprünglichen Auftraggeber zurückzuverfolgen. So wie gute Wissenschaft die Fähigkeit voraussetzt, sich an langen, verzweigten Abfolgen von Erkenntnisschritten entlang zu hangeln, müssen wir besser werden in der Rückverfolgung komplexer Entscheidungsprozesse, die von technischen Systemen ausgeführt werden. Damit meine ich jene Systeme, die irreführender Weise als „künstliche Intelligenz“ bezeichnet werden.

Übersetzung ins Deutsche: Conrad Heckmann

Dieser Blogbeitrag ist inspiriert von einem Kapitel aus dem kürzlich erschienenen Buch: Robert C. Williamson, The AI of Ethics, in Machines we Trust (herausgegeben von Marcello Pelillo und Teresa Scantamburlo), MIT Press 2021.

Mehr Informationen über Bob Williamsons Forschung finden Sie auf unserer Webseite.

Kommentare

Ich habe die Datenschutzerklärung zur Kenntnis genommen.
19. Juli 2021 Theresa Authaler

Verantwortung kann man nicht an einen Algorithmus delegieren

Die Informatik-Professorin Ulrike von Luxburg spricht im Interview über die Möglichkeiten und Schwierigkeiten, Systeme des Maschinellen Lernens auf Fairness zu trimmen – und warum sie davon überzeugt ist, dass über bestimmte Fragen Menschen und nicht Maschinen entscheiden sollten.
19. Juli 2021 Thomas Grote

Algorithmus und Mensch als Partner

Wer stellt die bessere medizinische Diagnose, Algorithmus oder Mensch? Aus Sicht von Technikphilosoph Thomas Grote ist dieser Wettstreit nicht zielführend. Er plädiert dafür, den Blick auf das Zusammenspiel der beiden zu richten – und betont die Bedeutung der Philosophie.