Uni Tübingen
A Blog by Machine Learning Cluster
13. September 2022
Artikel von Larissa Höfling, Ilja Mirsky

Demokratie digital verwurzeln

Künstliche Intelligenz (KI) und Demokratie haben viele Berührungspunkte. Ob KI langfristig die Demokratie stärkt oder schwächt, ist jedoch offen. Es wird Zeit, dass wir uns als Forscher*innen und Bürger*innen mehr einmischen und gemeinsam eine Vision für eine digital versierte Demokratie entwickeln.

Mit ihren Wurzeln im antiken Griechenland ist die Demokratie ein uraltes politisches System, das sich in Wechselwirkung mit der Gesellschaft fortlaufend weiterentwickelt. Auf dieser Zeitskala gemessen sind die Technologien der künstlichen Intelligenz (KI) und des maschinellen Lernens sowie ihre natürliche Umgebung – die digitale Welt – neue Phänomene. Und doch scheinen sie die Politik auf der Überholspur zu überrunden: Während führende Politiker*innen im Jahr 2013 (zumindest teilweise) noch damit beschäftigt waren, das Internet als “Neuland” zu erkunden, wurden parallel Durchbrüche beim Deep Learning erzielt, die es zu einem der mächtigsten Werkzeuge im Umgang mit digitalen Daten machten. Wer diese Werkzeuge verstehen und im großen Stil einsetzen kann, erlangt die Macht in der digitalen Sphäre, welche zunehmend auch das analoge Lebensumfeld durchdringt. 

In einem Workshop haben wir kürzlich die zukünftigen Expert*innen beider Teilbereiche, Doktorand*innen des maschinellen Lernens und der Politik- und Sozialwissenschaften, zum Dialog eingeladen und gefragt: Wie können wir die Entwicklung von KI und Demokratie als einen gemeinsamen Prozess gestalten? 

Berührungspunkte von KI und Demokratie 

Es entstehen fortlaufend Berührungspunkte zwischen KI und Demokratie. Zum Beispiel immer dann, wenn politische Entscheidungsfindung von einem Algorithmus beeinflusst wird. Ganz konkret passiert das, wenn Nutzer*innen sozialer Netzwerke algorithmisch personalisierte Wahlwerbung präsentiert bekommen, die ihre Wahlentscheidung beeinflussen – genauer gesagt: manipulieren – soll. Aber auch dort, wo Politiker*innen ihre Entscheidungen über politische Maßnahmen auf Modellierungen und Projektionen in die Zukunft stützen, treten Demokratie und Algorithmus miteinander in Wechselwirkung. Modelle werden in der Wissenschaft eingesetzt, um Vorhersagen über zukünftige Entwicklungen unter sich verändernden Bedingungen zu treffen. Die Vorhersagekraft dieser Modelle wird durch maschinelles Lernen erhöht, und solche Modelle werden in Zukunft mehr und mehr Einzug in den politischen Alltag halten, z.B. um den Verlauf einer Pandemie oder die Auswirkungen von Klimaschutzmaßnahmen vorherzusagen.

Der Technologieethiker James Williams sieht die Demokratie ganz grundsätzlich gefährdet durch die Übermacht der Aufmerksamkeitsökonomie, in der das knappe Gut der menschlichen Aufmerksamkeit den ökonomischen Interessen von Firmen zum Opfer fällt. Vor lauter blinkenden Werbebannern, ständig verfügbarer Zerstreuung und Benachrichtigungen auf unseren Smartphones, so Williams, werden wir Bürger*innen um die Fähigkeit gebracht, uns auf das Wesentliche zu konzentrieren, kollektiv Ziele zu setzen, und Entscheidungen zu Gunsten der Gesellschaft zu treffen. Das wiederum hat insofern etwas mit maschinellem Lernen zu tun, als nur mithilfe von ausgeklügelten Algorithmen und mächtigen Modellen die Benutzeroberflächen von sozialen Netzwerken, Apps und Streamingdiensten auf maximales engagement (also Interaktion der Nutzer*innen mit dem digitalen Produkt) hin optimiert werden können.  

Eine Bedrohung der Demokratie ganz anderer Natur erwächst durch KI in falscher Hand. Die Geheimdienste einiger autokratischer Staaten nutzen KI-gestützte Spyware zur Überwachung einzelner Menschenrechtsaktivist*innen und Journalist*innen, aber auch zur Spionage in demokratischen Staaten. Dies geschieht zum Beispiel, indem Mobiltelefone hochrangiger Politiker infiziert werden. Besonders brisant: Teilweise stammt die hierfür verwendete Software von Unternehmen, die in demokratisch regierten Staaten ansässig sind. Dies wiederum bietet allerdings auch einen möglichen Ansatzpunkt für den Gesetzgeber, den Export solcher Software besser zu regulieren. 

Stichwort Regulierung: Ein weiterer Berührungspunkt zwischen KI und Demokratie sind regulatorische Maßnahmen wie zum Beispiel die Datenschutzgrundverordnung oder der Digital Services Act (Gesetz über digitale Dienste). Mit diesen Vorstößen will die Europäische Union unter anderem den Weg hin zu einem ausgewogeneren Machtverhältnis zwischen privaten Unternehmen und Bürger*innen ebnen. Fast noch wichtiger als der tatsächliche Erfolg dieser politischen Maßnahmen in ihrer Umsetzung scheint allerdings das Signal zu sein, das von ihnen ausgeht: Die Politik bemüht sich zunehmend darum, den digitalen Raum zu regulieren, und wir als freiheitlich demokratische Gesellschaft entwickeln eine Vorstellung davon, wie er gestaltet werden kann.  

Raus aus der Defensive! 

Bisher entfaltet sich die gestalterische Kraft der Demokratie auf den digitalen Raum jedoch meist aus der Defensive heraus, etwa als Reaktion auf eine Bedrohung. Wir allerdings sind der Meinung: Die Demokratie muss aus der Defensive kommen und sich den digitalen Raum zu eigen machen. Denn sonst überlässt sie mit ihren langsamen regulatorischen Maßnahmen, die den technologischen Entwicklungen zeitlich immer hinterherhinken werden, das Feld den großen Firmen. Und deren Interesse ist nicht das Allgemeinwohl und eine funktionierende Demokratie, sondern ein möglichst hoher eigener Profit. Dabei bietet die Erschließung des digitalen Raums in Demokratien ein enormes Entwicklungspotenzial auch für positive, konstruktive Beiträge.  

Wünschen sich eine Vision für eine digital versierte Demokratie: Larissa Höfling und Ilja Mirsky. © ELIA  SCHMID / UNIVERSITÄT TÜBINGEN

Eine digital verwurzelte Demokratie 

Einige Ansatzpunkte, wie dies aussehen könnte, lieferten die Vorträge und Diskussionen während des Workshops: 

• Soziale Netzwerke, Kurznachrichtendienste, Deliberationsplattformen: Die Möglichkeiten zur politischen Debatte im digitalen Raum sind vielfältig – und schaffen dabei eine wachsende Menge an wertvollen Daten. Methoden des maschinellen Lernens aus dem Bereich der natürlichen Sprachverarbeitung können hier eingesetzt werden, um die Funktionsweise und die Qualität politischer Debatten zu messen und Faktoren zu identifizieren, die diese positiv oder negativ beeinflussen. Eine Regelung innerhalb des kürzlich vom EU-Parlament verabschiedeten Digital Services Act sollte diese Art von Forschung in Zukunft erheblich erleichtern, denn sie gewährt Forscher*innen Zugriff auf die Daten, die große Anbieter digitaler Dienste (z.B. Facebook) über ihre Nutzer*innen sammeln. 

• Recommender systems, also Systeme, die Nutzer*innen Inhalte vorschlagen, werden momentan vor allem von Unternehmen mit dem Ziel eingesetzt, ihre Gewinne zu maximieren. Gewinnmaximierung als Ziel ist allerdings nicht alternativlos. So fördert ein großer deutscher Zeitungsverlag Forschung zum Einsatz von recommender systems zur Diversifikation der Nachrichteninhalte, die dem Leser oder der Leserin vorgeschlagen werden. Vielleicht könnte es so gelingen, Filterblasen zu durchstoßen, den politischen Diskurs zwischen Andersdenkenden anzustoßen und der fortschreitenden Polarisierung entgegenzuwirken. 

• Forscher*innen aus dem Bereich der Computational Social Science könnten sich mit sozialen Bewegungen wie Fridays for Future vernetzen, um besser zu verstehen, wie sich Botschaften in sozialen Netzwerken verbreiten. Dieses Wissen könnte dann eingesetzt werden, um wichtige Botschaften möglichst effektiv zu verbreiten – eine Art KI-gestützter Aktivismus sozusagen.

Unsere Verantwortung als Forscher*innen und Bürger*innen

Selbst bei den hier vorgeschlagenen Impulsen reicht allerdings ein wenig Fantasie, um sich auszumalen, wie diese auch zur Schwächung des demokratischen Zusammenhalts eingesetzt werden könnten. Denn Algorithmen sind zunächst ethisch indifferent, und auch demokratiefeindliche Kräfte haben ein großes Interesse daran, ihre Botschaften (z.B. rechtsradikale oder populistische Thesen) “effektiv” zu verbreiten.  

Die wichtigste Erkenntnis aus unserem Workshop ist daher: Als Forscher*innen und Expert*innen für KI und zugleich Bürger*innen demokratischer Systeme kommt uns eine besondere Verantwortung zu. Wir sollten durch interdisziplinäre Dialoge und persönlichen und kreativen Austausch mit anderen Menschen die technologische Entwicklung permanent reflektieren und uns einmischen, wenn es darum geht, in welchen Lebensbereichen welche KI-Systeme eingesetzt werden und zu welchem Zweck. 

Vor allem aber müssen wir eine Vision für eine digital versierte Demokratie entwickeln, und möglichst viele interessierte Menschen an der Gestaltung und Umsetzung dieser Vision beteiligen. Denn die Frage, in welche Richtung sich KI und Demokratie in Zukunft entwickeln werden, ist noch lange nicht final beantwortet.

Larissa Höfling und Ilja Mirsky organisierten im April 2022 den interdisziplinären Workshop für Doktorand*innen zu “Artificial Intelligence and Machine Learning Research and Democracy” an der Universität Tübingen.  

Kommentare

Ich habe die Datenschutzerklärung zur Kenntnis genommen.
25. Juli 2022 Eric Raidl, Sebastian Bordt, Michèle Finck, Ulrike von Luxburg

Soll künstliche Intelligenz sich selbst erklären?

Dass Algorithmen viele Dinge können, verblüfft uns nicht mehr. Nun können sie angeblich auch “erklären”. Aber wollen wir das?
6. Dezember 2021 Theresa Authaler

KI-Systeme, die ihre Entscheidungen erklären

Viele Menschen stehen dem Einsatz von KI-Systemen skeptisch gegenüber. Ein Grund dafür ist, dass die Systeme zu intransparent sind. Zeynep Akata, Professorin für erklärbares maschinelles Lernen, will das ändern – und rückt die Perspektive der Nutzer ins Zentrum ihrer Forschung.
15. Dezember 2021 Bob Williamson

Es ist immer noch die Moral des Menschen, die in der KI steckt

Über ethische Aspekte der Künstlichen Intelligenz (KI) wird heute viel diskutiert. Weitverbreitet ist dabei die Ansicht, KI dürfe nie dazu dienen, Entscheidungen über Menschen zu treffen. "Einspruch!", sage ich dazu in diesem Blogbeitrag: Statt uns darüber Sorgen zu machen, was die KI alles über uns entscheidet, sollten wir unseren Blick von der Technik als solcher lösen und mehr auf diejenigen richten, die ihren Einsatz in Auftrag geben.