Deine IP: Unbekannt · Dein Status: GeschütztUngeschütztUnbekannt

Weiter zum Hauptinhalt

Desinformation im Superwahljahr 2024: Experten-Interview mit Prof. Dr. Dennis-Kenji Kipker

2024 werden weltweit neue Regierungen und Parlamente gewählt. In mehr als 60 Ländern, einschließlich der EU-Länder, sind die Wähler aufgerufen, ihre Stimme abzugeben. Diese Vielzahl an Abstimmungen bietet einen nie dagewesenen Spielraum für Desinformation im Netz. Welche Rolle Künstliche Intelligenz (KI), Algorithmen und Bots dabei haben und ob es Wege gibt, der Desinformation online entgegenzutreten, haben wir Cybersicherheits-Experten Prof. Dr. Kipker gefragt.

Desinformation im Superwahljahr 2024: Experten-Interview mit Prof. Dr. Dennis-Kenji Kipker

Bereits bei vergangenen Wahlen, wie z. B. in den USA, gab es Hinweise auf Desinformationskampagnen, um Meinungen und somit Wählerverhalten zu beeinflussen. Wie funktionieren solche Kampagnen und welche Taktiken werden dafür genutzt?

Solche Kampagnen werden gezielt eingesetzt, um falsche oder irreführende Informationen zu verbreiten, um letztlich die öffentliche Meinung und das Verhalten von Menschen zu manipulieren. Dazu bedienen sich sie zahlreicher Methoden – und einige kennen wir auch schon, sie werden oft nur nicht direkt wahrgenommen, weil sie „unter dem Radar“ sind. Dazu gehört zum Beispiel die emotionale Manipulation, indem bestimmte, besonders intensive Emotionen wie Wut, Angst oder Trauer durch Buzzwords getriggert werden, obwohl vielleicht der eigentliche Inhalt einer Nachricht gar nicht so viel damit zu tun hat.

Eng damit verknüpft ist auch das Appellieren an klassische Vorurteile und Pauschalisierungen mit Blick auf bestimmte Themen oder Personengruppen. Das soll dazu führen, an Informationen zu glauben und sie für wahr zu halten, obwohl damit vielleicht nur eigene Stereotypen bedient werden. Was auch gemacht wird, ist Quellen zu verschleiern oder gar künstliche Nachrichtenquellen zu generieren – und dafür ist der Einsatz von KI mehr denn je bestens geeignet. Gerade Statistiken sollte man immer mit Vorsicht genießen, weil sie vielleicht den Nimbus von Wissenschaftlichkeit und Objektivität genießen, letztlich aber genauso hinterfragt werden müssen wie jede andere Informationsquelle auch.

Technisch können Fake News nicht nur durch natürliche Personen und Organisationen verbreitet werden, sondern auch durch automatisierte Bots oder Trolle, die absichtlich provozieren. Manchmal werden – ähnlich wie im Marketing – auch Microtargeting-Maßnahmen genutzt, um einzelne Menschen oder ganz bestimmte Bevölkerungsgruppen mit Statements gezielt anzusprechen.

Gibt es auf EU-Ebene Vorhaben oder bereits beschlossene Gesetze, die Desinformationen regulieren können? Was wurde nach Vorkommnissen vergangener Wahlen bereits unternommen?

Desinformation ist definitiv kein Thema, das erst mit KI aufgekommen ist – schon im letzten Jahrzehnt war das ein Problem und auch vergangene Wahlen weltweit waren davon mal mehr, mal weniger intensiv betroffen. Seit der Corona-Pandemie in 2020 haben wir aber definitiv einen ganz signifikanten Anstieg an Desinformation nicht nur in der EU erleben müssen und leider bewegt sich dieser Anstieg auf einem aktuell gleichbleibend hohen Niveau. Umso wichtiger ist es, dass Maßnahmen ergriffen werden, die einerseits das institutionelle demokratische Gefüge stärken, andererseits aber auch an die Unternehmen und Einzelpersonen appellieren, aufmerksam zu sein.

Die EU hat hier in den letzten Jahren viel für den Schutz unserer Demokratie getan und schon 2020 einen Aktionsplan für Demokratie in Europa vorgeschlagen, der 2023 überarbeitet wurde. Dieses sogenannte „Paket zur Verteidigung der Demokratie“ umfasst einen ganzen Maßnahmenkatalog, so mit Blick auf Transparenz und Rechenschaftsstandards für politische Interessenvertretungstätigkeiten, Empfehlungen zur Förderung von freien, fairen und stabilen Wahlen und auch dazu, wie man sich zivilgesellschaftlich an politischen Entscheidungsprozessen beteiligen kann.

Doch das ist bei Weitem nicht alles: So enthält der neue EU Digital Services Act ganz konkrete Pflichten und Anforderungen, was Online-Dienste wie soziale Netzwerke, Content-Sharing-Plattformen und Online-Marktplätze tun müssen, um Desinformation auf ihren Kanälen zu unterbinden. Da gibt es so einige Big Tech-Konzerne, die sich aktuell winden und versuchen, aus diesem Regulierungspaket heraus zu kommen – in den allermeisten Fällen aber vergeblich, da die EU-Kommission bei der Überwachung und Durchsetzung aktuell hart vorgeht.

Welche Rolle spielt Ihrer Meinung nach die internationale Zusammenarbeit bei der Bekämpfung von grenzübergreifenden Desinformationskampagnen, z. B. zur EU-Wahl dieses Jahr?

Ganz zentrale Erkenntnis in diesem Zusammenhang: Desinformationskampagnen machen nicht an Staatsgrenzen Halt und eine Art „globales Internetrecht“, das sich überall gleichermaßen rechtsverbindlich durchsetzen ließe, gibt es nicht. Das macht es natürlich schwierig. Und da helfen letztlich auch Ansätze wie der europäische AI Act nur wenig, da es hier nicht darum geht, eine risikobewertete und geprüfte KI-Technologie auf dem europäischen Markt zugänglich zu machen, sondern sich die Cyberangreifer um solche Gesetze nicht scheren und vielfach aus dem Ausland operieren. Das bedeutet auch, dass der Kampf gegen Desinformation eine gemeinsame Aufgabe aller europäischen Staaten ist, um dem gezielten Untergraben von Demokratie, einer Polarisierung oder gar Spaltung der Gesellschaft und der Verbreitung von digitalem Hass und digitaler Gewalt entgegenzuwirken.

Aber es kommt auch stärker als bislang auf die politische Koordination solcher Maßnahmen an. Sicher, man wird es nicht erreichen können, dass sich alle Staaten weltweit gleichermaßen an politischen Kampagnen gegen Desinformation beteiligen, weil ebenjene teils auch gezielt durch Staaten im Rahmen von nachrichtendienstlichen Operationen ausgespielt wird, aber dann ist es umso wichtiger, solche Akteure klar zu benennen und die Bürgerinnen und Bürger über aktuelle Desinformationskampagnen aus Drittstaaten öffentlich aufzuklären. Hier wurde in den letzten Jahren viel Arbeit investiert und das durchaus mit gewissen Erfolgen.

Wie kann man per Gesetz eine Linie zwischen freier Meinungsäußerung und Falschinformation ziehen? Ginge das überhaupt?

Per se kann man nicht einfach gesetzlich anordnen, ob eine bestimmte (politische) Meinung legitim ist oder nicht. Denn es gilt: Das Recht auf freie Meinungsäußerung ist eine grundlegende Freiheit und es dürfen natürlich auch Meinungen geäußert werden, die nicht populär oder polemisch sein können. Der Gedanke hinter der Meinungsäußerung ist ja gerade, auf eventuelle systemische Missstände aufmerksam zu machen, und dafür darf man sich als Bürgerin und Bürger einer Vielzahl an Mittel bedienen.

Dennoch hat auch die Meinungsäußerungsfreiheit ihre Grenzen, so zum Beispiel, wenn es um die bloße öffentliche Diffamierung von Personen ohne sachlichen Hintergrund geht oder falsche Informationen, also objektiv unwahre Tatsachenbehauptungen, im großen Stil online verbreitet werden. Das hilft aber an sich nur wenig, denn wie gesagt kommen viele dieser Akteure weder aus Deutschland noch der EU, sondern aus Drittstaaten, wo die Strafverfolgung entsprechend nicht greift – wenn man diese Akteure denn überhaupt ausfindig machen kann, die ihre Herkunft zumeist geschickt verschleiern.

Deshalb sind vor allem auch Plattformen gefordert, zu kontrollieren und zu regulieren – freilich nicht im luftleeren juristischen Raum, denn ein Privatkonzern entscheidet nicht darüber, was die „Wahrheit“ ist und was kommuniziert werden darf und was nicht. Der Grat zwischen Meinungsfreiheit und Regulierung ebenjener ist somit manchmal nur sehr schmal.

Was müsste noch getan werden, um Wahlen besser zu schützen?

Was ich mir persönlich wünschen würde, ist, dass wirklich alle Beteiligten – Regierungen, Plattformkonzerne, Zivilgesellschaft und natürlich die Bürgerinnen und Bürger – noch stärker an einem Strang ziehen als bislang, denn Desinformation im Netz ist gerade in diesen Zeiten ein Thema, das alle von uns angeht. Denn eigentlich möchte niemand in einem Staat leben, der von zersetzenden Kräften gezielt politisch destabilisiert wird.

Was bedeutet das konkret? Noch mehr Transparenz bei der Veröffentlichung von Wahlkampfspenden und Wahlausgaben, die Verpflichtung von Social-Media-Plattformen, bezahlte politische Inhalte offenzulegen, die Aufklärung der Öffentlichkeit über die Gefahren von Desinformation – gerade junge Menschen, die auch schon Wähler sind und das aktive Commitment der Medien, rigoros über Falschinformation zu berichten und darüber für alle bekannten Einzelfälle aufzuklären.

Was kann der allgemeine Online-User unternehmen, um sich vor Desinformation zu schützen bzw. wie kann dieser sie besser erkennen?

Vieles kann man unter dem Buzzword „Awareness“ zusammenfassen – also erst einmal grundsätzlich eine kritische Grundhaltung gegenüber allen Inhalten haben, die von außen kommen und selbstreflektiert mit Informationen vorgehen – das ist ja letzten Endes auch das A und O der Cybersecurity.

Ganz konkret: Zuerst die Quelle einer Information prüfen. Wer ist der Autor? Wer veröffentlicht? Ist das ein bezahlter Post? Sind Website und URL vertrauenswürdig? Schreiben andere Medien auch über den Sachverhalt? Dann sollte man die eigentlichen Inhalte kritisch hinterfragen – manchmal kann eine Information ja schließlich auch zu gut klingen, um wahr zu sein. Sind Texte oder Videos sachlich und ausgewogen? Oder fehlen vielmehr wichtige Informationen und Nachweise, sodass die Darstellung „aus der Luft gegriffen“ wirkt?

Im Zweifelsfall sollte man auch schauen, ob es Experten oder sonstige vertrauenswürdige Personen gibt, die den Inhalt in Statements bestätigen – und das sollten nicht nur Influencer sein. Und gerade bei Social Media ist besondere Vorsicht geboten, hier kann man nämlich auch ganz schnell in die Filterblasen eigener Peer Groups hineingelangen und bekommt nur die Informationen zugespielt, die einem der Algorithmus vorschlägt – das nennt man auch „Dark Social“.

Welche neuen Trends oder Technologien werden Ihrer Meinung nach die Cybersicherheit bei Wahlen und den Kampf gegen Desinformation in Zukunft prägen? Könnte KI sogar der Schlüssel sein, das Problem zu bekämpfen?

Ich denke nicht, dass wir dem Problem allein mit Technologie Herr werden, denn schließlich geht es bei Wahlen und Meinungen als Bürgerrecht eben auch um das Informiertsein selbst, den freien Willen und die Selbstbestimmung des Bürgers. Wir müssen uns davon lösen, zu meinen, dass wir sämtliche Probleme mit KI bekämpfen können, weil das an den eigentlichen Missständen, warum wir Desinformation sehen, nicht wirklich etwas ändert.

KI kann durchaus ihren Beitrag leisten, zum Beispiel bei der Automatisierung von Faktenchecks, dem Durchsuchen und Kennzeichnen verdächtiger Posts, oder bei der Erkennung von Bots und Trollen. Gleichzeitig sprechen wir aber auch nach wie vor von der Anonymität des Netzes, sodass Authentisierungstechnologien zur Webnutzung oder Login-Zwänge mit hinterlegten Personendaten die Meinungsfreiheit wiederum torpedieren können. Außerdem können solche Maßnahmen mit wenigen Kenntnissen und dem richtigen Willen technisch leicht umgangen werden. Demokratie bedeutet Selbst- und Mitbestimmung und das Bilden einer eigenen, auch kritischen Meinung, und die kann und wird uns Technologie nicht vorgeben können.