„Desinformation vor der Europawahl – wie groß ist die Gefahr?“
Über die Wahlen am 26. Mai diskutierten drei Experten bei einer Pressekonferenz am 12. April unter dem Motto „Desinformation vor der Europawahl – wie groß ist die Gefahr?“ im Rahmen der Live-Veranstaltung des Science Media Centers Germany, hauptsächlich um auch die Stellung der Wissenschaft im Kontext zu repräsentieren.
Eigenverantwortung nötig
Dr. Christian Grimme, Privatdozent am Institut für Wirtschaftsinformatik an der Westfälischen Wilhelms-Universität Münster und Leiter vom „PropStop“-Aufklärungsprogramm zur Erkennung von Online-Propaganda, lieferte einen kleinen Einblick, wie relevant das Thema Manipulation über soziale Medien ist. Die Manipulateure stifteten Verwirrung im Netz, hielten Menschen vom Wählen ab, verbreiteten Falschinformationen oder weckten Misstrauen. Schutzmaßnahmen dagegen seien schwierig, da ein vollständiger Schutz weder durch ein System noch durch intelligenten Eigenschutz möglich sei. Eine Lösung für Grimme ist jedoch: „Eigene Strategien entwickeln, wie man den Wahrheitsgehalt in Social Media und auch in nicht redaktionell geprüften Online-Medien kritisch hinterfragt.“ Genau so müsse man sich die Frage stellen, von wem man eigentlich Schutz erwarte, und durchleuchten, wem man im Netz vertraue.
Dr. Axel Bruns, tätig am Digital Media Research Centre der Queensland University of Technology im australischen Brisbane, bestätigte dies und fragte, von wem man solche Angriffe, Manipulationen und ähnliches eigentlich erwarten könne. „Der Verdacht fällt in letzter Zeit natürlich ganz besonders auf Russland und russische Akteure“, so der Medien- und Kommunikationsforscher, „aber mit Sicherheit werden auch andere Akteure da teilnehmen.“ Bots, Werbekampagnen, soziale Medienplattformen, menschlich gesteuerte Accounts durch das Posten von Memes oder Spielen oder auch Gruppen von Nutzern seien mögliche Angriffsplattformen. Der Fokus liege auf den Rollen europäischer Instanzen, Themen wie Migration, Kulturwandel oder finanziellen Fragen. Verwirrung stiften oder Uneinigkeit säen seien nicht nur Vorstufen, sondern Ziele der Manipulateure. Für die Wissenschaft sei es sehr schwer, die Reichweite der Informationen einzusehen. Man könne sie nur schätzen. „Wir wissen von einigen neuen Studien, dass der Großteil von Fake News“, so Bruns, „meist nur von hochaktiven Randgruppen weitergeleitet wird – die Weiterleitung selbst ist also ein Nischenphänomen!“ Nur das Ergebnis werde dann also für die „Gesellschaft der Mitte“ sichtbar. Oft werde es als falsche Information aufgedeckt, manchmal nicht. Es sei ein langfristiger Prozess, Menschen daüfr zu sensibilisieren, dass sie falsche Informationen aufdecken. Gegenmaßnahmen wie EU-Factchecking Services, die Plattform „EU vs Disinfo“ oder ähnliches trügen dazu bei, Medienkompetenz zu schaffen – denn genau diese sei heutzutage sehr wichtig.
„Haben wir den Willen zur Wahrheit verloren?“
Laut Prof. Dr. Oliver Zöllner, Professor für Medienforschung und Digitale Ethik an der Hochschule der Medien in Stuttgart, sind Social Media für viele Menschen in den letzten Jahren die primäre Informationsquelle geworden. „Trotzdem muss man die Firmen auch stärker in Verantwortung nehmen“, da sie ein großes menschliches Bedürfnis bedienten und den Herdentrieb des Menschen ausnutzten. Hier sei eine gesellschaftliche Debatte nötig. Jedoch gäbe es kein System, das einen schützen könne. Gerade auf die Wahlen bezogen müsse man die (momentan als „Anstrengung“ wahrgenommene) Arbeit auf sich nehmen, Dinge zu recherchieren, zu vergleichen, Wahrheitsgehalte zu überprüfen und sich auch mit Dingen zu beschäftigen, die vielleicht nicht dem eigenen Weltbild entsprächen. Wovor man jedoch nicht die Augen verschließen solle, so Bruns, ist, dass die Debatte der Gesellschaft über Desinformation zwar nützlich sei, man aber nicht die beziehungsweise alle Medien dafür verantwortlich machen dürfe. Der Grundverdacht, dass alle Medien ihr Publikum sowieso nur anlügen würden, sei gefährlich.
Doch welche Art von Angriffen sind für den EU-Wahlkampf überhaupt denkbar? Zöllner erwähnte hierauf beispielhaft Fernsehkanäle wie „Russia Today“, welcher vom Kreml finanziert sei und auf spanisch, arabisch oder auch deutsch ausgestrahlt werde. Hier sei es ein Leichtes für die russische Regierung oder einen „Fan“ dieser, Falschinformationen auf europäischer Ebene zu verbreiten. „Natürlich sind Twitter und Facebook die größten Player!“, so Grimme. Aber auch Plattformen wie „Gab“, auf welchen sich nur extreme Gruppierungen sammelten, dürften nicht ausgelassen werden, da auf diesen sogenannten „Ausweichnetzwerken“ koordiniert radikale und oft falsche Informationen gepostet würden und dann nur – abgesprochen zeitgleich – millionenfach auf den „großen Playern“ verbreitet würden. Diese Ausweichplattformen hätten den Vorteil, kaum wahrgenommen zu werden: „Wir dürfen uns nicht zu sehr auf die Mainstreamplattformen beschränken.“
Randgruppen an die Macht?
Laut Bruns liege die Gefahr in Deutschland hauptsächlich darin, dass potenziellen Wählern gesagt werde, sie sollten nicht wählen, da ihre Stimme auf Grund der geringen Wahlbeteiligung im Vergleich zu Landes- oder Bundestagswahlen oder anderen europäischen Ländern keinen Unterschied mache. Die Wähler aus der Mitte gingen nicht mehr zur Wahl und die Stimmen der Randgruppenwähler bekämen eine größere Bedeutung: „Die Randgruppen, die vielleicht für Propaganda mehr empfänglich sind, werden dann besonders dazu gebracht, zu wählen, weil man dadurch natürlich die Mehrheitsverhältnisse im Parlament ein wenig in seine Richtung beeinflussen kann.“ Ein weiteres Mittel, um die Wähler zu frustrieren, sei es, Unmut über die EU zu erzeugen.
Zum Thema Social Bots gab sich Grimme sehr zuversichtlich: Sie würden keine zentrale Rolle spielen. Es sei einfach, durch sie Informationen in den Social Media zu posten und zu verbreiten. Trotzdem sei die Entwicklung dieser Bots noch nicht so weit, dass sie tatsächlich auf intelligente Weise posteten. Bei falschen Inhalten fiele eine solche Verbreitung also auf.
Zöllner forderte zusätzlich zu der gesellschaftlichen Debatte und der Eigenverantwortung, Dingen nachzuspüren und auch mal dranzubleiben. ode-Modelle wie der „Code of Practise on Disinfo“, also ein Versuch der EU-Kommission, gegen Fake News vorzugehen, müssten von Firmen oder auch Produktentwicklern genutzt werden, um maximal möglichen Schutz zu gewährleisten.