Rechtsextremismus - „Manche wollten Gentests zur Bestätigung der Abstammung sehen“

Wie radikalisieren sich Menschen über das Internet? Eine der besten Kennerinnen der Szene ist die Extremismus-Forscherin Julia Ebner. Um zu verstehen, warum Menschen rechten Ideologien auf den Leim gehen, hat sie sich undercover in Online-Foren eingeschmuggelt

Propaganda im Internet / picture alliance
Anzeige

Autoreninfo

Claudia Detsch leitet die Redaktion des IPG-Journals. Sie ist Soziologin und war Herausgeberin der sozialwissenschaftlichen Zeitschrift Nueva Sociedad in Buenos Aires. 

So erreichen Sie Claudia Detsch:

Anzeige

Julia Ebner ist Autorin, Extremismusforscherin und Politikberaterin am Londoner Institute for Strategic Dialogue. Ihr neues Buch heißt: „Radikalisierungsmaschinen – Wie Extremisten die neuen Technologien nutzen und manipulieren“ . 

Sie haben in verschiedenen extremistischen Online-Gruppen undercover recherchiert. Wie läuft eine solche Recherche konkret ab?

In den vergangenen Jahren wurden viele Analysen zu Extremismus im Internet durchgeführt. Dabei wurden insbesondere die Veränderung der Sprache in Extremistengruppen analysiert und die Reichweite von Kampagnen sowie deren Zielgruppen untersucht. Mir hat allerdings immer der menschliche Zugang gefehlt. Ich wollte die sozialen Prozesse innerhalb von Extremistengruppen besser verstehen. Deshalb habe ich mir über zwei Jahre hinweg verschiedene Online-Identitäten aufgebaut, um durch unterschiedliche Rekrutierungsprozesse zu gehen und Zugang zu den Gruppen zu erhalten. In einigen Fällen habe ich die Mitglieder dieser Gruppen auch offline getroffen.

Wie funktionieren Rekrutierung und Aufbau solcher radikalen Gruppen?

Insbesondere rechtsextreme Gruppen leiten die Aufnahmeprozesse über die gängige Applikation Discord. Viele dieser Gruppen führen zuerst einen Hintergrundcheck der Social-Media-Accounts durch, die man bei der Anfrage angibt. Teilweise stellen sie auch Fragebögen zur ideologischen Gesinnung, politischen Einstellung oder kulturellen Ansicht zusammen. In anderen Gruppen spielt wiederum Religion eine wichtige Rolle. Darauf folgen häufig Voice-Chats oder Interviews. So soll vermieden werden, dass sich Journalisten oder Sicherheitsbehörden einschleusen. Die Rekrutierungsprozesse haben sich nach dem rechtsextremen Aufmarsch in Charlottesville 2017 enorm verschärft. Eine Neonazi-Gruppe aus den USA hat zum Beispiel verlangt, dass ich ein Foto meines Handgelenks poste, mit Logo der Gruppe und Zeitstempel, um zu beweisen, dass ich weiß bin. Manchmal wollen sie auch Gentests zur Bestätigung der Abstammung sehen.

Haben Sie die falsche Identität aufrechterhalten, als Sie sich mit einzelnen Mitgliedern trafen?

Am Anfang war es nicht mein Ziel, mich auch offline zu treffen. Deshalb war zum Beispiel mein Profilfoto blond. Ich habe mir entsprechend später eine blonde Perücke zugelegt. Im Rahmen des Aufnahmeprozesses der Identitären Bewegung gab es auch Offline-Treffen. Ich musste einen österreichischen Identitären in Wien treffen. Anschließend hatte ich ein Skype-Gespräch mit dem Leiter der Bewegung aus Schottland, der beim Aufbau des neuen britischen und irischen Ablegers beteiligt war. Daraufhin wurde ich zu einem Auftakttreffen dieser britisch-irischen Stelle in London eingeladen.

Es entwickelte sich also eine Eigendynamik. Wenn Sie diese Entwicklung Revue passieren lassen: Welche Angebote machen diese Gruppen ihren Mitgliedern? Welche Menschen sind besonders empfänglich für die Inhalte solcher Gruppen?

Das Traurige war eigentlich, dass zahlreiche der neuen Mitglieder in den Gruppen eher auf der Suche nach Liebe, Freundschaft, Kameradschaft und Identität waren. Viele befanden sich in einer persönlichen Krise. Ganz deutlich wurde das zum Beispiel in der „Frauenfeind*innen-Gruppe“, wo sehr viele aus gescheiterten Beziehungen kamen und das Gefühl hatten, nicht geliebt zu werden. Es geht also letztlich darum, die Familie oder den Freundeskreis zu ersetzen. Genau das bieten diese Gruppen an. Deswegen ist das Anfälligkeitsprofil sehr divers. Es bewerben sich Menschen aus unterschiedlichen Altersgruppen, Bildungshintergründen oder sozio-ökonomischen Situationen.

Gemein haben diese Leute, dass sie alle mit einer Identitätskrise zu kämpfen haben. In einem solchen Zustand ist jeder anfällig für eine Radikalisierung. In den Gruppen wird dann die individuelle Frustration auf eine kollektive Ebene gehoben und eine Erklärung dafür geboten. Es findet ein Sozialisierungsprozess statt, dem die Radikalisierung und ideologische Indoktrinierung eigentlich erst einmal untergeordnet sind. Innerhalb der Gruppe werden ein eigener Wortschatz und eigene Witze entwickelt, die das Ganze zeitweise eher weniger ernst erscheinen lassen. Letztendlich wird aber immer eine eindeutige Feindesgruppe definiert und eine extreme Ideologie propagiert.

Haben Sie sich auch in diesen frauenverachtenden Gruppen als Frau zu erkennen gegeben?

Unterschiedlich. Ich habe mir vor allem in Gruppen von weiblichen Frauenhasserinnen einen Account aufgebaut. Das war sehr spannend, weil es eine ganz andere Art von Radikalisierung war, die mir hier begegnet ist: eine Gruppe, bei der sich der Hass nicht gegen eine fremde Gruppe, sondern gegen sich selbst richtet. Über meinen männlichen Account bin ich dann auch in die männliche Seite dieser Meinungssphäre eingetaucht. Aber mein Hauptaugenmerk habe ich auf die weiblichen Frauenhasser gerichtet, da mir so etwas vorher noch nie begegnet ist.

Auch in den Medien ist diese Gruppe nicht stark präsent.

Genau. Aber es war interessant, weil man als Frau in manchen Gruppen zum Teil sogar mit offenen Armen aufgenommen wird. Zum Beispiel in der Identitären Bewegung oder in manchen US-Alt-Right-Gruppen. Die legen viel Wert darauf, Frauen in den vordersten Rängen zu haben, weil das der Gruppe ein legitimeres und harmloseres Gesicht gibt. Bei anderen Gruppen wiederum wurde ich genommen trotz der Tatsache, dass ich eine Frau bin. Das war so bei der US-Neonazi-Gruppe, wo ich meine Gen-Resultate zeigen musste.

Welche Rolle spielen Verschwörungstheorien innerhalb dieser Gruppen? Von außen kommen diese Theorien häufig sehr abstrus rüber und man fragt sich, wie jemand ernsthaft solchen Theorien anhängen kann.

Teilweise werden ganz gezielt Verschwörungstheoretiker angeworben oder Personen, bei denen man aus Studien weiß, dass sie eher eine Verschwörungsmentalität aufweisen. Auf der anderen Seite können Verschwörungstheorien aber auch als schleichender Prozess vermittelt werden. Das nennen sie dann Redpilling, in Referenz an den Film „Matrix“, wo die ideologische Komponente Schritt für Schritt hinzugefügt wird. Das beste Beispiel einer Verschwörungstheorie, die Hass gegen eine Feindgruppe erzeugt, ist die gegen die jüdische globale Elite gerichtete. Auf diesem Weg wird der persönlichen Angst ein Täterbild zugeordnet. Meist handelt es sich um Ängste zum Thema Migration, sexuelle Gewalt, sozialer Abstieg oder Terroranschläge. Die Verschwörungstheorie liefert dann eine leichte Erklärung und ein einfaches Feindbild. Bei dem Juden, der heimlich die ganze Welt steuert, handelt es sich eigentlich um eine sehr alte Verschwörungstheorie, die aber an aktuelle politische Ereignisse und neue soziale Dynamiken sowie gesellschaftliche Prozesse geknüpft wird.

Nun werden zwar häufig sehr extreme Positionen vertreten, die aber letztlich harmlos sind, weil die Gruppe im Netz unter sich bleibt. Ist es möglich, von außen auf solchen Plattformen tatsächlich gefährliche Tendenzen zu unterscheiden von eher harmlosen Interaktionen?

Das Problem ist, dass viele dieser Verschwörungstheorien und einschlägigen Ideologien eine Art existenzielle Bedrohung propagieren. Die zum Teil apokalyptischen Visionen können bestimmte Individuen dann dazu verleiten, überhaupt nicht mehr an politische oder metapolitische Lösungen zu glauben. Das kann die Gewaltbereitschaft extrem fördern. Ein Rassen-, Kultur- oder Religionskrieg ist dann die einzig logische Form der Selbstverteidigung. Das kann dann sehr schnell solche Terroristen inspirieren, die wir in Christchurch in Neuseeland gesehen haben, aber auch in den USA und eben auch in Halle.

Dienen das Internet und die sozialen Medien als Katalysator? Die schnelle Vernetzung und rasche Radikalisierung sind schwer vorstellbar außerhalb des digitalen Raums.

‚Katalysator‘ ist genau der richtige Begriff, denn die Dynamiken, die ich online beobachtet habe, unterscheiden sich nicht großartig von herkömmlichen Radikalisierungsprozessen in den Offline-Netzwerken. Neu ist allerdings die Art und Weise, wie sich die Gruppen international vernetzen und mobilisieren. Randgruppen können sich heute viel mehr Gehör verschaffen und über traditionelle Zielgruppen hinaus Mitglieder rekrutieren. Da es unterschiedliche Subkulturen in den einzelnen Ländern gibt, können sie gezielt ihre Kommunikation und Propaganda anpassen. Zusätzlich spielen ihnen noch Algorithmen und die Infrastruktur der meisten Tech-Plattformen in die Hände. Vor allem in Empfehlungsalgorithmen finden sich radikale Inhalte meist ganz oben, und so rutscht man sehr schnell in extreme Echokammern, ohne notwendigerweise politisch oder ideologisch vorgeprägt zu sein.

Lassen sich zwischen den unterschiedlichen radikalen Gruppen einzelne Dynamiken unterscheiden? Wir haben vorrangig über rechte Gruppen gesprochen, wie sieht es mit islamistischen Gruppen aus?

Islamistische Gruppen oder zumindest ihre Propaganda werden im Netz schon seit einigen Jahren viel stärker bekämpft. Da gibt es die Global Coalition Against Daesh, eine internationale Kooperation, die vor allem gegen IS-Propaganda arbeitet. Oder den Zusammenschluss der vier großen Tech-Plattformen Microsoft, Google, Facebook und Twitter, die daran gearbeitet haben, dass Propagandavideos möglichst schnell entfernt und Re-Uploading auf ihren Seiten verhindert wird. Das betraf aber zu 90 Prozent islamistische Propaganda und war nicht auf den Rechtsextremismus ausgerichtet. Demnach konnten rechtsextremistische Gruppen viel länger unbeobachtet von den Behörden und Tech-Firmen arbeiten und sich ihr Netzwerk aufbauen. Außerdem arbeiten rechte Gruppen heute stärker mit Satire und nutzen Grauzonen aus, indem sie sich des Rebrandings von Symbolen bedienen und einen anderen Wortschatz haben als traditionelle Neonazi-Gruppen.

Sie sagen, die Tech-Firmen versuchen, Radikalisierung auf ihren Seiten zu unterbinden. Häufig stehen sie aber auch im Fokus der Kritik, dem Vorwurf ausgesetzt, zu halbherzig hasserfüllte Inhalte zu löschen. Was sagen Sie – tun die Tech-Konzerne genug?

Ich würde sagen, dass es ihnen in den meisten Fällen um ihren Ruf geht. Man merkt das daran, dass sie in ihren Handlungen eher reaktiv sind. Theoretisch müssten sie ihr gesamtes Geschäftsmodell verändern. Algorithmen spiegeln ja auch sehr stark die menschliche Psyche wider, und leider finden gerade extreme Inhalte Aufmerksamkeit bei uns. Früher haben wir gerne Gladiatorenkämpfe geschaut, und auch heute ist es noch so, dass Gewalt unsere Aufmerksamkeit bindet. Es bräuchte also einen menschlicheren Ansatz oder eine komplette Veränderung der Algorithmen und der Geschäftsmodelle dieser Firmen. Auf jeden Fall kann die Politik bis zu einem gewissen Grad Druck machen, was die Entfernung von Gewalt-enthaltenden Inhalten im Netz betrifft. Das sollte nicht nur auf den großen Plattformen, sondern auch auf den kleineren, meist viel extremeren, teilweise ultra-identitären Plattformen vollzogen werden, die zu wirklichen Brutstätten für Extremismus geworden sind. Sie sind teilweise komplett isoliert und lassen zu, dass extremistische Echokammern entstehen, in denen zu Gewalt aufgerufen wird. Hier könnte die Politik viel stärker eingreifen.   

Wie gut sind die Sicherheitsbehörden aktuell aufgestellt, wenn es um die Identifikation und Überwachung solcher radikalen Akteure im Netz geht?

Es gibt Aufholbedarf. Gerade nach Christchurch hat man gemerkt, dass der Fokus und die Ressourcen nach 9/11 zu stark auf dem (islamistischen) Terrorismus lagen. Die rechten Netzwerke im Internet wurden kaum beachtet. Man hat es verpasst, diese ganze Subkultur besser zu verstehen, um sie schlussendlich adäquat einordnen zu können. Was ist potenziell bedrohend für die Demokratie? Was kann in Gewalt umschwenken? Was ist tatsächlich nur Trolling? Momentan ist es auf jeden Fall so, dass die Behörden weder in Deutschland noch international den vollen Überblick haben, was rechtsextremistische Online-Gruppierungen betrifft. Auf islamistischer Seite dagegen sind wir deutlich besser gewappnet.

Wie sieht es mit linksextremistischen Gruppen aus?

Während meiner Recherche habe mich zwar in alle unterschiedlichen ideologischen Richtungen umgeschaut, jedoch versucht, die Netzwerke mit dem meisten Einfluss und der größten Bedrohung für die Demokratie und Gesellschaft abzubilden. Mir ist aufgefallen, dass gerade auf rechtsextremer Seite ein starker Fokus auf Disziplin und Ordnung lag. Die rechtsextremen Gruppen sind stärker koordiniert und haben ein größeres Netzwerk, das militärische Strukturen aufweist und somit viel effektiver im Online-Raum agiert. Das gilt für die Rekrutierung, die Kommunikation und die internationale Vernetzung. Auf der linken Seite sind mir diese Koordination und der Fokus auf Disziplin und Ordnung nicht so sehr aufgefallen.

Andererseits gibt es auch einen starken ideologischen Unterschied. Sowohl in islamistischen als auch in rechtsextremen Gruppen gibt es diese sehr starke Entwicklung des Hasses gegen eine Fremdgruppe, meistens gegen eine Minderheitengruppe. Das ist auf linker Seite ideologisch nicht gegeben. Dort findet vielmehr eine Mobilisierung in Reaktion auf den Rechtsextremismus statt. Gerade in Reaktion auf Charlottesville gab es natürlich auch linksmilitante Gruppen, die Rache üben wollten. Aber es war eben reaktiv und nicht Hass gegen eine menschliche Feindgruppe. Die Ausnahme bilden der Antiautoritarismus und die Antistaatsmobilisierung der Linksextremisten. Aber sie sind auf taktischer Ebene einfach nicht so raffiniert und militärisch organisiert wie auf rechter Seite. Ich höre oft, ich sei auf dem linken Auge blind, aber wenn man sich die unterschiedlichen Netzwerke objektiv anschaut, gibt es zu den Rechtsextremen nichts Vergleichbares.

Kommen wir zurück zu Ihrer eigenen Rolle. Sie haben ein Buch geschrieben, basierend auf Ihren Recherchen in extremistischen Onlinegruppen. Begeben Sie sich in Gefahr, wenn Sie jetzt öffentlich in Erscheinung treten? Gibt es etwa Drohungen?

Es ist im Moment erstaunlich ruhig. Ich hatte in der Vergangenheit schon relativ viele Drohungen erhalten und habe mich darauf eingestellt, dass es nach dieser Buchveröffentlichung ebenfalls Drohungen oder Hasskampagnen geben wird. Es war mir ein Anliegen zu verstehen, was Menschen hineintreibt in diese Kreise und wie man sie auch wieder herausholen kann. Ich habe sehr viel Wert darauf gelegt, nicht die Identität von nicht-öffentlichen Extremisten preiszugeben, daher hoffe ich, dass mir vielleicht auch im Gegenzug Menschlichkeit entgegengebracht wird. Ich habe die menschlichen Seiten selbst von allerextremsten Radikalen gesehen und habe das Gefühl, dass man solche Einblicke als Ansatzpunkt für De-Radikalisierungsprogramme im Online-Raum verwenden könnte.

Ich stelle mir das schwierig vor: sich über viele Stunden mit radikalisierten Positionen und mit Hetze auseinanderzusetzen und es dennoch zu schaffen, die menschliche Seite nicht außer Acht zu lassen.

Es ist eine Mischung. Natürlich war ich von rassistischen Witzen oder Ideologien mit Verschwörungstheorien, die ich am liebsten sofort widerlegt hätte, angewidert. Aber andererseits merkt man, dass eben viel menschliche Motivation in diesem Radikalisierungsprozess zu finden ist und sehr viel mit der Suche nach Liebe oder Anerkennung beginnt. Gerade für die jungen Mitglieder habe ich teilweise sehr großes Mitleid empfunden.

 

Das Interview ist zuerst im Journal Internationale Politik und Gesellschaft (IPG) erschienen. Die Fragen stellte Claudia Detsch. 

Anzeige