Stellen Sie sich vor, Ihr Telefon klingelt

Sie nehmen ab und es meldet sich ein junger Mann, der einige Informationen über Sie vorliegen hat und diese gerne bestätigt haben möchte: Welches Ihre Lieblingsserie ist, auf welche Schule Ihre Kinder gehen, für welche Partei Sie bei der letzten Wahl gestimmt haben und dass Sie in den letzten Jahren an Depressionen litten. Gruselig? Schon. Doch ungefähr so beschreibt Christopher Wylie, Whistleblower und ehemaliger Mitarbeiter von Cambridge Analytica, wie er und seine Kollegen den Datensatz geprüft haben, der die Basis für die wohl größte bekannte Desinformationskampagne unserer Zeit bilden sollte.

Doch wie sind die Mitarbeiter von Cambridge Analytica an diese Daten gekommen? Was haben Sie anschließend mit dem Datensatz gemacht? Und woher hatten Sie das psychologische Wissen, um breitangelegte Manipulationskampagnen zu konzipieren? Beginnen wir unsere Reise zum Mittelpunkt der Wahlkampfmanipulation beim ersten Schritt: Dem Datensammeln.

Alles beginnt mit Datensammeln

Schon seit längerer Zeit werden in klassischen, vor allem US-amerikanischen Wahlkämpfen diverse Daten zusammengetragen und zu großen Datensammlungen verknüpft: Konsumentendaten, Daten aus Vielfliegerprogrammen, Volkszählungsdaten oder Informationen aus Wahlregistern. Das half bei der zielgerichteten Ansprache der Wählerinnen und Wähler; die Daten umfassten aber oft nur einen Bruchteil der Bevölkerung und die Analyseergebnisse waren lediglich bedingt aussagekräftig.

Um die Amerikanerinnen und Amerikaner gezielter ansprechen zu können, brauchte Cambridge Analytica also bessere Daten. Diese Daten besorgte sich die Firma über Facebook – und lies den Datensatz über einen klugen Schachzug direkt mit Angaben über Persönlichkeitsmerkmale der Nutzer*innen anreichern, wodurch sich völlig neue Analysemöglichkeiten ergaben.

Die Vorgehensweise war dabei so simpel wie genial: Die Firma stellte auf der Crowdsourcing-Plattform „Amazons Mechanical Turk“ ein einfaches Quiz mit dem Namen „thisisyourdigitallife” online. Beantworteten Nutzerinnen und Nutzer die darin gestellten Fragen zu ihren Persönlichkeitsmerkmalen, wurde ihnen im Gegenzug eine kleine finanzielle Aufwandsentschädigung angeboten. Um den Geldbetrag zu erhalten, mussten sie sich aber eine Facebook-App installieren. Mit der Installation gaben sie dann – völlig legal – den Zugriff auf ihre persönlichen Facebook-Daten frei. Und den auf die Daten ihrer Facebook-Kontakte gleich mit.

Persönlichkeitsmerkmale analysieren

Über das Quiz und die Facebook-Integration kam Cambridge Analytica binnen kürzester Zeit in den Besitz von Daten aus 87 Millionen Facebook-Konten, die zumindest zum Teil mit Angaben zu Persönlichkeitszügen der Nutzerinnen und Nutzer verbunden waren. Grundlage für die psychologische Einordnung war das empirisch gut erforschte Big-Five-Modell, das die menschliche Persönlichkeit anhand von fünf Dimensionen beschreibt:

Neigung zu emotionaler Labilität, Ängstlichkeit und Traurigkeit

Neigung zur Geselligkeit und zum Optimismus

Neigung zur Wissbegierde, Interesse an neuen Erfahrungen

Neigung zum Altruismus, zur Kooperation und Nachgiebigkeit

Neigung zur Disziplin, zu hoher Leistungsbereitschaft Leistung, zur Zuverlässigkeit

In den üblichen Big-Five-Tests stimmen die Teilnehmenden über Aussagen wie „Ich glaube, dass Kunst wichtig ist“, „Ich erledige Aufgaben erfolgreich“ oder „Ich bin schnell verärgert“ ab. Aus den Angaben lässt sich dann die jeweilige Ausprägung der fünf Dimensionen ableiten.

Angetrieben von Investoren und Antreibern aus dem rechten politischen Spektrum analysierte Cambridge Analytica die Zusammenhänge zwischen den persönlichen Einschätzungen und den restlichen Facebook-Daten nun so lange, bis ihre Software aus wenigen Likes und Shares Aussagen über vermeintliche Persönlichkeitsmerkmale und neurotische Tendenzen der jeweiligen Nutzer treffen konnte. Doch was macht man nun mit dem Wissen, dass Dave Wilson in Yuma, Arizona, über wenig Selbstbewusstsein verfügt und leicht reizbar ist?

Einen Perspektizid planen

Man plant einen Perspektizid. Dieses nach Krankheit und Tod klingende Wort beschreibt einen manipulativen Prozess, bei dem das Opfer zunehmend den Zugang zu den eigenen Ansichten, Wünschen und Meinungen verliert. Die Person wird psychisch destabilisiert; ihr Selbstkonzept wird durch ein fremdgesteuertes ersetzt. Meist wird der Begriff in Zusammenhang mit missbräuchlichen emotionalen Beziehungen verwendet. Aber auch die massenhafte Manipulation von Wählerinnen und Wählern funktioniert auf diese Weise. Wylie beschreibt das so:

„Die effektivste Form des Perspektizids ist jene, die zunächst das Selbstbild verändert. […] Es beginnt in der Regel damit, dass er [der Manipulierende, Anm. d. Red.] die Narrative des Gegners unterdrückt und anschließend die Informationsumgebung der Zielperson dominiert. Nicht selten ist damit die schrittweise Zerstörung der sogenannten psychischen Resilienzfaktoren über mehrere Monate hinweg verbunden. Die Programme sind so gestaltet, dass sie bei den Zielpersonen unrealistische Wahrnehmungen erzeugen, die zu Verwirrung führen und die Selbstwirksamkeit beeinträchtigen. […] Die Gegennarrative sollen außerdem Misstrauen gegenüber anderen fördern, damit die Kommunikation mit ihnen die Entwicklung der Zielperson in die erwünschte Richtung nicht beeinträchtigt. […] Aber es reicht nicht, die Moral zu untergraben. Das eigentliche Ziel besteht darin, negative Emotionen und Denkprozesse auszulösen, die mit impulsivem, unkontrollierten und zwanghaftem Verhalten verbunden sind.“ (Wylie 2020, S. 83f.)

Laut Wylie wurden solche Strategien bisher vor allem in militärischen Operationen angewandt. Er nennt als Beispiel Drogenkriege in Südamerika, in denen gezielt Zwist zwischen Mitgliedern gesät wurde, um die Wahrscheinlichkeit von internen Konflikten, Informationsleaks und Überläufern zu erhöhen und so die Lieferketten zu schwächen.

Die „Überzeugbaren“ ausfindig machen

Ziel der Operationen von  Cambridge Analytica war es laut Wylie nun, Bürgerinnen und Bürger zu mobilisieren, die rechte Positionen bzw. tendenziell systemfeindliche Ansichten unterstützten und für einen Wahlsieg der Republikaner sorgten – oder alternativ Wählerinnen und Wähler zu demobilisieren, die einem entsprechenden Ziel entgegenstanden. Im Wahlkampf 2016 sollten so vor allem schwarze Bürgerinnen und Bürger von den Wahlurnen ferngehalten werden, während die Kampagnen für andere, vor allem weiße, Wählergruppen die Stimmabgabe zum Ziel hatten.

Um diese Ziele zu erreichen, musste Cambridge Analytica – zumindest in Theorie – sogar nur einen Bruchteil der Personen in den jeweiligen Gruppen erreichen: In Wahlkämpfen unterteilen Wahlkampfstrategen Wählerinnen und Wähler meist in drei Segmente. Es gibt eine Gruppe von Personen, die die eigene Partei sicher wählen, und eine Gruppe von Menschen, die ihre Stimme zuverlässig einer anderen Partei geben werden. Und es gibt eine Gruppe von Unentschlossenen oder Personen, von denen man zumindest glaubt, dass man sie von der eigenen Partei überzeugen könnte. Diese Gruppe ist für den Ausgang der Wahl – gerade in Zwei-Parteien-Systemen – entscheidend. Auf diese Gruppe, vor allem in den Swing States, konzentrierten sich die Aktivitäten von Cambridge Analytica. Brittany Kaiser, ebenfalls eine ehemalige Mitarbeiterin der Firma, beschreibt dies so:

„The bulk of our resources went into targeting those whose minds we thought we could change. We called them the „persuadables“. They’re everywhere in the country, but the persuadables that mattered were the ones in swing states […]. Now, each of these states were broken down by precinct. So, you can say there are 22,000 persuadable voters in this precinct and if we target enough persuabable people in the right precincts, then those states would turn red instead of blue. Our creative team designed personalized content to trigger those individuals […]. We bombarded them through blogs, websites, articels, videos, ads, every platform you can imagine. Until they saw the world the way we wanted them to.“ (Brittany Kaiser, Netflix-Doku „Camebridge Analyticas großer Hack“, 41:21)

Psychologisch-basierte Narrativ-Entwicklung

Bei der Formulierung der Botschaften an die einzelnen Zielgruppen waren die Erkenntnisse zu den psychographischen Merkmalen der Facebook-Nutzer Goldwert. Denn Menschen mit bestimmten Persönlichkeitszügen lassen sich leichter manipulieren als andere. Interessant für Cambridge Analytica waren hier vor allem Personen, die neurotische Merkmale aufwiesen, zu Wutausbrüchen oder Verschwörungstheorien neigten. Das Unternehmen identifizierte diese Zielgruppen und konfrontierte sie mit Postings, die Botschaften enthielten, die die Gruppe provozierten und aufstachelten. Welche Narrative dabei jeweils funktionierten, hatte die Firma laut Wylie vorher ausgiebig getestet. Zusätzlich zur Schaltung von Anzeigen gründeten die Mitarbeiterinnen und Mitarbeiter von CA auch Facebookseiten und -gruppen, die den Zielgruppen über den Facebook-Algorithmus in den Newsfeed gespült wurden.

Zumindest in der Zeit, in der Christopher Wylie noch Mitarbeiter von Cambridge Analytica war, organisierte die Firma auch „Real-Life-Treffen“. Diese Treffen hatten das Ziel, die bereits aktivierten Einzelpersonen miteinander zu vernetzen und ihnen das Gefühl zu geben, Teil einer großen Bewegung zu sein. Das unterstützte eine Verselbstständigung der Bewegung.

Dass die Kampagnen so effizient funktionieren, lag auch daran, dass die Firma bei der Gestaltung der Botschaften und Anzeigen auf psychologische Effekte zurück griff. So sorgt zum Beispiel das Erleben von Wut dafür, dass Informationen schlechter verarbeitet werden, da Wut logisches Denken blockiert. Als effektiv erwiesen sich auch Botschaften, die das in konservativen Kreisen ausgeprägte Bedürfnis nach Stabilität und Ordnung bedienten. So ergaben Tests in Virginia, dass konservative Wählerinnen und Wähler sich vorstellen konnten, einem Kandidaten ihre Stimme zu schenken, auch wenn sie seine Inhalte eigentlich nicht guthießen – solange sein Verhalten für sie vorhersehbar und klar verständlich war. Die Botschaft „Sie mögen zwar nicht mit mir einer Meinung sein, aber immerhin kennen Sie meinen Standpunkt“ funktionierte besser als alle anderen getesteten Narrative für den Kandidaten.

In afroamerikanischen Gruppen wurde dagegen besonders linke Rhetorik verbreitet. Ziel war es, Hillary Clinton als Vertreterin des weißen Mainstreams darzustellen und die Wählerinnen und Wähler dazu zu bringen, linke Kandidaten von dritten Parteien zu wählen.

Was nehmen wir mit?

Wylie verließ Cambridge Analytica 2014, also zwei Jahre vor der Präsidentschaftswahl 2016. Er vermutet, dass viele der in der Zeit davor getesteten und oben beschriebenen Methoden weiterhin eingesetzt wurden.

Ob die von Cambridge Analytica durchgeführten Kampagnen ausschlaggebend für den Sieg Donald-Trumps waren, ist in Fachkreisen umstritten. Die konkreten Wirkungen von Mikro-Targeting-Kampagnen sind für eine abschließende Bewertung noch nicht gut genug erforscht, einige Studien lassen aber zumindest signifikante Effekte erkennen. Im konkreten Fall des US-Wahlkampfs erhielt Donald Trump auch zusätzlich starke Unterstützung von Medien wie FoxNews oder Breitbart und anderen klassischen Wahlkampf- bzw. PR-Techniken.

Inwieweit Cambridge Analytica auch in den Wahlkampf rund ums Brexit-Referendum eingebunden war, ist unklar, ebenso welche Rolle russische Akteure spielten. Wahrscheinlich war ein Einsatz der Firma im Brexit-Wahlkampf angedacht, wurde aber nicht oder nur in verringertem Umfang vollzogen, Russland war zumindest nicht der Haupt-Auftraggeber der Kampagnen.

Nichtsdestotrotz zeigt der Fall Cambridge Analytica eindrücklich, mit welch einfachen Mitteln Desinformationskampagnen umgesetzt werden können und welche Risiken soziale Netzwerke, Online-Werbekampagnen und die Nutzung psychologischer Effekte für eine funktionierende Demokraie haben können.

Kluge Regulierungen, Transparenzverpflichtungen und Aufklärungsarbeit sind hier also zentral, um Missbrauch zukünftig zu verhindern und die postiven Seiten der Online-Kommunikation für politische Zwecke nutzen zu können.


Nach diesem Einblick in die strategische Organisation von Desinformationskampagnen stellen sich daher viele weitere Fragen. Was hat sich seit 2016 verändert? Inwiefern können europäische Datenschutzgesetzgebungen wie die DSGVO den manipulativen Einsatz von Daten verhindern? Lassen sich Demokratien mit Verhältniswahlrecht oder Mehr-Parteiensysteme schwieriger beeinflussen? Wie funktioniert politisches Mikro-Targeting im Detail, wie politisches Profiling und welche psychologischen Effekte sind für die Konzeption manipulierender Narrative hilfreich? Welche Gegenstrategien gibt es und wie können sich demokratische Systeme vor einem Krieg im „Informationsraum“ schützen? Die Recherchen folgen.