Der Angriff der Polit-Bots

Die Machenschaften der Firma «Cambrigde Analytica» belegen, dass demokratische Entscheidungsprozesse in naher Zukunft einem digitalen Grossangriff auf die Meinungsbildung ausgesetzt sein werden. Auch in der Schweiz sind bereits Firmen am Start, welche die öffentliche Meinung «ganz legal» manipulieren wollen. Die Firma «Enigma» legt in der Handelszeitung ihre Ambitionen offen auf den Tisch. Mit Bots und KI - so die vollmundigen Ankündigungen - soll die Meinung einer «empfänglichen» Schicht zu Gunsten der Kundschaft beeinflusst werden. Ein gekauftes Abstimmungs- oder Wahlresultat kann demnach herbeigeführt werden.

Die Menschen werden stimuliert und angeregt zur Übernahme einer Fremdmeinung und zum Entschluss, diese an der Urne kundzutun.

Die Klasse der «Empfänglichen» lässt sich unmittelbar auf die Unentschlossenen, die Uninformierten, die Wankelmütigen und die Politik-Abstinenten eingrenzen. Diese Gruppierung ist in der Schweiz prominent vertreten. Wenn es gelingen sollte, diesen Personenkreis mit auf die Persönlichkeit angepassten Botschaften zu überzeugen und für eine Seite zu mobilisieren, können knappe Abstimmungen - oder auch Wahlen - im Sinne der Kunden gewonnen werden. Diese bewegbare Masse lässt sich logischerweise emotional und weltanschaulich zu Meinungen bewegen, die sie sich nicht selber gebildet hat. Sie werden stimuliert und angeregt zur Übernahme einer Fremdmeinung und zum Entschluss, diese an der Urne kundzutun.

Diese Bots lernen und warten geduldig auf den geeigneten Zeitpunkt zuzuschlagen.

Das ist der simple Business-Plan solcher Meinungsmacher. Das Werkzeug für diese Beeinflussung sind Bots, Maschinen, die sich als Menschen tarnen. Hier beginnt die Täuschung, die Vorspiegelung falscher Tatsachen, und hier beginnt die bedenkliche Manipulation der Demokratie. Sehr wahrscheinlich haben sich schon etliche «falsche Freunde» in den Kreis unserer Follower und Freunde auf Twitter, Facebook und Google+ eingeschlichen. Diese Bots lernen und warten geduldig auf den geeigneten Zeitpunkt zuzuschlagen. Maschinen, die darauf trainiert sind, psychologische Muster von Social-Media-Teilnehmerinnen zu erkennen, beginnen auf Kommando, mit massgeschneiderten Botschaften auf deren Meinungbildung einzuwirken. Der Erfolg oder Misserfolg solcher mentalen Implantate lässt sich ahand von Klicks, Likes, Favs oder Retweets messen und korrigieren.

Bot face - Gesicht eines Bots
Is it a man, a machine or the bicycle repair man?

Demokratie lebt von lebendigen Debatten, dem Austausch von Argumenten zwischen Menschen. Jetzt aber beginnen Maschinen, Meinungen zu generieren und demokratische Prozesse zu unterwandern. Das ist eine gefährliche Tendenz, welcher so früh wie möglich Einhalt geboten werden muss. Vier mögliche Ansätze scheinen geeignet, der maschinellen Beeinflussung der Demokratie entgegenzuwirken.

  • Erstens: Der Gesetzgeber reguliert den Einsatz von politischen Bots. Politische Aussagen von Bots müssen als politische Werbung gekennzeichnet werden. Den Einsatz von politischen Bots ganz zu verbieten, ist die sauberste Lösung.
  • Zweitens: Die Anbieter von Social-Media-Plattformen untersagen den Einsatz von Bots. Maschinen lassen sich heute noch sehr effizient von Menschen unterscheiden.
  • Drittens: Eine Armee von Gegen-Bots führt politische Bots in die Irre. Das ist der Hacker-Ansatz à la «Seek & Destroy». Der Unterhaltungswert eines solchen Bot-Krieges wäre nicht zu unterschätzen.
  • Viertens: Die Menschen müssen Bot-Profile erkennen lernen. Diese zeichnen sich durch ein niedriges Aktivitäts-Niveau, wenig Follower und ein unpersönliches Profil ohne menschliches Profilbild aus. Thematisch treten sie eintönig, aber in der Sache entschlossen und fundiert in Erscheinung. Die Aussagen weichen nicht von menschlichen Äusserungen ab, da sie von Menschen verfasst wurden. Sollte sich der Verdacht erhärten, auf einen Bot gestossen zu sein, ist es ratsam, diesen in ein Gespräch zu verwickeln. Die Antwort wird ausbleiben oder unsinnig sein.

Auch wenn die Wirksamkeit dieser maschinellen Massenmanipulation noch nicht wissenschaftlich nachgewiesen ist, hat sie doch das Potenzial, demokratische Entscheidungen massgeblich zu verfälschen. Der Gesetzgeber sollte sich dieser Problematik so schnell wie möglich annehmen, bevor der Schaden angerichtet ist. Parteien und Gruppierungen, die sich solcher undemokratischer Methoden bedienen, sollten ferner abgestraft und an den Pranger gestellt werden. Firmen, die solche Manipulations-Methoden anbieten, müssen dahingehend reguliert werden, dass sich das Geschäftsmodell kaum mehr lohnt.

Wir stehen am Anfang einer bedenklichen Entwicklung, die jetzt noch kontrolliert werden kann. Die Bots und KIs werden sehr schnell sehr viel intelligenter. Deshalb sollten wir handeln, solange es noch nicht zu spät ist.