Künstliche Meinung – Wie Astroturfing unser Weltbild formt
- Patricia Morianz

- 18. Dez. 2025
- 5 Min. Lesezeit
Aktualisiert: 19. Dez. 2025
„Absolut bestes Lokal der Stadt!“: Kommentare wie dieses haben das englische Restaurant „The Shed at Dulwich“ in die Liste der besten Gaststätten Londons gebracht. Das einzige Problem: Das Lokal existierte nie. Die Bewertungen waren erfunden, die Gäste hat es nie gegeben. Was hier passiert ist, hat den Namen Astroturfing. Und es betrifft längst nicht nur die Gastronomie.
Astroturfing ist eine Form der Propaganda. Dabei wird eine Meinungswelle geschaffen, die so wirken soll, als käme sie von echten Menschen. Tatsächlich stecken aber Unternehmen, Lobbygruppen oder politische Gruppierungen dahinter, die für gefälschte Kommentare bezahlen. Ihr Ziel ist es, Emotionen der Gesellschaft gezielt zu beeinflussen und eine öffentliche Meinung mit einer bestimmten Ausrichtung vorzutäuschen. Erfundene Restaurantbewertungen sind hierbei nur die Spitze des Eisbergs. Social Media, politische Kampagnen und Bürgerinitiativen werden immer wieder durch Astroturfing unterwandert.
Vertrauen in die „Allgemeinheit“
Was der englische Journalist Oobah Butler mit seinem Fake-Restaurant zeigen wollte, ist, wie leicht sich die öffentliche Meinung manipulieren lässt. Und tatsächlich bestätigt eine Marktbeobachtungsstudie der EU, dass mehr als 50 Prozent der Kaufentscheidungen im Internet von Bewertungen beeinflusst werden. In einer Studienreihe der TU Berlin wird jedoch erwähnt, dass je nach Sektor zwischen 5 und 25 Prozent aller Online-Bewertungen gefälscht sein dürften. Dadurch sollen entweder das eigene Image verbessert oder das der Konkurrenten geschwächt werden.
Wie kann das sein?
Üblicherweise simulieren beim Astroturfing wenige Menschen persönlich oder mit Hilfe von automatisierten Accounts eine Menschenmenge mit einer bestimmten Haltung. Sie erhalten zentrale Anweisungen von Unternehmen oder Interessengruppen darüber, welche Meinungen sie wann und wo äußern sollen. Mittels Leserbriefen, E-Mails, Blogeinträgen oder Kommentaren verschaffen sie sich Aufmerksamkeit. Inzwischen sind die Kosten von Astroturfing-Kampagnen durch die Effizienz des Internets so stark gesunken, dass der Aufwand immer geringer wird. Automatisierte Computerprogramme können in Form von künstlichen Profilen Beiträge liken und kommentieren und so menschliches Verhalten simulieren. Diese Social Bots erleichtern es einzelnen Akteuren, eine größere Anzahl an Benutzerkonten in Internetforen und sozialen Netzwerken zu verwalten.
Die Absicht dahinter ist, Freude oder Wut spontan und unbeeinflusst erscheinen zu lassen. Nur dadurch können die gesteuerten Kampagnen eine nachhaltige Wirkung erzielen.
Gerne werden auch Internettrolle für diese Aufgaben eingesetzt. Dabei handelt es sich um Internetprofile, die vorsätzlich provozierende Beiträge teilen, um eine Online-Community in Unruhe zu versetzen. Sie werden etwa während Wahlkämpfen gezielt zum Einsatz gebracht, um Gerüchte über Wettstreiter zu verbreiten. Genau das hat sich 2016 beim US-Wahlkampf zugetragen. Dort hat die russische „Internet Research Agency“ (IRA) massenhaft gefälschte Benutzerkonten, Gruppen und Kommentare erzeugt, um die Präsidentschaftswahl zugunsten von Donald Trump zu beeinflussen.
In einer Untersuchung der Universität Passau hat sich gezeigt, dass bereits einige wenige gezielt platzierte Kommentare ausreichen, um die Einschätzung von Nutzer:innen zur öffentlichen Meinung zu prägen.
Warum betrifft mich das?
Kommentare kann man vermeiden zu lesen, trotzdem haben sie große Auswirkungen auf das, was online präsentiert wird. New Yorker Wissenschaftler haben entdeckt, dass mit gefälschten und gehackten Konten Trends, also beliebte Diskussionsthemen, auf der Plattform X (ehemals Twitter) gelenkt werden konnten. Sie gehen davon aus, dass die künstlich erzeugten Trends mindestens 20 Prozent der globalen Top-10-Trends ausmachen.
INFO: Was sind Trends?
Trends auf X sind aktuell populäre Themen und Hashtags, die von einem Algorithmus über die Nutzerinteressen und deren Interaktion ermittelt werden. Sie zeigen, worüber gerade am meisten auf der Plattform diskutiert wird, und werden in der Regel im Bereich „Entdecken“ angezeigt. Nutzer können ihre personalisierten Trends sehen oder sich globale Trends anzeigen lassen.
Besonders bedenklich ist hier das Zusammenspiel mit künstlicher Intelligenz (KI). KIs, die auch nach Social-Media-Beiträgen suchen, stützen sich auf Texte, die viel Aufmerksamkeit bekommen. Berücksichtigt werden nicht nur Trending Topics, sondern auch Interaktionen und Wiederholungen. Das Tückische daran ist, dass Wiederholungen den Wahrheitseindruck erhöhen – werden Lügen häufig wiederholt, dann erscheinen sie plausibel. Aber selbst wenn es sich um keine Lügen handelt, kann die Wiederholung dazu führen, dass falsche Mehrheitsbilder entstehen. Das KI-Modell „Grok“ von X ist dafür besonders anfällig. Wenn erfundene Meldungen in die Feeds eingespeist werden, prägt das die Antworten der KI. Dadurch besteht die Gefahr, dass der Chatbot Fehleindrücke verstärkt, anstatt sie zu korrigieren. Zwischen Wahrheit und Fiktion abzugrenzen, ist kaum mehr möglich.
Warum ist Astroturfing gefährlich?
Astroturfing verzerrt die öffentliche Meinung und demokratische Prozesse. Es macht Stimmen sichtbar, die gar nicht existieren. Plattformen werden zu Instrumenten für Manipulation und verlieren ihre Vertrauenswürdigkeit. Gerade auf Social Media sind die Möglichkeiten einer Astroturfing-Kampagne schier grenzenlos. Deswegen kann Astroturfing auch bei wachsamen Internetuser:innen einen Einfluss auf deren Meinungsbildung, Wahl- oder Konsumentscheidungen haben.
Was ist dagegen zu tun?
Dennoch gibt es Möglichkeiten, Astroturfing zu entlarven. Auf Social Media ist es etwa auffällig, wenn fast identische Beiträge von vielen verschiedenen Accounts gepostet werden. Dann macht es Sinn, die Konten zu überprüfen. Äußern sie sich nur zu einem Thema? Sind die Profile neu? Verwenden sie Stockfotos, um die Identität der Person zu verbergen? Wenn ja, dann ist die Wahrscheinlichkeit hoch, dass es sich um gefälschte Konten handelt.
Das Gleiche gilt auch für Leserbriefe, Kommentare und Blogs. Teilweise erscheinen sie im selben Wortlaut in unterschiedlichen Medien.
Auch bei Online-Bewertungen zeichnen sich Muster ab. In Produktrezensionen werden dann gerne Superlative verwendet. Negative Rezensionen empfehlen gezielt ein anderes Produkt. Manche Profile stechen hervor, indem sie nur Produkte eines bestimmten Herstellers bewerten. Tatsache ist aber, dass dank KI-Textgeneratoren Inhalte immer besser gefälscht werden.
Ist das legal?
In der Vergangenheit hat die türkis-grüne Vorgängerregierung Österreichs eine Online-Klarnamenpflicht diskutiert. Umgesetzt wurde das allerdings nie. EU-weit bietet jedoch der „Digital Services Act“ (DSA) eine Stütze. Seit 2024 verpflichtet er Plattformen dazu, Transparenzberichte zu liefern, Beschwerdemechanismen zu etablieren und gemeldete Inhalte zu überprüfen. Illegale Inhalte sollen gelöscht werden. Was ein „illegaler Inhalt“ ist, definiert sich nach nationalem Recht und kann sich von Land zu Land unterscheiden. In Österreich steht man einigen Hürden gegenüber. Grund dafür ist die solide verankerte Rede- und Meinungsfreiheit. Sie erlaubt es den Bürger:innen aus strafrechtlicher Sicht, Lügen zu verbreiten, sofern sie dabei nicht das Verbotsgesetz verletzen. Deswegen ist die Mehrheit von Astroturfing-Inhalten hierzulande nicht illegal. Da es in Österreich also keine nationalen Regelungen gegen Desinformationen gibt, kann der DSA hier nicht greifen.
Besserung in Sicht?
Dennoch besteht Hoffnung, bestätigt Matthias Kettemann, der am Leibniz-Institut für Medienforschung zu Internetrecht und Plattformregulierung forscht. „Die Plattformen sind nämlich dazu verpflichtet, darüber zu informieren, wie sie mit Desinformationen umgehen.“ Sobald Inhalte ein systemisches Risiko für die Demokratie darstellen, müssen sie von den Plattformen gelöscht werden. Wenn sie das nicht tun, müssen sie mit Strafen rechnen. Demnach liegt es im Interesse von Meta, TikTok und Co., Desinformationen zu unterbinden. „Sie müssen nur verstärkt motiviert werden, gegen diese Art von Information vorzugehen“, meint der Forscher.
Erleichterung könnten dabei künftig automatische Erkennungssysteme bieten. Derzeit untersuchen mehrere Forschungseinrichtungen, wie Deep-Learning-Methoden zur Erkennung von Social Bots beitragen können. Computer können dabei ähnlich wie das menschliche Gehirn lernen, die Muster von Social Bots zu erkennen. Das Österreichische Institut für angewandte Telekommunikation (ÖIAT) führt regelmäßig Erhebungen durch, um die Meldemechanismen der Plattformen zu testen. Die Ergebnisse bisheriger Untersuchungen haben ergeben, dass die Mechanismen zwar greifen, aber ausbaufähig sind.
Nichtsdestotrotz empfiehlt Kettemann, auch individuell gegen Desinformation vorzugehen. Wer Astroturfing-Kampagnen entdeckt, der solle diese umgehend melden und keinesfalls ignorieren. „Die Onlineinformationswelt ist genauso real wie unsere Umwelt. Darum sollten wir uns dafür genauso mitverantwortlich fühlen.”
ZUSAMMENGEFASST: Was ist Astroturfing?
Man versteht darunter die gezielte Nachahmung von Bürgerbewegungen (im Netz). Gefälschte Kommentare, Posts, Leserbriefe, Umfragen sollen ein öffentliches Meinungsbild erschaffen und damit die Meinung der Lesenden beeinflussen. Man erzeugt damit einen künstliche “Graswurzelbewegung”, die sich im besten Fall auch offline weiterverbreitet. Der Name ist inspiriert vom Kunstrasenhersteller “Astro Turf”.
Quellen
onlinesicherheit.gv.at: Gefälschte Kundenbewertungen erkennen
profil: Gekaufte Bewertungen boomen. Die gekauften fünf Sterne, das Geschäft mit Online-Bewertungen
UK Government: Investigating the prevalence and impact of fake reviews for e-commerce products
Technische Universität Berlin: Prozentanteil von Fake Reviews. Wissenschaftliche Analyse
École polytechnique fédérale de Lausanne (EPFL): Trendsetter auf X. Analyse von Meinungsführerschaft in sozialen Netzwerken
Universität Passau: Wenige gefälschte Kommentare beeinflussen die Wahrnehmung der öffentlichen Meinung
SpringerLink: Deep Learning zur Erkennung von Social Bots
.png)


