Die unsichtbaren Architekten der Desinformation
Spätestens seit dem 30. November 2022, dem Tag, an dem OpenAI ChatGPT veröffentlichte, ist künstliche Intelligenz in aller Munde. Nach nur zwei Monaten hatte das Tool über 100 Millionen monatliche Nutzer und auch zum Erstellen von Nachrichten wird es mittlerweile sowohl von Medienhäusern, als auch von Privatpersonen in den sozialen Medien verwendet. Dabei stellt sich die Frage: Wer beeinflusst eigentlich unsere Meinungen im Netz – Menschen oder Maschinen? Die Antwort liegt in der wachsenden Rolle von Social Bots, Algorithmen und eben von künstlicher Intelligenz (KI), die zunehmend unsere Informationslandschaft prägen. Doch auch diese machen Fehler, produzieren falsche Informationen, ob ausversehen, oder intentional. Dieser Artikel beleuchtet die Mechanismen hinter KI-gesteuerter Desinformation und zeigt auf, welche Herausforderungen sie für die Wahrnehmung von Wahrheit und Realität mit sich bringt.
Social Bots: Automatische Meinungsmacher
Social Bots sind Computerprogramme, die mehr oder weniger selbsständig arbeiten können, zum Beispiel können sie automatisiert Inhalte verbreiten, liken und kommentieren. Prof. Dr. Alexander Godulla, Professor für Empirische Kommunikations- und Medienforschung an der Universität Leipzig erklärt, dass diese auf zwei unterschiedliche Arten auftreten können. Zum einen treten sie manchmal ganz offen als Computerprogramme auf, um Dienstleistungen für die Nutzenden zu erfüllen, zum anderen, so erklärt Godulla gibt es "Social Bots, die unter falscher Flagge durch die Gewässer der sozialen Medien segeln." Sie simulieren menschliches Verhalten, um Meinungen zu verstärken oder öffentliche Debatten zu beeinflussen. Besonders in Wahlkämpfen oder Krisenzeiten, wie während der COVID-19-Pandemie, wurden Social Bots genutzt, um gezielt Fehlinformationen zu streuen.
Die Problem liegt darin, dass Bots den Eindruck erwecken, dass eine Meinung viel bedeutender und verbreiteter ist, als sie eigentlich ist. So kann eine Minderheitenmeinung durch automatisierte Likes und Shares künstlich aufgeblasen werden und gesellschaftliche Debatten verzerren. Dennoch möchte Godulla betonen: "Der Einfluss von Social Bots wird in der Diskussion über Fake News häufig überschätzt und das liegt daran, dass Menschen dennoch besonders viel Wert auf die Meinung von Personen legen, die sie tatsächlich kennen." Nicht alle Menschen sein zu gleichen Maßen für die Meinung Fremder Personen im Internet empfänglich und dementsprechend auch nicht in gleicher Weise von Social Bots manipulierbar.
Algorithmen: Die unsichtbaren Filter der Informationen
Algorithmen setzen stattdessen schon einen Schritt vorher an. Sie entscheiden maßgeblich darüber, welche Inhalte Nutzer:innen auf Plattformen wie Facebook, Instagram, TikTok oder X (ehemals Twitter) sehen. Basierend auf Nutzerverhalten und sozialen Verknüpfungen bevorzugen sie oft polarisierende Inhalte, weil diese mehr Engagement generieren. Auch hier hebt Godulla hervor, dass Algorithmen in erster Linie eine normale und hilfreiche Sache sind, die erst dann für die Debatte um Fake News wichtig werden, wenn man einen Blick darauf wirft, wer den Algorithmus kontrolliert. "Man kann Algorithmen missbrauchen, um den Nachrichtenstrom so zu manipulieren und Fake News zu verbreiten." Dies zeigt, dass nicht die Technologie an sich das Problem ist, sondern deren gezielte Nutzung zur Beeinflussung öffentlicher Meinungen. Im Gegensatz zu Social Bots und Algorithmen gibt es jedoch Technologien, die gezielt zur Manipulation von Meinungen und zur Verbreitung falscher Informationen entwickelt wurden. Ein Beispiel dafür sind Deepfakes – der Name selbst deutet bereits auf die Täuschungsabsicht hin.
Deepfakes: Die neue Dimension der Täuschung
Deepfakes sind durch Deep-Learning-Technologien generierte Videos, Audios oder Bilder. Sie basieren auf bereits vorhandenem Material und erschaffen täuschend echte Inhalte, die kaum von realen Aufnahmen zu unterscheiden sind. Dabei transportieren sie gezielt falsche Informationen, deren Glaubwürdigkeit durch die realistische Darstellung verstärkt wird.
Ursprünglich fanden Deepfakes vor allem in der Online-Pornografie Anwendung, insbesondere um es so erscheinen zu lassen, als würden prominente Schauspielerinnen in entsprechenden Filmen mitwirken. Mittlerweile werden sie jedoch vermehrt zur Manipulation politischer Aussagen und anderer gesellschaftlich relevanter Themen eingesetzt.
Bekannte Beispiele sind gefälschte Videos von Politikern, in denen ihnen Aussagen unterstellt werden, die sie in Wirklichkeit nie getroffen haben. Ein Beispiel ist das gefälschte Video von Wolodymyr Selenskyj, in dem er angeblich zur Kapitulation der Ukraine aufrief. Deepfakes stellen eine ernsthafte Bedrohung dar, da sie das Vertrauen in echte Medieninhalte untergraben und gezielt zur politischen und sozialen Manipulation eingesetzt werden können. Prof. Godulla fasst die neuen Technologien zur Fake News Verbreitung so zusammen: "Ich denke nicht, dass mehr oder weniger gelogen wird, sondern nur anders."
Warum KI das Problem der Fake News verschärft
Durch den Einsatz von KI werden Fake News nicht nur schneller und überzeugender, sondern auch gezielter verbreitet. Besonders zwei Faktoren spielen hierbei eine zentrale Rolle: die Qualität der Fälschungen und ihre immense Skalierbarkeit. KI-gestützte Manipulationstechniken verbessern sich stetig, sodass gefälschte Inhalte zunehmend schwerer von echten zu unterscheiden sind. Doch es geht auch anders – Qualität ist nicht immer erforderlich, um Wirkung zu erzielen.
Prof. Dr. Alexander Godulla weist auf ein weiteres Phänomen hin: sogenannte "Cheap Fakes" – bewusst schlecht gefälschte Inhalte, die dennoch weit verbreitet werden, da sie bestehende Vorurteile bestätigen und verstärken. Zudem ist die Erstellung von Deepfakes mittlerweile in kürzester Zeit für nahezu jede Person möglich. "Wir brauchen nicht mehr viel Material, um ein Deepfake zu erstellen", erklärt Godulla.
KI ermöglicht darüber hinaus eine gezielte Verbreitung und Optimierung von Fake News, indem sie Inhalte individuell an die jeweiligen Empfänger anpasst. Durch die Personalisierung analysieren Algorithmen das Nutzerverhalten und stimmen Falschinformationen gezielt auf deren Interessen und Weltanschauungen ab, wodurch die Glaubwürdigkeit der Inhalte für die jeweilige Person steigt. Zudem nutzt KI manipulative Sprache, um überzeugende Texte, Bilder und Videos zu generieren, die gezielt auf menschliche Emotionen und kognitive Verzerrungen abzielen. Dies verstärkt nicht nur die Wirkung von Fake News, sondern macht es auch schwieriger, sie als solche zu entlarven.
Medienkompetenz allein reicht nicht aus
Auf den ersten Blick erscheint die Zukunft im Kampf gegen Fake News düster: Immer schnellere Verbreitung, steigende Glaubwürdigkeit und die Tatsache, dass Erkennungstechnologien immer einen Schritt hinterherhinken. Auch technische Lösungen wie digitale Wasserzeichen oder Zertifikate für authentische Inhalte bieten keine vollständige Sicherheit. Oft wird daher Medienkompetenz als das entscheidende Gegenmittel betrachtet.
Doch Godulla zeichnet ein differenzierteres Bild. Er widerspricht der simplen Annahme, dass Menschen Deepfakes sehen und sie automatisch für wahr halten.
"Die Vorstellung, dass jemand ein Bild, ein Foto oder ein Video sieht und es unreflektiert glaubt, ist ziemlich primitiv", stellt er klar. Vielmehr sind viele Menschen durch ihr Vorwissen oder zusätzliche Quellen in der Lage, fundierte Entscheidungen über die Echtheit von Medieninhalten zu treffen. Die meisten sind sich bewusst, dass Fake News existieren, und begegnen ihnen mit gesunder Skepsis.
Zudem können bereits klassische journalistische Recherchemethoden helfen, Falschinformationen zu entlarven. Eine entschleunigte und bewusst reflektierte Mediennutzung trägt ebenfalls dazu bei, sich vor Manipulation zu schützen. Menschen informieren sich auf vielfältige Weise – es handelt sich um ein komplexes Zusammenspiel verschiedener Informationsquellen.
Die eigentliche Gefahr: Fake News im persönlichen Bereich
Während die öffentliche Debatte oft auf politische Fake News fokussiert ist, sieht Prof. Dr. Godulla die größere Gefahr in der individuellen und privaten Nutzung manipulativer Technologien. Ein besorgniserregendes Beispiel sind Fake-Inhalte in geschlossenen Gruppen, etwa auf WhatsApp, in denen gefälschte pornografische Aufnahmen von Mitschüler:innen kursieren. Solche gezielt gegen Einzelpersonen gerichteten Fälschungen können enorme psychische Schäden verursachen und sind schwerer zu bekämpfen als öffentlich sichtbare Fake News.
Letztlich zeigt sich, dass der Kampf gegen digitale Desinformation nicht nur technologische Lösungen, sondern auch gesellschaftliche Reflexion und Verantwortung erfordert.

Wanderausstellung "Fake News" ausleihen
Die Wanderausstellung mit dem Titel "Fake News: Desinformation erkennen" erkundet verschiedene Dimensionen von Fake News, erklärt die dazugehörigen Begriffe und führt über QR-Codes zu spielerischen Elementen sowie einer digitalen Erweiterung der Ausstellung. Die Schau eignet sich für Bildungseinrichtungen wie Schulen und Volkshochschulen ebenso wie für Gemeinden oder Kommunen.
Alle Informationen zur Buchung und Ausleihe der Ausstellung unter diesem Link.
Ein Dossier mit Artikeln zum Thema Fake News gibt es hier.
Das Toolkit zu "Fake News & Desinformation" enthält Artikel und Interviews, Texte und Material zum Thema. Es eignet sich für den Schulunterricht oder die Vorbereitung von Workshops und Events zum Thema. Es kann unter diesem Link bestellt werden.
Kommentare
Diskutiere jetzt mit und verfasse einen Kommentar.
Teile Deine Meinung mit anderen Mitgliedern aus der Sonntagsblatt-Community.
Anmelden