Wie erkenne ich KI-generierte Fake-News?

an artist s illustration of artificial intelligence ai this illustration depicts language models which generate text it was created by wes cockx as part of the visualising ai project l
Photo by Google DeepMind on Pexels.com

Früher brauchte man technisches Spezialwissen, um eine überzeugende Falschmeldung zu erstellen. Heute reicht ein einfacher Textbefehl an ein KI-Programm. Die Folgen davon sind längst spürbar: Vor der Bundestagswahl 2025 verbreiteten russische Botnetzwerke auf der Plattform X gefälschte Terrorwarnungen – allein diese Inhalte erzielten mehr als 2,5 Millionen Interaktionen. Im Januar 2024 erhielten amerikanische Wählerinnen und Wähler Robocalls mit einer täuschend echten, aber synthetischen Stimme von Präsident Joe Biden, der sie aufforderte, der Vorwahl fernzubleiben. Das Weltwirtschaftsforum stufte KI-gesteuerte Desinformation in seinem globalen Risikobericht bereits als das derzeit grösste Risiko für eine globale Krise ein – noch vor Extremwetterereignissen oder bewaffneten Konflikten.

Doch was macht KI-Fake-News so gefährlich, und wie kann man sie erkennen?

Warum KI-Inhalte so überzeugend wirken

KI-generierte Texte sind gut strukturiert, grammatikalisch korrekt und klingen neutral – wie ein professioneller Nachrichtenartikel. KI-generierte Bilder und Videos, sogenannte Deepfakes, imitieren biometrische Merkmale von echten Personen so realistisch, dass Laien kaum noch zwischen echt und gefälscht unterscheiden können. Synthetische Audioaufnahmen ahmen sogar Stimmen inklusive Emotion, Rhythmus und Betonung nach.

Besonders tückisch ist die Strategie hinter organisierten Desinformationskampagnen: Eine fingierte Nachrichtenseite veröffentlicht eine Lüge, andere fingierte Seiten zitieren sie, und Tausende automatisierte Social-Media-Accounts verbreiten die Falschmeldung im grossen Stil weiter. Genau das ist laut einer Studie von NewsGuard passiert, als verschiedene KI-Chatbots eine Falschmeldung über den moldawischen Parlamentspräsidenten bestätigten – basierend auf einer KI-generierten Tonaufzeichnung, die ursprünglich von einer Propagandaseite stammte.

Eine OECD-Studie aus dem Jahr 2024, bei der über 40.000 Personen aus 21 Ländern befragt wurden, zeigt ausserdem: Menschen überschätzen ihre eigene Fähigkeit, Fake News zu erkennen. Im Durchschnitt konnten die Befragten nur in 60 Prozent der Fälle korrekt zwischen wahren und falschen Inhalten unterscheiden.

So erkennt man KI-Fälschungen – praktische Tipps

Trotz der wachsenden Qualität von KI-Inhalten gibt es noch einige Anhaltspunkte, die helfen können:

Bei Bildern und Videos lohnt sich ein genauer Blick auf Details: Unnatürlich viele Finger an einer Hand, zu regelmässige Zähne, merkwürdige Schatten, verschwommene Hintergründe oder ein starrer, unnatürlicher Blick sind typische Hinweise auf KI-generierte Inhalte. Die umgekehrte Bildersuche (z.B. über Google Images) kann ausserdem zeigen, ob ein Bild bereits in einem anderen Kontext aufgetaucht ist.

Bei Audios und Videos sollte man auf einen monotonen, emotionslosen Klang achten. Fehlende natürliche Sprechpausen oder ein gleichmässiger, maschinenhafter Rhythmus können auf eine synthetische Stimme hindeuten.

Bei Texten und Nachrichten gilt: Quellen immer prüfen. Seriöse Faktencheck-Plattformen wie Correctiv, Mimikama (für Österreich) oder EUvsDisinfo.eu (des Europäischen Auswärtigen Dienstes) helfen dabei, Falschmeldungen zu entlarven. Inhalte, die starke Emotionen wie Wut oder Angst auslösen, sollten besonders kritisch betrachtet werden – das ist oft ein gezielt eingesetztes Mittel, um das Urteilsvermögen zu trüben.

Tools zur Erkennung sind ebenfalls im Einsatz: An der TU Berlin forscht die Gruppe XplaiNLP mit den Projekten VeraXtract und news-polygraph an KI-gestützten Plattformen, die Texte, Bilder, Videos und Audiodateien automatisch auf ihren Wahrheitsgehalt prüfen sollen. Auch die Stiftung Warentest empfiehlt die Nutzung von Deepfake-Detektoren als ergänzendes Hilfsmittel.

Was bleibt am Ende?

Die wichtigste Schutzstrategie ist gesunde Skepsis. Das bedeutet nicht, allem zu misstrauen, sondern vor dem Teilen oder Glauben einer Meldung kurz innezuhalten: Wer hat diese Information veröffentlicht? Gibt es andere, unabhängige Quellen, die das bestätigen? Löst der Inhalt bei mir gerade starke Emotionen aus – und warum?

LMU-Forscher Stefan Feuerriegel bringt es auf den Punkt: Anhand des Inhalts allein lässt sich eine KI-Falschmeldung bald nicht mehr sicher erkennen. Deshalb kommt es umso mehr darauf an, vertrauenswürdige Quellen zu kennen und unabhängig zu recherchieren. Technologie kann helfen – aber das kritische Denken bleibt unersetzlich.