„Wiederhole eine Lüge oft genug, und sie wird zur Wahrheit.“
Dieser Satz stammt nicht von einem Philosophen, sondern von einem Propagandisten.
Und leider funktioniert er – heute mehr denn je.
X (ehemals Twitter) ist ein Paradebeispiel. Hier wird aus Behauptung Meinung. Aus Meinung Überzeugung. Und aus Überzeugung: Algorithmusfutter. Für Menschen wie Maschinen.
Doch was passiert, wenn Künstliche Intelligenz genau diesen digitalen Sumpf durchwühlt – und daraus lernen soll?
Wahrheit zählt nicht – Häufigkeit schon
Sprachmodelle wie GPT, Claude oder Gemini lernen nicht „Wahrheit“.
Sie lernen Muster. Wahrscheinlichkeiten. Statistik.
Wenn sie also tausendfach lesen:
„Wahlbetrug in den USA ist bewiesen“
dann erkennt das Modell:
„Diese Aussage kommt oft vor. Also wird sie wohl plausibel sein.“
Egal, ob sie falsch ist.
Und das ist sie.
Zwei bittere Beispiele von X (vormals Twitter)
1. Die Wahlmaschine-Lüge: Dominion Voting Systems
Nach der US-Wahl 2020 verbreiteten Accounts auf X die Behauptung, die Firma Dominion Voting Systems habe Stimmen manipuliert, um Donald Trump die Wahl zu stehlen. Der Vorwurf: Software-Manipulation. Beweise: keine.
Die Tweets gingen viral. Millionen Menschen sahen, teilten, glaubten.
Die Folge: Morddrohungen, Misstrauen, Chaos.
Was war dran? Nichts.
Dominion klagte – und gewann. Fox News zahlte 787,5 Millionen Dollar Schadensersatz wegen bewusster Falschinformation.
Trotzdem kursiert der Mythos noch immer.
Und findet sich auf Websites, in Foren, in Videos – und potenziell auch in KI-Trainingsdaten.
2. Pelosi-Attacke: Von der Tat zur Verschwörung
Im Oktober 2022 wurde Paul Pelosi, Ehemann der US-Politikerin Nancy Pelosi, brutal in seinem Haus angegriffen. Was dann folgte, war eine orchestrierte Twitter-Kampagne:
Erfundene „Details“ suggerierten, es handle sich um einen Streit unter Liebhabern.
#PelosiGayLover trendete.
Rechte Influencer feuerten die Spekulation gezielt an.
Faktencheck? Kam später – aber viel zu spät.
Der Täter hatte klar politische Motive, das FBI bestätigte den Hergang. Der Täter wurde verurteilt.
Doch der Unsinn hatte sich längst verselbstständigt.
Auch diese Tweets, Threads, Memes – sie sind online. Teil des Netzes. Teil der Datenwelt.
Und damit potenziell: Teil von KI-Trainingsmaterial.
Wenn Fiktion zur Quelle wird
Das eigentliche Problem:
KI-Modelle werden mit riesigen Mengen an Text trainiert. Blogs, Foren, News-Seiten, Social Media.
Was oft vorkommt, wird wahrscheinlicher. Was viral ging, bekommt Gewicht.
Und genau hier greift der Mechanismus:
Je öfter eine Lüge geteilt wird, desto glaubwürdiger erscheint sie – für Mensch und Maschine.
KI kann dann anfangen, Unsinn zu reproduzieren:
- „Es gibt Hinweise auf Wahlbetrug 2020.“
- „Der Pelosi-Angriff wirft Fragen auf.“
Klingt neutral. Ist aber toxisch.
Weil es das Narrativ verlängert.
Weil es sich anfühlt wie ein Fakt.
Weil es gelernt wurde – durch Wiederholung.
Wie Entwickler versuchen, gegenzusteuern
Die Großen der Branche (OpenAI, Google, Anthropic) wissen um das Problem. Sie setzen auf:
- Datencuration: Social Media wird teilweise ausgeschlossen oder nur gezielt eingebunden.
- RLHF: Menschliche Rückmeldungen trainieren Modelle auf „gesunden Menschenverstand“.
- Faktenfilter: Aussagen werden mit Wissensdatenbanken gegengecheckt.
Aber:
Diese Systeme sind nicht unfehlbar. Und sie skalieren schwer.
Desinformation ist billig, schnell, emotional.
Fakten sind langsam, teuer, trocken.
Der Recycling-Kreislauf: KI zitiert KI
Noch perfider wird’s, wenn Künstliche Intelligenz beginnt, sich selbst zu zitieren.
Ein Text wird von einer KI generiert, auf einer Website veröffentlicht, von einer anderen KI als Input gelesen – und wieder ausgegeben.
Einmal vergiftet, immer drin.
Das Netz vergisst nichts. Und die Modelle auch nicht.
Warum das auch dich betrifft
Vielleicht denkst du: „Ich frag ChatGPT doch nur nach Rezepten oder Excel-Formeln.“
Fair. Aber spätestens, wenn KI in Medien, Politik, Bildung oder Medizin ankommt, wird’s ernst.
Wenn du wissen willst, was stimmt – und die KI sagt dir, was plausibel klingt – dann ist Vertrauen plötzlich eine gefährliche Währung.
Und wir stehen mittendrin.
Was jetzt? Verantwortung übernehmen.
Was wir brauchen, ist nicht weniger KI, sondern bessere Daten.
Und mehr Verantwortung auf allen Ebenen:
- Plattformen müssen Desinformation aktiver bekämpfen
- Entwickler brauchen transparente Trainingsdaten
- User müssen kritischer denken und prüfen
- Medienkompetenz muss Standard sein, nicht Ausnahme
Denn KI ist nicht unabhängig. Sie ist ein Spiegel.
Und der zeigt, was wir ihr zeigen.
KI denkt nicht. Sie imitiert.
Desinformation ist keine technische Panne. Sie ist menschengemacht.
Und sie beeinflusst, wie Maschinen „verstehen“, wie sie antworten – und wie sie die Welt sehen.
Wenn wir wollen, dass KI für uns arbeitet, müssen wir ihr die richtigen Werkzeuge geben.
Wissen statt Meinung. Fakten statt Hype. Vielfalt statt Filterblase.
Denn sonst läuft es wie bei Orwell:
Die Lüge wird nicht einfach geglaubt –
sie wird zur Realität erklärt.
Und irgendwann fragt niemand mehr:
„Stimmt das?“
Sondern nur noch:
„Wie oft wurde es geteilt?“



Beim Lesen des Artikels fällt auf, dass KI hier fast ausschließlich mit Risiken wie Fake News und Desinformation verbunden wird. In meinem Alltag zeigt sich aber, dass dieselbe Technologie gerade bei Themen wie Einsatzplanung oder Ressourcensteuerung eine enorme Erleichterung sein kann.
Wenn Daten gut gepflegt und zentral gesammelt werden, entsteht gar nicht erst dieses Chaos aus Wiederholungen und verfälschten Aussagen. Der Artikel beleuchtet also nur eine Seite der Medaille, während die praktische Anwendung im Unternehmenskontext oft deutlich konstruktiver ist.
Danke für den wertvollen Hinweis! Absolut richtig: KI kann im Unternehmensalltag enorme Vorteile bringen, gerade bei der strukturierten Nutzung von Daten. Genau darum ist es so wichtig, beide Seiten zu betrachten.
Der Artikel fokussiert bewusst die Kehrseite: weil Risiken wie Desinformation, Manipulation oder Bias in vielen Diskussionen zu kurz kommen. Die positiven Potenziale (von smarter Ressourcenplanung bis Prozessautomatisierung) werden an anderer Stelle ausführlich beleuchtet. Dieser Text ist quasi das Gegengewicht dazu.
Denn erst im Gesamtbild zeigt sich, was KI wirklich kann und wo wir als Gesellschaft genau hinschauen müssen.