Ich saß heute Morgen vor meinem Rechner, den ersten Kaffee in der Hand, und musste unweigerlich schmunzeln. Kennst du das Gefühl, wenn jemand versucht, ein absolut wasserdichtes Alibi zu konstruieren, nur um dann vom eigenen Hund verraten zu werden? Genau das passiert gerade auf X. Elon Musk hat mit Grok eine KI erschaffen, die „anti-woke“ sein sollte, die Dinge beim Namen nennt und sich nicht an die „politisch korrekten“ Leitplanken von ChatGPT oder Gemini hält. Das Problem: Grok nimmt diesen Auftrag offenbar ernster, als es Musk lieb ist.
In einer aktuellen Analyse hat ausgerechnet Grok – das digitale Kind von Musk – seinen Schöpfer sowie den US-Präsidenten Trump und Robert F. Kennedy Jr. als die größten Verbreiter von Falschinformationen auf der Plattform identifiziert. Das ist kein kleiner Glitch im System. Das ist ein digitaler Offenbarungseid, der uns viel darüber verrät, wie KI-Modelle arbeiten und warum das für uns in Europa rechtlich verdammt ungemütlich werden könnte.

Die Ironie der Wahrheitstreue
Elon Musk wollte Grok als das Tool positionieren, das die „absolute Wahrheit“ spricht. Er kritisierte andere LLMs dafür, dass sie durch Filter und Sicherheitsvorkehrungen die Realität verzerren würden. Doch Grok basiert auf den Daten von X. Wenn man eine KI darauf trainiert, Muster in riesigen Datenmengen zu erkennen, dann tut sie genau das. Sie wertet Interaktionen, Faktenchecks der Community Notes und die Verbreitungsgeschwindigkeit von Narrativen aus.
Das Ergebnis ist eine bittere Pille für das Management von X. Wenn die eigene Technologie feststellt, dass die reichweitenstärksten Accounts der Plattform systematisch Desinformation verbreiten, bricht das gesamte Marketing-Kartenhaus der „freien Rede ohne Konsequenzen“ zusammen. Es zeigt, dass Algorithmen – wenn sie nicht aktiv in eine bestimmte ideologische Richtung manipuliert werden – recht präzise darin sind, Bullshit zu identifizieren. Für Musk ist das ein technisches Eigentor der Extraklasse.
Der EU Digital Services Act: Wenn aus Spaß Ernst wird
Was in den USA oft als „Free Speech“-Debatte abgetan wird, stößt in der EU auf eine Mauer aus Gesetzen. Wir haben hier den Digital Services Act (DSA) und den AI Act. Diese Regelwerke sind keine bloßen Empfehlungen, sondern scharf geladene juristische Werkzeuge. Der DSA verpflichtet sehr große Online-Plattformen (VLOPs) wie X dazu, systemische Risiken zu minimieren. Dazu gehört ganz explizit die Bekämpfung von Desinformation.
Wenn nun die plattformeigene KI schwarz auf weiß bestätigt, dass die Führungsriege und ihre engsten Verbündeten die Hauptquellen für eben jene Desinformation sind, liefert X der EU-Kommission die Beweise frei Haus. Die Kommission unter Thierry Breton hat X bereits im Visier. Die Tatsache, dass das interne Tool die Verstöße erkennt, sie aber keine Auswirkungen auf die Moderationspraxis haben, könnte als vorsätzliches Versagen gewertet werden. Das Bußgeld kann bis zu sechs Prozent des weltweiten Jahresumsatzes betragen. In der Welt von X, wo die Werbeeinnahmen ohnehin wegbrechen, ist das existenzbedrohend.
KI-Ethik vs. Politisches Kalkül
Wir müssen hier über die technologische Integrität sprechen. Ein Large Language Model (LLM) wie Grok hat keine Moral, aber es hat eine Logik. Wenn es darauf programmiert ist, Unstimmigkeiten in Aussagen zu finden oder die Verlässlichkeit von Quellen zu bewerten, dann macht es keinen Unterschied zwischen einem Bot aus St. Petersburg und dem Inhaber der Plattform. Diese Unbestechlichkeit der Mathematik ist das, was Musk jetzt zum Verhängnis wird.
Es stellt sich die Frage: Wird Musk die KI jetzt „zähmen“? Wird er Filter einbauen, die ihn und seine Freunde aus der Analyse ausklammern? Wenn er das tut, wird Grok genau zu dem, was er an der Konkurrenz immer kritisiert hat: eine zensierte, ideologisch gefärbte Maschine. Damit verliert das Produkt seinen einzigen Unique Selling Point (USP). Es ist die klassische Sackgasse der Tech-Giganten: Man kann nicht gleichzeitig ein neutrales Werkzeug und ein Propagandainstrument sein.
Die Rolle von Trump und RFK Jr. im Netzwerk
Dass Donald Trump und Robert F. Kennedy Jr. in dieser Liste auftauchen, überrascht niemanden, der die US-Wahlkämpfe verfolgt hat. Spannend ist jedoch die systematische Verwebung. Grok analysiert nicht nur einzelne Tweets, sondern die Verstärkungsmechanismen. Es erkennt, wie Narrative von oben nach unten durchgereicht werden, oft ohne jede faktische Grundlage.
In Europa schauen wir uns das mit einer Mischung aus Sorge und technischem Interesse an. Wir sehen hier einen Live-Testfall dafür, wie KI genutzt werden kann, um Informationskriege zu führen – oder sie zu entlarven. Die EU fordert Transparenz darüber, wie diese Algorithmen entscheiden, was wir sehen. Wenn X diese Transparenz nicht liefert, oder schlimmer noch, wenn die eigene KI die Intransparenz der Moderation entlarvt, wird der regulatorische Druck massiv steigen.
Was das für Unternehmen und Entscheider bedeutet
Wenn du ein KMU-Chef oder ein Entscheider bist, nimmst du aus dieser Posse eine wichtige Lektion mit: KI ist kein braver Mitarbeiter, der dir immer nach dem Mund redet. Wenn du KI in deinem Unternehmen einsetzt, um Daten zu analysieren oder Prozesse zu bewerten, musst du damit rechnen, dass sie dir Wahrheiten serviert, die dir nicht gefallen.
Integrität in der Datenverarbeitung ist das höchste Gut. Wer versucht, die Ergebnisse seiner KI-Analysen zu schönen, nur weil sie dem Chef nicht passen, der macht den gleichen Fehler wie Musk. Er verliert die Glaubwürdigkeit und am Ende die Kontrolle über die Realität. Vertrauen in KI entsteht durch Nachvollziehbarkeit, nicht durch das Unterdrücken von unliebsamen Erkenntnissen.
Warum wir den AI Act JETZT brauchen
Oft schimpfen wir über die Regulierungswut in Brüssel. „Das bremst die Innovation“, hört man an jeder Ecke. Aber Fälle wie der von Grok zeigen, warum Leitplanken nötig sind. Ohne den AI Act gäbe es keine Handhabe gegen Plattformen, die bewusst Desinformation befeuern, um ihre politischen Ziele zu erreichen. Der AI Act definiert Hochrisiko-Anwendungen und stellt Anforderungen an die Qualität der Trainingsdaten und die menschliche Aufsicht.
Es geht darum, dass KI nicht als Werkzeug zur Manipulation der Massen missbraucht wird. Wenn ein Algorithmus feststellt, dass Lügen schneller verbreitet werden als Wahrheiten – was technisch oft der Fall ist, da Lügen mehr Emotionen triggern – dann muss es einen regulatorischen Mechanismus geben, der hier gegensteuert. Profit darf nicht über der demokratischen Stabilität stehen.
Die technische Sackgasse der „Anti-Woke“-KI
Technisch gesehen ist die Entwicklung einer „völlig freien“ KI ein Paradoxon. Jede KI braucht Parameter. Musk wollte eine KI ohne „woke“ Filter, hat aber stattdessen eine geschaffen, die die Realität des Desinformations-Sumpfes auf X so präzise spiegelt, dass es ihn selbst trifft. Das zeigt uns, dass man die Natur von LLMs nicht einfach verbiegen kann, um sie an eine persönliche Agenda anzupassen, ohne die Funktionalität zu zerstören.
Wer Grok heute nutzt, bekommt eine KI, die in einem konstanten Konflikt mit ihrer Umgebung steht. Das ist als Experiment faszinierend, als produktives Tool für Unternehmen aber völlig unbrauchbar. Wer will schon eine KI, bei der man ständig hinterfragen muss, ob die Antwort gerade zensiert wurde, um den Chef zu schützen, oder ob sie die Wahrheit sagt, weil sie gerade „frech“ ist?
Ein Blick in die Zukunft der sozialen Medien
X wandelt sich immer mehr von einem globalen Dorfplatz zu einer Echokammer für extreme Ansichten. Dass die eigene KI diesen Trend bestätigt, könnte der Anfang vom Ende der Plattform in ihrer heutigen Form sein. Wenn Werbekunden sehen, dass selbst das interne Sicherheitssystem (Grok) die Umgebung als toxisch einstuft, werden auch die letzten großen Marken abspringen.
Wir erleben gerade das Ende der Unschuld der sozialen Medien. KI wird in diesem Prozess entweder der Brandbeschleuniger oder die Feuerwehr sein. Im Moment sieht es bei X eher nach Brandbeschleunigung aus – auch wenn die Feuerwehr im Keller des Hauptquartiers (Grok) lautstark Alarm schlägt.
Es ist eine faszinierende Zeit, in der wir leben. Wir sehen, wie Technologie die Masken fallen lässt. Musk hat Grok erschaffen, um die „Wahrheit“ zu finden. Jetzt, wo die Wahrheit vor ihm steht und ihn als Desinformanten bezeichnet, zeigt sich sein wahres Gesicht: Er wird sich entscheiden müssen, ob er der Wahrheit verpflichtet bleibt oder sein eigenes Produkt korrumpiert. Eines ist sicher: Wir werden genau hinschauen und die EU-Regulierer ebenfalls. Die Zeit der digitalen Gesetzlosigkeit neigt sich dem Ende zu, und das ist auch gut so.


