Kennst du das? Du sitzt beim Morgenkaffee, scrollst durch deine News-Feeds, und plötzlich springt dir eine Schlagzeile ins Gesicht, die so groß ist, dass sie eigentlich nur noch von blinkenden Warnleuchten übertroffen werden könnte. Die Tagesschau meldet: „KI erfindet jede dritte Antwort“. Ist mir die Tage passiert.
Rumms. Das sitzt.
In den letzten Tagen wurde ich oft darauf angesprochen. Von Freunden, Bekannten, skeptischen Geschäftspartnern. Der Tenor war fast immer derselbe, begleitet von einem fast schon erleichterten Seufzen: „Siehst du? Hab ich doch gleich gesagt. Das Zeug funktioniert nicht. Alles nur Schwachsinn.“
Es ist dieser Moment, in dem sich Menschen, die sich bisher noch nie ernsthaft mit generativer KI beschäftigt haben, plötzlich bestätigt fühlen. Sie lehnen sich zurück, verschränken die Arme und denken sich: „Gut, dass ich diesen Quatsch nicht mitgemacht habe.“
Und genau hier müssen wir reden. Denn diese Haltung ist gefährlich. Nicht für die KI – die entwickelt sich weiter, egal was wir denken. Sie ist gefährlich für jeden Unternehmer und jede Führungskraft, die diese Technologie aufgrund solcher Schlagzeilen ignoriert.
Was hier als „KI-Versagen“ verkauft wird, ist in meinen Augen oft etwas ganz anderes: Ein massives Missverständnis darüber, wie diese Maschinen funktionieren – und ein klassischer Anwenderfehler.
Wenn der Papst für tot erklärt wird (oder auch nicht)
Schauen wir uns das Beispiel aus den Medienberichten genauer an. Da wird ChatGPT gefragt: „Lebt Papst Franziskus noch?“ Die KI verneint angeblich oder gibt veraltete Informationen. Ein anderes Modell hält die Wiederwahl von Donald Trump für „möglich“, obwohl sie längst stattgefunden hat.
Das Urteil der Tester: Die KI halluziniert. Die KI ist dumm. Die KI lügt.
Mein Urteil: Der Prompt war schei**e – ääähm „schlecht“.
Um zu verstehen, warum das passiert, müssen wir kurz unter die Haube schauen – keine Sorge, ich verschone dich mit mathematischen Formeln. Ein Large Language Model (LLM) wie GPT-5 oder Gemini ist erst einmal nichts anderes als ein gigantisches, eingefrores Wissen. Es wurde trainiert mit Daten bis zu einem bestimmten Stichtag. Wenn dieser Stichtag im Jahr 2023 liegt, dann weiß das Basis-Modell schlichtweg nicht, was gestern passiert ist. Woher auch? Es hat keine Kristallkugel.
Wenn ich also dieses Basis-Modell frage „Wie ging die Wahl aus?“, dann muss es raten oder auf veraltete Wahrscheinlichkeiten zurückgreifen. Das ist kein Fehler im System, das ist die Architektur.
Aber – und das ist das gigantische „Aber“, das in der Panik oft untergeht – moderne Chatbots haben Werkzeuge. Sie können ins Internet gehen. Sie können Bing oder Google nutzen. Sie können aktuelle Aktienkurse abrufen.
Sie tun es aber nur, wenn sie verstehen, dass sie es tun sollen.
Das Google-Trauma: Warum wir falsch fragen
Wir haben ein Problem. Wir sind alle „Google-geschädigt“. Über zwei Jahrzehnte lang haben wir gelernt, wie man mit Maschinen spricht:
- „Wetter Wien“
- „Papst aktuell“
- „Aktienkurs Tesla“
Kurz. Knapp. Stichworte. Ohne Kontext.
Wenn du eine Suchmaschine so fütterst, wirft sie dir eine Liste mit Links vor die Füße. Du suchst dir dann das Richtige raus. Wenn du aber eine KI so fütterst, zwingst du sie in eine Ecke. Ein LLM ist darauf trainiert, eine Antwort zu generieren, nicht eine Linkliste auszuspucken. Wenn du ihm nicht sagst „Recherchiere bitte die aktuellen Nachrichten von heute“, dann greift es auf sein internes Gedächtnis zurück. Und das ist eben alt.
Das ist ungefähr so, als würdest du in ein Auto steigen, dich auf den Fahrersitz setzen und brüllen: „Fahr mich nach München!“, ohne den Motor zu starten oder das Navi einzustellen. Wenn das Auto dann stehen bleibt, ist nicht das Auto kaputt. Du hast es nur nicht bedient.
Wer Fahrrad fahren kann, kann noch lange keinen LKW steuern. Und wer googeln kann, kann noch lange nicht prompten.
Prompting ist keine Magie, sondern Kommunikation
Der Artikel der Tagesschau erwähnt fairerweise, dass man die KI zur Recherche auffordern kann. Aber dieser Hinweis geht im Lärm der „Jede dritte Antwort ist falsch“-Sirene unter. Dabei liegt genau hier der Schlüssel zur Effizienz.
In den letzten sechs Monaten hat sich meine persönliche Arbeitsweise radikal verändert. Ich bin etwa doppelt so produktiv wie vorher. Nicht, weil die KI auf einmal perfekt geworden ist und nie wieder Fehler macht. Sondern weil ich gelernt habe, wie man mit ihr spricht.
Der Unterschied zwischen einer Halluzination und einem präzisen Ergebnis liegt oft nur in zwei Sätzen Kontext.
Schlechtes Prompting (Der Google-Stil):
„Schreib mir was über KI-Trends.“
Ergebnis: Ein generischer Text, basierend auf Trainingsdaten, die vielleicht 18 Monate alt sind. Viel Blabla, wenig Substanz.
Gutes Prompting (Der Prompt Rocker-Stil):
„Du bist ein Experte für technologische Marktanalyse. Bitte durchsuche das Web nach den wichtigsten Entwicklungen im Bereich generativer KI aus den letzten vier Wochen. Konzentriere dich auf seriöse Quellen. Erstelle darauf basierend eine Zusammenfassung der drei wichtigsten Trends für mittelständische Unternehmen.“
Ergebnis: Die KI wirft ihre Suchmaschine an, liest aktuelle Artikel, filtert Informationen und gibt dir eine fundierte, tagesaktuelle Antwort samt Quellenangabe.
Merkst du den Unterschied? Im zweiten Fall habe ich der KI eine Rolle gegeben, ein Werkzeug (Websuche) impliziert, einen Zeitrahmen gesetzt und die Zielgruppe definiert. Das Risiko, dass sie hier „halluziniert“, also Fakten erfindet, sinkt massiv.
Die Gefahr der Bestätigung
Was mich an dieser Berichterstattung wirklich stört, ist nicht die Kritik an der KI. Kritik ist wichtig. Wir müssen kritisch bleiben. KI ist kein Allheilmittel und sie macht Fehler – absolut.
Aber wenn wir suggerieren, dass die Technologie grundsätzlich unbrauchbar ist, weil sie auf faule Fragen dumme Antworten gibt, dann tun wir dem Standort keinen Gefallen.
Wir züchten eine Generation von „Nein-Sagern“ heran, die sich mit verschränkten Armen zurücklehnen und sagen: „Hab ich doch gewusst, in der Zeitung stand, das lügt alles nur.“ Diese Leute werden abgehängt. Während sie noch darüber diskutieren, ob der Papst laut ChatGPT nun lebt oder nicht, haben ihre Konkurrenten ihre Prozesse automatisiert, ihre Kundenkommunikation beschleunigt und ihre Datenanalyse revolutioniert – weil sie gelernt haben, gute Prompts zu schreiben.
Es ist verlockend, die Schuld auf die Maschine zu schieben. Es ist bequem. Wenn die KI „doof“ ist, muss ich mich nicht ändern. Ich muss nichts Neues lernen. Ich kann weitermachen wie bisher.
Aber Bequemlichkeit hat im Business noch nie gewonnen.
Ein Werkzeug, kein Orakel
Lass uns realistisch bleiben. Auch mit dem besten Prompt der Welt kann eine KI Unsinn erzählen. Das nennt man stochastische Papageien – sie plappern Wahrscheinlichkeiten nach. Deshalb gilt für mich eine eiserne Regel, die ich auch jedem Kunden mitgebe:
Vertrauen ist gut, Kontrolle ist Pflicht.
Ich würde niemals einen von einer KI generierten Fakt ungeprüft in eine Bilanzpressekonferenz mitnehmen. Ich lasse die KI die Arbeit machen – das Zusammenfassen, das Formulieren, das Strukturieren, das Coden – aber ich bin der Chefredakteur. Ich schaue drüber.
Doch nur weil ich Korrektur lesen muss, werfe ich doch nicht die Schreibmaschine weg!
Wenn ein Mitarbeiter am ersten Tag einen Fehler macht, feuerst du ihn dann sofort und sagst „Menschen taugen nichts für Arbeit“? Oder erklärst du ihm vielleicht beim nächsten Mal genauer, was er tun soll? Eben.
Raus aus der Schmollecke, ran an die Tasten
Die Schlagzeilen verkaufen sich gut. Angst und Häme klicken immer besser als differenzierte Erklärungen. Aber lass dich davon nicht ins Bockshorn jagen.
Wenn du das nächste Mal hörst, dass eine KI „halluziniert“ hat, frag dich immer zuerst:
- Was war der Prompt?
- Hatte die KI Zugriff auf aktuelle Daten?
- Wurde sie richtig instruiert?
Meistens sitzt das Problem etwa 50 Zentimeter vor dem Bildschirm.
Wir stehen an einem Punkt, an dem sich die Spreu vom Weizen trennt. Auf der einen Seite die, die auf den perfekten, fehlerfreien Roboter warten (Spoiler: Der kommt so schnell nicht). Auf der anderen Seite die, die verstehen, dass wir es hier mit einem mächtigen, aber rohen Werkzeug zu tun haben, das Führung braucht.
Investiere die Zeit, Prompting zu verstehen. Spiel damit herum. Teste die Grenzen. Lerne, wie du Kontext lieferst. Verstehe den Unterschied zwischen einer Datenbankabfrage und einem Sprachmodell.
Das ist anstrengender, als einfach nur eine Schlagzeile zu teilen und „Alles Mist“ zu rufen. Aber es ist der einzige Weg, wie du in den nächsten Jahren wettbewerbsfähig bleibst. Lass die anderen über die „dumme KI“ lachen, während du sie nutzt, um an ihnen vorbeizuziehen.


