Letzte Woche saß ich mit einem alten Bekannten zusammen, kein Techie, sondern jemand, der mit beiden Beinen im klassischen Handwerk steht. Wir kamen auf das Thema generative KI zu sprechen. Er schaute mich über seinen Kaffee hinweg an und fragte ganz trocken: „Sag mal, Alex, macht uns das Zeug am Ende nicht einfach nur dumm? Wenn ich für alles eine Maschine frage, verkümmert dann nicht da oben drin alles, was uns als Menschen ausmacht?“ Diese Frage blieb hängen. Sie war kein bloßes Gequatsche, sondern traf einen Kern, den wir in der aktuellen Begeisterung oft übersehen. Wir unterhielten uns noch lange darüber, ob wir gerade dabei sind, unsere wichtigste Fähigkeit, das kritische Denken, an einen Algorithmus zu delegieren, nur weil es bequemer ist.
Das Prinzip des geringsten Widerstands
Unser Gehirn ist von Natur aus darauf programmiert, Energie zu sparen. In der Psychologie spricht man vom „Cognitive Miser“ (ok, musste ich googlen), dem kognitiven Geizkragen. Wir suchen instinktiv den Weg des geringsten Widerstands, um kognitive Ressourcen für vermeintlich wichtigere Überlebensaufgaben zu schonen. KI-Tools wie ChatGPT oder Claude bedienen diesen Instinkt perfekt. Sie bieten eine „Frictionless Experience“, also eine Erfahrung ohne Reibung. Wenn Du eine komplexe Analyse brauchst, liefert die KI sie in Sekunden. Das Problem dabei: Wo keine Reibung ist, findet auch kein echtes Lernen statt.
Relevanz entsteht in unserem Kopf nicht durch das passive Konsumieren von Ergebnissen, sondern durch den Prozess der Erarbeitung. Wenn wir die Synthese und Analyse von Informationen vollständig auslagern, riskieren wir das, was Forscher als „kognitive Atrophie“ bezeichnen. Es ist wie mit einem Muskel, den man nicht mehr benutzt. Wer nur noch mit dem E-Bike den Berg hochfährt, wird in den Beinen nicht kräftiger. In der Welt der generativen KI bedeutet das: Wenn wir nicht mehr selbst strukturieren, formulieren und logische Brüche suchen, verlieren wir die Fähigkeit, genau das zu tun.

Die Illusion des Wissens
Ein besonders tückisches Phänomen bei der Nutzung von LLMs (Large Language Models) ist die „Illusion von Wissen“. Da die Antworten der KI meist sehr selbstbewusst, gut strukturiert und sprachlich geschliffen daherkommen, suggerieren sie eine Tiefe, die oft gar nicht vorhanden ist. Wir lesen eine Zusammenfassung und haben das Gefühl, das Thema verstanden zu haben. In Wahrheit haben wir nur die Oberfläche gestreift.
Dieses „Hollowed Mind“-Syndrom beschreibt den Zustand, in dem wir zwar über viele Informationen verfügen, aber die zugrunde liegenden Prinzipien nicht mehr durchdringen. Wir vertrauen darauf, dass die Maschine die Logikprüfung übernommen hat. Studien zeigen bereits jetzt, dass Personen, die sich blind auf KI verlassen, bei der unabhängigen Bewertung von Inhalten schlechter abschneiden als jene, die KI nur als Ergänzung nutzen. Es fehlt die kognitive Auseinandersetzung, das „Ringen“ mit der Materie.
Was die Neurowissenschaft dazu sagt
Es ist kein bloßes Bauchgefühl, dass unser Gehirn im „KI-Modus“ anders arbeitet. Aktuelle Berichte nutzen Elektroenzephalografie (EEG), um die Gehirnaktivität während der Arbeit mit KI zu messen. Die Ergebnisse sind ernüchternd: Teilnehmer, die Texte mit Unterstützung von KI verfassten, zeigten eine deutlich geringere neuronale Konnektivität in jenen Netzwerken, die normalerweise für komplexe kognitive Aufgaben zuständig sind. Das Gehirn macht schlichtweg weniger Arbeit.
Besonders besorgniserregend ist der „Carry-over-Effekt“. Die Daten deuten darauf hin, dass diese schwächere neuronale Aktivität teilweise bestehen bleibt, auch wenn die Probanden danach Aufgaben ohne KI-Hilfe lösen mussten. Es scheint, als würde sich das Gehirn auf die externe Hilfe einstellen und in einen Standby-Modus schalten. Wer gewohnt ist, dass die KI das „Denken“ übernimmt, hat größere Schwierigkeiten, sich später an Details der produzierten Inhalte zu erinnern oder die logische Struktur ohne fremde Hilfe zu reproduzieren.
Der Verlust der Problemlösekompetenz
Ein zentraler Punkt in der Diskussion ist die Problemlösekompetenz. Wenn wir jedes Problem sofort in einen Prompt gießen, überspringen wir die Phase der Frustration, die für echtes Lernen essentiell ist. In der Bildungsforschung spricht man von „Desirable Difficulties“, also wünschenswerten Schwierigkeiten. Nur wenn wir uns an einem Problem abarbeiten, bilden sich neue synaptische Verbindungen.
Untersuchungen an Bildungseinrichtungen zeigen, dass eine hohe Abhängigkeit von KI-Tools mit niedrigeren Werten beim kritischen Denken korreliert. Besonders bei jüngeren Generationen wird gewarnt, dass die Fähigkeit zur unabhängigen Analyse und Evaluierung verkümmert, wenn Algorithmen die kognitiven Aufgaben übernehmen. Wir riskieren eine Generation von „Prompt-Operators“, die zwar wissen, wie man eine Antwort generiert, aber nicht mehr beurteilen können, ob diese Antwort logisch hergeleitet wurde oder auf einer Halluzination basiert.
KI als Exoskelett oder als Krücke?
Die entscheidende Frage für uns Unternehmer und Entscheider ist: Wie nutzen wir dieses Werkzeug, ohne uns selbst abzuschaffen? Wir müssen unterscheiden, ob wir KI als „kognitiven Krückstock“ oder als „kognitives Exoskelett“ betrachten. Eine Krücke ersetzt eine fehlende oder geschwächte Funktion. Ein Exoskelett hingegen verstärkt die vorhandene Kraft, setzt aber voraus, dass man sich selbst bewegt.
Es gibt durchaus Hinweise darauf, dass generative KI das kritische Denken sogar fördern kann, wenn sie richtig eingesetzt wird. Der Schlüssel liegt im sogenannten „Metacognitive Scaffolding“. Das bedeutet, die KI nicht für die finale Lösung zu nutzen, sondern als Sparringspartner für den Prozess. Zum Beispiel, um die eigene Argumentation auf logische Fehler prüfen zu lassen oder um Gegenpositionen zu einer eigenen These zu erarbeiten. Hier bleibt die Denkleistung beim Menschen, während die KI die Rolle eines kritischen Gegenübers einnimmt.
Die Gefahr des Automation Bias
Ein großes Risiko im unternehmerischen Kontext ist der „Automation Bias“. Das ist die Tendenz, automatisierten Vorschlägen mehr zu vertrauen als der eigenen Wahrnehmung. Wenn das System sagt, dass Strategie A die beste ist, neigen wir dazu, weniger kritisch nachzufragen, besonders unter Zeitdruck.
Dieses Vertrauen führt zu einer passiven Abhängigkeit. Wir verlieren die Souveränität über unsere eigenen Entscheidungen. Studien mit Wissensarbeitern zeigen, dass das kritische Denken massiv abnimmt, wenn das Vertrauen in die KI zu hoch ist. Wer hingegen sein eigenes Wissen höher gewichtet und die KI-Ergebnisse aktiv hinterfragt, profitiert von einer tatsächlichen Leistungssteigerung. Es geht also um eine Balance zwischen technologischer Unterstützung und intellektueller Eigenständigkeit.
Die ökonomischen und ethischen Konsequenzen
Wenn wir als Gesellschaft kollektiv unsere Fähigkeit zum tiefen Denken einbüßen, hat das weitreichende Konsequenzen. Eine Bevölkerung, die ihre Argumente und Meinungen von Algorithmen generieren lässt, ist leichter manipulierbar. Wer nicht mehr gelernt hat, komplexe Sachverhalte selbst zu dekonstruieren, erkennt auch die subtilen Verzerrungen in KI-generierten Inhalten nicht mehr.
Aus unternehmerischer Sicht entsteht eine „kognitive Schuld“. Kurzfristig gewinnen wir an Geschwindigkeit und Produktivität. Langfristig verlieren wir jedoch die Innovationskraft, die nur aus echtem Verständnis und dem Mut zum „Andersdenken“ entsteht. Wenn alle die gleichen Modelle mit den gleichen Prompts füttern, landen wir in einer Einheitsbrei-Kultur, in der echter Fortschritt durch statistische Mittelwerte ersetzt wird.
Strategien für den verantwortungsvollen Umgang
Was können wir also tun, um nicht „dumm“ zu werden? Es braucht eine bewusste Entscheidung für die kognitive Anstrengung. Hier sind ein paar Ansätze, die ich selbst versuche zu beherzigen:
- Zuerst denken, dann prompten: Formuliere Deine Gedanken, Deine Struktur und Deine Thesen selbst, bevor Du die KI bittest, etwas daraus zu machen.
- Die KI herausfordern: Nutze Prompts wie „Kritisiere meine Argumentation“ oder „Finde die Schwachstellen in diesem Konzept“.
- Validierungspflicht: Jede KI-Antwort muss durch eine eigene, unabhängige Prüfung. Wer die Logik hinter einer Antwort nicht erklären kann, darf sie nicht verwenden.
- Analoge Pausen: Gönn Deinem Gehirn Zeiten, in denen es ohne digitale Hilfe arbeiten muss. Das Schreiben von Hand oder das Skizzieren auf Papier zwingt zur kognitiven Präsenz.
Technologie ist ein Werkzeug, kein Selbstzweck. Fortschritt entsteht durch Verständnis, nicht durch blinden Einsatz. Wir müssen aufpassen, dass wir die Bequemlichkeit der KI nicht mit echtem Fortschritt verwechseln. Wenn wir aufhören, die schwierigen Fragen selbst zu beantworten, geben wir das Beste an uns ab: unsere Neugier und unsere Fähigkeit, die Welt aus uns heraus zu begreifen.
Die Sorge meines Bekannten beim Kaffee war also absolut berechtigt. Die Gefahr ist real, aber sie ist kein Schicksal. Es liegt an uns, ob wir die KI nutzen, um über uns hinauszuwachsen, oder ob wir uns gemütlich in die kognitive Abhängigkeit gleiten lassen. Ich entscheide mich für das Exoskelett. Was ist mit Dir?
Vom blinden Ausprobieren zur intellektuellen Präzision
Am Beginn meiner Arbeit mit generativer KI habe ich viel Zeit mit endlosen Iterationsschleifen verschwendet. Ich habe Prompts oft vage formuliert und gehofft, dass das Modell meine Intention errät. Heute ist das anders. Die Technik hat mich dazu gezwungen, meine eigenen Gedanken und Zielsetzungen radikal zu schärfen, bevor ich den ersten Satz schreibe.
Ich iteriere heute deutlich weniger, weil ich die KI nicht mehr als Selbstzweck, sondern als Werkzeug betrachte, das nur durch echtes Verständnis präzise gesteuert werden kann. Für Dich bedeutet das: Die eigentliche Arbeit findet im Kopf statt, noch bevor das Tool zum Einsatz kommt. Wahrer Fortschritt in der Anwendung entsteht nicht durch blindes Ausprobieren, sondern durch die Fähigkeit, Anforderungen messerscharf zu formulieren. Diese gewonnene Präzision ist für mich ein wesentlicher Teil einer verantwortungsvollen und unternehmerisch sinnvollen Nutzung von KI.
Weiterführende Links:
- Macht KI dumm? Die umfassende Analyse
- The impact of generative AI on critical thinking skills – R Discovery
- Cognitive offloading or cognitive overload? – Frontiers in Psychology
- The scientist who predicted AI psychosis issues another dire warning – PsyPost
- KI im Klassenzimmer: Globale Studie warnt vor Risiken


