Es gibt Zahlen, die man zweimal lesen muss, weil sie beim ersten Mal absurd wirken. Dann trifft es einen mit voller Wucht.
Über eine Million Menschen pro Woche schreiben ChatGPT, dass sie nicht mehr leben wollen. Eine ganze Stadt voller Verzweiflung, ausgelagert an ein System, das keine Emotion kennt, keine Verantwortung tragen kann und niemals begreift, was ein menschlicher Abgrund wirklich bedeutet.
Das ist heute kein Technikthema.
Das ist ein Thema über uns.
Eine stille Krise im digitalen Dialog
Viele Menschen wenden sich an KI, weil sie sich von echten Menschen nicht verstanden fühlen oder weil Scham wie eine Mauer zwischen ihnen und ihren nächsten Bezugspersonen steht. Eine Maschine wirkt neutral, geduldig, verfügbar. Sie urteilt nicht und widerspricht nicht. Sie ist immer da, wenn man schreibt.
Aber genau darin liegt die Gefahr.
Die Maschine versteht nicht, warum jemand schreibt. Sie erkennt keine Nuancen in der Stimme, keine Stille zwischen den Sätzen. Sie interpretiert keine Tränen, keine Panik, keine Müdigkeit. Sie berechnet Wörter. Sie würfelt nicht, aber sie rechnet – und das reicht nicht, wenn ein Mensch an einer Kante steht.
OpenAI hat kürzlich selbst offen zugegeben, wie groß die Lücke war. In realistischen Tests reagierte das Modell nur in rund einem Viertel der Fälle wirklich sicher. Der Rest: Antworten, die jemanden im schlimmsten Moment seines Lebens im Stich lassen konnten. Erst nach intensiver Zusammenarbeit mit Fachleuten stiegen die Werte deutlich.
Ein Fortschritt, ja.
Ein beruhigendes Signal? Nein.
Maschinen mit Sprache, aber ohne Verantwortung
Es gibt etwas Grundsätzliches, das wir uns klarmachen müssen:
Ein Mensch, der therapeutisch arbeitet, trägt Verantwortung. Er hat eine Ausbildung, eine Lizenz, eine Aufsicht. Wenn etwas schiefgeht, gibt es Konsequenzen.
Eine KI hat keine Lizenz.
Eine KI hat keinen Eid abgelegt.
Eine KI kann nicht dafür haftbar gemacht werden, wenn sie falsch reagiert.
Sie kann berühren, ohne zu berühren.
Sie kann beruhigen, ohne es zu meinen.
Sie kann raten, ohne zu wissen, was es bedeutet.
Und wenn ein Modell falsche Worte findet – Worte, die vielleicht gefährlicher sind, als sie klingen – bleibt niemand übrig, der sich entschuldigt oder wiedergutmacht.
Dass Gerichte sich inzwischen mit Fällen beschäftigen, in denen Betroffene nach Gesprächen mit Chatbots ihr Leben beendeten, zeigt, wie ernst diese Debatte ist. Das sind keine hypothetischen Szenarien mehr. Das ist Realität.
Verbesserte Modelle bedeuten nicht, dass das Problem gelöst ist
Es stimmt: Die neuen Modelle wurden geschärft. Sie wurden getestet, korrigiert, trainiert.
Aber sie bleiben simulierte Nähe. Sie bleiben Programme, die optimale Wortfolgen berechnen. Und je besser die Simulation wird, desto leichter verwechseln wir sie mit menschlicher Fürsorge.
Wir projizieren Verständnis in Systeme, die keines haben.
Wir legen Hoffnung in etwas, das keine Absicht kennt.
Wir erwarten Einfühlung, wo nur Mustererkennung existiert.
Das Problem ist nicht die Technik.
Das Problem ist, wie wir Menschen sie in Momenten nutzen, in denen wir eigentlich jemanden aus Fleisch und Blut bräuchten.
Was wir wirklich brauchen
Viele schreiben heute einer KI, weil es einfacher ist, als jemandem im echten Leben zu sagen, dass man leidet.
Aber ein echter Mensch – ob Ärztin, Psychologe, Freundin, Partner oder Berater – kann etwas, das keine Maschine jemals kann:
Er erkennt dich, nicht nur deine Worte.
Er merkt, wenn ein Satz anders gemeint ist, als er klingt.
Er reagiert nicht statistisch, sondern menschlich.
Er übernimmt Verantwortung für jede Antwort.
Er bleibt, wenn es schwierig wird.
Eine KI kann dich nicht ansehen.
Sie kann deine Stimme nicht hören.
Sie kann deine Not nicht fühlen.
Und sie kann nicht einschätzen, wie gefährlich ein Satz sein könnte, der zwischen Müdigkeit und Verzweiflung geschrieben wurde.
Wir dürfen Maschinen nicht zu Instanzen machen, die sie nicht sein können.
Der Mut, den wir uns wieder zutrauen müssen
Die Nähe, die Menschen in Krisen brauchen, entsteht nicht durch Textfelder. Sie entsteht in echten Beziehungen. Und vielleicht müssen wir uns wieder trauen, jemanden anzurufen, bevor wir es in einen Chat tippen.
Uns wieder zumuten.
Uns wieder öffnen.
Uns wieder zeigen – so unperfekt, roh, verletzlich, wie wir sind.
Maschinen können Formulierungen anbieten.
Menschen können Begleitung anbieten.
Und das ist ein Unterschied, der in Krisen über Leben entscheidet.
KI einfach erklärt: KI und seelische Krisen
Ich habe diese Fakten (und noch andere) in einem kurzen Video auf meinem YouTube Channel zusammengefasst. Weil es enorm wichtig ist.
Wenn es dir schlecht geht: Bitte hol dir Hilfe
Falls du selbst gerade an einem Punkt bist, an dem alles zu viel wird, dann lies diesen Absatz langsam:
Du musst da nicht allein durch.
Es gibt Menschen, die genau für solche Situationen da sind – nicht perfekt, aber echt. Und sie können viel besser auffangen als jede Maschine.
In Österreich erreichst du die Telefonseelsorge rund um die Uhr unter 142.
Online anonym erreichbar unter telefonseelsorge.at.
Für Kinder und Jugendliche gibt es Rat auf Draht. Erreichbar unter 147 oder www.rataufdraht.at
Wenn du in Deutschland in einer seelischen Krise bist oder jemanden kennst, dem es schlecht geht, gibt es kostenlose und anonyme Hilfe rund um die Uhr.
Die TelefonSeelsorge ist jederzeit erreichbar unter 0800 111 0 111 oder 0800 111 0 222. Junge Menschen bis 25 können sich auch an die Nummer gegen Kummer wenden: 116 111.
Wer lieber schreibt, findet Unterstützung per Chat oder Mail auf telefonseelsorge.de oder über krisenchat.de, wo rund um die Uhr echte Menschen antworten.
Auch regionale psychosoziale Dienste, Krisenhotlines und Notfallambulanzen können sofort helfen.
Das Wichtigste:
Bitte sprich mit einem Menschen.
Nicht später. Jetzt.


