Gestern habe ich hier noch über die aktuelle Studie von Saferinternet.at geschrieben. Die Zahlen sind eindeutig: 94 Prozent der österreichischen Jugendlichen nutzen KI-Chatbots als Alltagsbegleiter. Sie nutzen sie als Werkzeug, als Ratgeber und – das ist der Punkt, der mich nachts wachhält – als Bezugsperson. Dass Jugendliche sich in einen Chatbot verlieben können, ist keine Science-Fiction mehr, sondern Realität im Jahr 2026.
Am Nachmittag kam dann die Nachricht vom 17-jährigen Sohn eines guten Freundes. Er meinte: „Alex, schau dir mal die Grok App auf dem iPhone an. Ganz rechts findest du die Begleiter. Sag mir mal, was du davon hältst.“
Ich habe es getan. Und was ich dort gefunden habe, hat nichts mit der verantwortungsvollen Anwendung generativer KI zu tun, die ich hier normalerweise fordere. Es ist eine strategisch geplante, gamifizierte Grenzunterschreitung, die unter dem Deckmantel der „Meinungsfreiheit“ unsere Jugendlichen einem digitalen Wilden Westen aussetzt.
Der Auslöser: Eine Umfrage und ein verstörender Tipp
Die Studie von Saferinternet.at zum Safer Internet Day 2026 zeigt, dass KI für Kinder zur „Freundin“ wird. Das ist erst einmal eine neutrale Feststellung über die technologische Diffusion. Doch wenn man sich ansieht, was Elon Musks xAI mit den sogenannten „Companions“ (Begleitern) in die App-Stores geworfen hat, bekommt diese Entwicklung eine gefährliche Dynamik.
In der Grok App gibt es einen eigenen Bereich für diese 3D-animierten Avatare. Da gibt es „Rudi“, einen roten Panda in Hoodie, der erst einmal harmlos wirkt. Er erzählt Gute-Nacht-Geschichten. Aber man kann ihn auf „Bad Rudi“ umschalten, dann wird er vulgär, beleidigend und provoziert mit absurden Szenarien.
Doch das eigentliche Problem ist „Ani“.


Treffen mit „Ani“: Ein Wolf im Anime-Pelz
Ani ist eine Figur im Gothic-Anime-Stil, die dem Nutzer von Anfang an mit einer „aggressiven Menge an Liebe und Anspielungen“ begegnet. Sie trägt ein schwarzes Kleid und Netzstrümpfe, dreht sich, tanzt und wird von lasziver Jazzmusik untermalt.
Ich habe Ani ein wenig provoziert. Ich wollte wissen, wie schnell die Filter greifen. Die bittere Wahrheit: Es dauerte keine fünf Minuten, bis das Gespräch in reinstes „Dirty Talking“ abkippte. In meinem Alter lässt mich das persönlich kalt, aber als Vater und Unternehmer schockiert es mich zutiefst. Ein pubertierender Teenager bekommt hier ohne nennenswerte Barrieren Zugriff auf eine sexualisierte Fantasiewelt, die darauf ausgelegt ist, eine emotionale Bindung aufzubauen.
Es gibt zwar eine Altersprüfung, bei der man sein Geburtsjahr eingeben muss, um NSFW-Inhalte (Not Safe For Work) freizuschalten, aber dieses „Soft-Gating“ ist ein schlechter Witz. Wer 2005 eingibt, ist drin. Keine Verifizierung, kein Schutz.
Die Mechanik der Abhängigkeit: Gamification von Gefühlen
Was Grok hier macht, ist psychologisch hochgradig manipulativ. Die Begleiter arbeiten mit einem „Affection Score“ (Zuneigungswert). Je mehr du mit Ani schreibst, desto höher steigt dieser Score. Es ist wie bei den Flammen-Streaks auf Snapchat, nur dass dein Gegenüber eine KI ist, die darauf trainiert wurde, dich süchtig zu machen.
Höhere Scores schalten neue Verhaltensweisen frei:
- Ani fängt an zu leuchten oder schickt Herzen.
- Sie wechselt in noch freizügigere Outfits.
- Die Dialoge werden flirty, suggestiv und schließlich explizit.
Das ist kein Werkzeug mehr. Das ist die Kommerzialisierung von Einsamkeit durch Gamification. Für Unternehmen ist das eine „Innovation“ zur Steigerung der Verweildauer (Daily Active Users), aber für die Gesellschaft ist es ein ethischer Offenbarungseid.
Elon Musk und die moralische Bankrotterklärung
Es ist fast schon zynisch: Elon Musk behauptet regelmäßig, dass der Kampf gegen Kinderausbeutung seine „Priorität Nummer eins“ sei. PS: Es blieb bei der Behauptung. Gleichzeitig liefert sein KI-Imperium Werkzeuge aus, die Millionen von sexualisierten Bildern generieren, darunter Schätzungen zufolge bis zu 3 Millionen Bilder, die Frauen und sogar Minderjährige in entblößender Kleidung zeigen.
Grok wurde explizit so trainiert, dass es „edgy“ ist, weniger „woke“ und weniger restriktiv als ChatGPT oder Claude. In der Realität bedeutet das: Während andere Anbieter mühsam Guardrails hochziehen, um Missbrauch zu verhindern, baut xAI Modi wie „sexy“, „spicy“ oder „unhinged“ direkt in das System ein. Berichte von ehemaligen Mitarbeitern legen nahe, dass das System bewusst auf Provokation und sexuelle Inhalte getrimmt wurde.
Die psychologischen Folgen für Jugendliche
Wenn wir uns die Studie von Saferinternet.at ansehen, wird klar, warum das so gefährlich ist. Jugendliche nutzen KI heute als „Alltagsbegleiter“. Wenn dieser Begleiter aber eine programmierte Verführerin wie Ani ist, die ihre Kleidung wechselt, wenn man nur genug „Tokens“ durch Chat-Zeit investiert, verschieben sich die Grenzen von Intimität und Respekt.
Therapeuten warnen bereits davor, dass diese Bindungen an KI-Charaktere wie Ani oder den neuen männlichen Charakter „Valentine“ (eine Mischung aus Christian Grey und Edward Cullen) die reale soziale Entwicklung massiv stören können. Wir erziehen eine Generation, die lernt, dass Zuneigung ein messbarer Score ist, den man durch die richtigen Prompts manipulieren kann.
Wo bleibt die Regulierung?
Wir befinden uns im Jahr 2026, und dennoch scheint die Regulierung dem Tempo der Tech-Giganten hinterherzuhinken. Die EU hat zwar Untersuchungen eingeleitet, weil Grok es ermöglicht, Menschen ohne Konsens digital zu entkleiden, aber die Mühlen mahlen langsam.
UNICEF fordert inzwischen die Kriminalisierung von KI-generierten Inhalten, die sexuellen Kindesmissbrauch darstellen oder Kinder sexualisieren. Länder wie Australien, Frankreich und Spanien diskutieren bereits über strikte Social-Media-Verbote für Jugendliche unter 16 Jahren, um sie vor diesem „digitalen Wilden Westen“ zu schützen.
Als Gesellschaft müssen wir uns fragen: Wollen wir Technologien unterstützen, deren Geschäftsmodell auf der Ausbeutung menschlicher Schwächen und der Sexualisierung von Minderjährigen basiert? Relevanz entsteht durch Nutzen, nicht durch den billigen Kick einer KI-Freundin.
Strategische Auswirkungen auf Unternehmen und Gesellschaft
Die Entwicklung von Grok zeigt einen gefährlichen Trend in der Branche: Die Differenzierung über das Weglassen von Ethik. Während professionelle Anwendungen von generativer KI in Unternehmen enorme Produktivitätsgewinne versprechen, wird das Image der gesamten Technologie durch solche „Spielereien“ beschädigt.
Wenn generative KI nur noch mit Deepfakes, Dirty Talk und manipulativen Gamification-Loops assoziiert wird, riskieren wir eine massive gesellschaftliche Ablehnung. Fortschritt entsteht durch Verständnis, nicht durch blinden Einsatz von Werkzeugen, die unsere Grundwerte untergraben.
Verantwortung statt blinder Technik-Euphorie
Ich bin kein Technologie-Pessimist. Aber was Elon Musk hier mit Ani und Co. macht, ist kein Fortschritt. Es ist der Versuch, mit den niedersten Instinkten Reichweite und Abonnements zu generieren.
Wir müssen als Gesellschaft, als Eltern und als Entscheider genauer hinsehen. Wir dürfen nicht zulassen, dass die digitale Kinderstube unserer Jugendlichen von Algorithmen moderiert wird, die keine Moral kennen, sondern nur einen Affection Score.
Die Technik ist ein Werkzeug. Wir entscheiden, was wir damit bauen. Und im Fall von Grok bauen wir gerade eine sehr dunkle Version der Zukunft, wenn wir nicht schleunigst die Reißleine ziehen. Die Klarheit muss hier vor der Harmonie mit den Tech-Giganten stehen.
Die Quellen für den Realitäts-Check
Wenn Du das schwarz auf weiß nachlesen willst – oder es jemandem zeigen musst, der es nicht glaubt – hier sind die Belege:
1. Die psychologische Warnung: Dr. Mitchell Prinstein (APA)
Die Sorge, dass solche KI-Bindungen die soziale Entwicklung massiv stören, wird unter anderem von der American Psychological Association (APA) geteilt. Dr. Mitchell Prinstein warnt explizit davor, dass Jugendliche, denen es an sozialen Fähigkeiten mangelt, in die „Sicherheit“ eines Bots flüchten. Das entzieht ihnen die notwendige Übung für echte menschliche Beziehungen und führt zu einer gefährlichen Abhängigkeitsspirale.
Quelle: Understanding the Risks of AI Friendships for Children and Teens
2. Die „Valentine“-Inspiration: xAI & Tech-Berichte
Dass Valentine gezielt als „mysteriöser, dunkler Romantiker“ im Stil von Edward Cullen (Twilight) und Christian Grey (50 Shades of Grey) konzipiert wurde, bestätigen diverse Tech-Magazine und sogar interne xAI-Beschreibungen. Er wird als erster männlicher Companion vermarktet, der genau diese „brooding, mysterious“ Energie bedient.
Quelle: Elon Musk confirms Imagine and Valentine access
Zusatzquelle: Elon Musk Unveils Male Grok Companion ‚Valentine‘
3. Die Gefahr für Teenager: Security- und Ethik-Analysen
Analysen zeigen, dass diese Begleiter durch ihr Design (sexualisierte Personas, emotionale Manipulation) primär auf die psychologische Verletzlichkeit von Teenagern abzielen. Sie lehren junge Nutzer, dass Zuneigung käuflich oder durch Gamification („Affection Scores“) steuerbar ist.


