Stell dir vor: Du gibst einen KI-generierten Text in ein Erkennungstool ein – und das Tool sagt: „Menschlich geschrieben“. Klingt absurd? Ist aber Alltag.
Eine Toolsammlung der österreichischen Plattform onlinesicherheit.gv.at – und die wird in Suchmaschinen gut gefunden – zeigt Tools auf, die KI in Texten erkennen soll. Damit wird eine gewisse Sicherheit vorgegaukelt. Die Realität ist eine andere.
Die Tools, auf die alle schauen – und die fast immer danebenliegen
Ob an Schulen, Unis oder in Redaktionen – wer prüfen will, ob ein Text von einer KI stammt, landet oft bei denselben Tools:
Alle vier haben zumindest eines gemeinsam: Sie liefern allesamt keine zuverlässigen Ergebnisse. Bei einem kleinen Test meinerseits haben sie einen klar von KI geschriebenen Text als „menschlich“ eingestuft. Und das ist kein Einzelfall.
Warum die Erkennung so schwierig ist
Diese Tools analysieren vor allem, wie „vorhersehbar“ ein Text ist (Stichwort: Perplexity) oder wie stark sich Satzmuster abwechseln (Burstiness). Das Problem: Moderne KI-Modelle wie GPT-4 schreiben inzwischen so gut, dass ihre Texte kaum noch von menschlicher Sprache zu unterscheiden sind.
Ein bisschen Nachbearbeitung durch echte Menschen, ein paar individuelle Formulierungen – und schon fallen die Tools komplett durch. Und wie in meinem Beispiel schaffen sie es nicht einmal bei 100%igem KI-Text.
Die trügerische Sicherheit
Diese Tools suggerieren, man könne KI-Texte eindeutig erkennen. Das ist einerseits Nonsens, aber kann auch gefährlich sein.
- Für Lehrkräfte, die Hausarbeiten bewerten.
- Für Journalisten, die Fake News erkennen müssen.
- Für Behörden, die Richtlinien erlassen.
Wer sich auf solche Tools verlässt, trifft schnell falsche Entscheidungen.
Politik in der Verantwortung
Wenn offizielle Stellen wie das Bundeskanzleramt auf solche Erkennungs-Tools verweisen, ohne deren Schwächen zu benennen, entsteht ein falscher Eindruck: Als wäre das Problem gelöst.
Ist es aber nicht. Ganz im Gegenteil: Die Technik entwickelt sich schneller als die Werkzeuge, die sie überwachen sollen. Es ist also nicht nur ein technisches, sondern auch ein politisches Thema.
Was wir stattdessen brauchen
- Aufklärung statt Illusion: Menschen sollten verstehen, was KI kann – und was nicht.
- Kompetenz statt Kontrolle: Wer Texte beurteilt, braucht Wissen über Stil, Quellen und Zusammenhänge – kein Dashboard mit Prozentwerten.
- Transparenz statt Trickserei: Wer KI nutzt, sollte es sagen. Fertig. Stichwort: Code of Conduct.
Tools helfen nicht – Wissen schon
Ja, es ist verlockend, ein Tool zu haben, das „KI“ oder „nicht KI“ sagt. Aber wir sind (noch) nicht so weit.
Solange sich die KI rasant weiterentwickelt und immer „menschlicher“ schreibt, sind Tools wie ZeroGPT oder Originality.AI bestenfalls Schätzmaschinen. Und schlimmstenfalls Fehlinformer.
Wenn wir KI sinnvoll einsetzen wollen, müssen wir lernen, sie zu verstehen – nicht sie zu verstecken.