Erkenne KI in Texten – und warum das (immer noch) nicht funktioniert

Stell dir vor: Du gibst einen KI-generierten Text in ein Erkennungstool ein – und das Tool sagt: „Menschlich geschrieben“. Klingt absurd? Ist aber Alltag.

Eine Toolsammlung der österreichischen Plattform onlinesicherheit.gv.at – und die wird in Suchmaschinen gut gefunden – zeigt Tools auf, die KI in Texten erkennen soll. Damit wird eine gewisse Sicherheit vorgegaukelt. Die Realität ist eine andere.

Die Tools, auf die alle schauen – und die fast immer danebenliegen

Ob an Schulen, Unis oder in Redaktionen – wer prüfen will, ob ein Text von einer KI stammt, landet oft bei denselben Tools:

Alle vier haben zumindest eines gemeinsam: Sie liefern allesamt keine zuverlässigen Ergebnisse. Bei einem kleinen Test meinerseits haben sie einen klar von KI geschriebenen Text als „menschlich“ eingestuft. Und das ist kein Einzelfall.

ZeroGPT Human | DIGITALHANDWERK
ZeroGPT (0% AI, also menschlich)
Orginality Human | DIGITALHANDWERK
100% confident? 100%ig falsch
Writer Human | DIGITALHANDWERK
Writer findet 1% AI. Es waren 100%!
Nrandwell Human | DIGITALHANDWERK
Brandwell liegt genauso daneben.

Warum die Erkennung so schwierig ist

Diese Tools analysieren vor allem, wie „vorhersehbar“ ein Text ist (Stichwort: Perplexity) oder wie stark sich Satzmuster abwechseln (Burstiness). Das Problem: Moderne KI-Modelle wie GPT-4 schreiben inzwischen so gut, dass ihre Texte kaum noch von menschlicher Sprache zu unterscheiden sind.

Ein bisschen Nachbearbeitung durch echte Menschen, ein paar individuelle Formulierungen – und schon fallen die Tools komplett durch. Und wie in meinem Beispiel schaffen sie es nicht einmal bei 100%igem KI-Text.

Die trügerische Sicherheit

Diese Tools suggerieren, man könne KI-Texte eindeutig erkennen. Das ist einerseits Nonsens, aber kann auch gefährlich sein.

  • Für Lehrkräfte, die Hausarbeiten bewerten.
  • Für Journalisten, die Fake News erkennen müssen.
  • Für Behörden, die Richtlinien erlassen.

Wer sich auf solche Tools verlässt, trifft schnell falsche Entscheidungen.

Politik in der Verantwortung

Wenn offizielle Stellen wie das Bundeskanzleramt auf solche Erkennungs-Tools verweisen, ohne deren Schwächen zu benennen, entsteht ein falscher Eindruck: Als wäre das Problem gelöst.

Ist es aber nicht. Ganz im Gegenteil: Die Technik entwickelt sich schneller als die Werkzeuge, die sie überwachen sollen. Es ist also nicht nur ein technisches, sondern auch ein politisches Thema.

Was wir stattdessen brauchen

  • Aufklärung statt Illusion: Menschen sollten verstehen, was KI kann – und was nicht.
  • Kompetenz statt Kontrolle: Wer Texte beurteilt, braucht Wissen über Stil, Quellen und Zusammenhänge – kein Dashboard mit Prozentwerten.
  • Transparenz statt Trickserei: Wer KI nutzt, sollte es sagen. Fertig. Stichwort: Code of Conduct.

Tools helfen nicht – Wissen schon

Ja, es ist verlockend, ein Tool zu haben, das „KI“ oder „nicht KI“ sagt. Aber wir sind (noch) nicht so weit.

Solange sich die KI rasant weiterentwickelt und immer „menschlicher“ schreibt, sind Tools wie ZeroGPT oder Originality.AI bestenfalls Schätzmaschinen. Und schlimmstenfalls Fehlinformer.

Wenn wir KI sinnvoll einsetzen wollen, müssen wir lernen, sie zu verstehen – nicht sie zu verstecken.

Sharing is caring

Wenn dir der Beitrag gefallen oder weitergeholfen hat, teile ihn gern in deinem Netzwerk – und hinterlass mir eine Bewertung und/oder einen Kommentar. Dein Feedback zeigt mir, was ankommt – und motiviert mich, noch mehr davon zu machen.

War der Beitrag für dich hilfreich?

Klick bitte auf die Sterne zur Bewertung.

Erkenne KI in Texten – und warum das (immer noch) nicht funktioniert Stell dir vor: Du gibst einen KI-generierten Text in ein Erkennungstool ein – und das Tool sagt: „Menschlich geschrieben“. Klingt absurd? Ist aber Alltag. Eine Toolsammlung der österreichischen Plattform onlinesicherheit.gv.at – und die wird in Suchmaschinen gut gefunden – zeigt Tools auf, die KI in Texten erkennen soll. Damit wird eine gewisse Sicherheit vorgegaukelt. Die […]
5 1 5 10
Gesamt 5

Deine Bewertung:

Hinterlasse einen Kommentar

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

The reCAPTCHA verification period has expired. Please reload the page.