Warum KIs keine Uhren auf 20:15 stellen können – und was das mit Trainingsdaten zu tun hat

Künstliche Intelligenz beeindruckt – keine Frage. Sie kann Gesichter generieren, Landschaften erschaffen und Katzen in Raumanzügen malen, als wäre es das Normalste der Welt. Aber stell dir mal vor, du willst ein Bild von einer ganz normalen Uhr – keine digitale, sondern so richtig analog – und sie soll 20:15 Uhr anzeigen. Ganz einfach, oder? Denkste.

Die Realität sieht nämlich oft so aus: Die KI spuckt dir eine Uhr aus, klar. Aber statt 20:15 Uhr zeigt sie meistens eine Zeit an, die verdächtig nach 10:10 Uhr oder 1:50 Uhr aussieht. Zufall? Ganz und gar nicht. Dahinter steckt ein viel größeres Thema: fehlende Trainingsdaten in der KI.

Die Sache mit der Uhrzeit – warum immer 10 nach 10?

Vielleicht ist es dir im echten Leben schon mal aufgefallen: Auf Werbefotos von Uhren zeigen die Zeiger fast immer 10 nach 10. Und das hat einen guten Grund. Die Stellung der Zeiger wirkt symmetrisch und freundlich – fast wie ein Lächeln. Außerdem verdecken die Zeiger dabei weder das Logo noch andere wichtige Elemente auf dem Ziffernblatt.

Weil diese Bilder in riesiger Zahl im Netz kursieren und von KIs als Trainingsmaterial verwendet werden, lernt die KI vor allem eines: Uhren sehen so aus. Und wenn sie dann selbst kreativ werden soll, dann greift sie auf das zurück, was sie kennt – sprich: 10 nach 10.

Was Trainingsdaten mit Kreativität zu tun haben

KIs sind keine Zauberwesen. Sie können nur das wiedergeben, was sie zuvor gesehen – oder besser gesagt: gelernt – haben. Ihre „Kreativität“ entsteht durch das Kombinieren, Abwandeln und Neuzusammensetzen von bereits vorhandenem Wissen. Und hier kommt das Problem ins Spiel:

  • Wenn bestimmte Motive (wie 20:15 auf einer Uhr) selten oder gar nicht im Trainingsmaterial vorkommen,
  • dann kennt die KI sie schlichtweg nicht oder kann sie nur sehr ungenau rekonstruieren.

Es ist ein bisschen so, als würdest du nie eine Banane sehen, sondern nur immer Äpfel. Wenn dich dann jemand bittet, eine Banane zu malen, wird’s schwierig – du malst wahrscheinlich irgendwas Apfelähnliches mit gelbem Anstrich.

Warum das wichtig ist – nicht nur bei Uhren

Was auf den ersten Blick wie eine Kuriosität wirkt, zeigt ein zentrales Problem vieler KI-Systeme: Sie sind nur so gut wie ihre Trainingsdaten. Und diese sind – Überraschung – nicht neutral und nicht vollständig. Was nicht vorkommt, existiert für die KI quasi nicht.

Das betrifft nicht nur Uhrzeiten, sondern zum Beispiel auch:

  • Hautfarben und Körperformen in Bildern von Menschen
  • Architektur aus weniger präsenten Regionen der Welt
  • Berufe, die abseits des Mainstreams liegen

Wenn die Datenbasis verzerrt ist, werden auch die Ergebnisse verzerrt sein. Oder eben unrealistisch – wie eine Uhr, die sich hartnäckig weigert, 20:15 anzuzeigen.

Bahnhofsuhr | DIGITALHANDWERK
Auch nach dem 20. Versuch: ChatGPT zeigt mir keine Zeiger auf 20:15 Uhr.

Können wir das Problem lösen?

Kurz gesagt: Ja, aber es ist aufwändig. Um bessere, vielfältigere Ergebnisse zu erzielen, müssen wir:

  1. Die Trainingsdaten diverser gestalten – also gezielt Inhalte einfüttern, die bisher unterrepräsentiert sind.
  2. Bewusstsein schaffen – denn viele Nutzer gehen davon aus, dass KI „alles kann“. Dabei sind ihre Grenzen oft hausgemacht.
  3. Manuelle Korrekturen zulassen – oder alternative Tools nutzen, die gezielter steuerbar sind.

Im Fall der Uhrzeit könnte man etwa gezielt Bilder mit verschiedenen Uhrzeiten trainieren oder die Zeiger nachträglich per Bildbearbeitung setzen. Nicht elegant, aber effektiv.

Die KI malt, was sie kennt – nicht was du willst

Wenn deine KI-generierte Uhr also wieder mal auf 10:10 stehen bleibt, dann nicht, weil sie dich ärgern will. Sondern weil sie schlicht keine Ahnung hat, wie 20:15 aussieht. Actionfiguren dürften ausreichend zur Verfügung gestanden sein 🙂

Das mag trivial wirken, aber es ist ein wichtiger Hinweis darauf, wie stark unsere Technologien von Daten geprägt sind. Und wie wichtig es ist, diese Daten bewusst und vielfältig zu gestalten.

Denn nur wenn wir die Vielfalt der echten Welt abbilden, können auch unsere digitalen Helfer ein Stück realistischer – oder sogar gerechter – werden.

Sharing is caring

Wenn dir der Beitrag gefallen oder weitergeholfen hat, teile ihn gern in deinem Netzwerk – und hinterlass mir eine Bewertung und/oder einen Kommentar. Dein Feedback zeigt mir, was ankommt – und motiviert mich, noch mehr davon zu machen.

War der Beitrag für dich hilfreich?

Klick bitte auf die Sterne zur Bewertung.

Gesamt 0

Deine Bewertung:

Hinterlasse einen Kommentar

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

The reCAPTCHA verification period has expired. Please reload the page.