OpenAI und der EU-Kodex: Transparenz oder nur Theater?

KI, Transparenz und ein Kodex, der (noch) keiner ist

OpenAI macht jetzt auch in Politik. Genauer gesagt: in EU-Politik. Der neueste Schritt? Ein öffentliches Statement zur freiwilligen Selbstverpflichtung – dem sogenannten EU Code of Practice on Disinformation. Klingt wichtig. Ist es auch. Aber was bedeutet das konkret? Und vor allem: Was bringt’s?

Die EU will Desinformation im Netz eindämmen. Also: Falschinformationen, Fake News, Deepfakes und Co. Dafür hat sie einen Kodex ins Leben gerufen. Mit Prinzipien, Maßnahmen und Prüfmechanismen. Unterzeichner sollen zeigen: Wir meinen’s ernst. Auch OpenAI ist nun (offiziell) dabei. Doch was liest man im Kleingedruckten?

Was ist der „EU Code of Practice on Disinformation“?

Kurz gesagt: Ein freiwilliger Kodex für Tech-Firmen, Plattformen und KI-Anbieter. Entwickelt wurde er 2018, überarbeitet 2022 – mit neuen Anforderungen, vor allem für große Plattformen. Ziel: Desinformation bekämpfen, Plattformen in die Pflicht nehmen, Transparenz stärken.

Die Unterzeichner verpflichten sich unter anderem zu:

  • Transparenz bei politischen Inhalten und Werbung
  • Bekämpfung gefälschter Nutzerkonten und Bots
  • Förderung von Faktenchecks
  • Zugang für Forschende
  • Maßnahmen gegen Deepfakes

Im Idealfall: Selbstkontrolle statt Zensur. Im Realfall: ein Flickenteppich aus Statements, Reports und gutem Willen.

OpenAIs Beitrag: Ein Anfang, kein Durchbruch

OpenAI hat nun einen Transparenzbericht vorgelegt. Darin: viele Absichtserklärungen, etwas Selbstkritik und ein paar konkrete Maßnahmen.

Was gut klingt:

  • Richtlinien gegen Missbrauch: User dürfen keine Fakes oder Deepfakes erstellen, um andere zu täuschen. Wer’s trotzdem versucht, riskiert Sanktionen – bis hin zur Sperre.
  • Wasserzeichen und Herkunftshinweise: OpenAI testet Techniken wie C2PA oder DALL·E-Wasserzeichen, um Inhalte kenntlich zu machen.
  • Kooperation mit Faktenprüfern und Forschern: Erste Pilotprojekte, Zugang zu APIs für Forschung, Dialog mit Expert:innen.
  • Kennzeichnung von Wahlen und sensiblen Inhalten: Modelle wie ChatGPT zeigen inzwischen oft Warnhinweise, wenn’s politisch wird.

Was fehlt:

  • Echte Transparenz: Wie genau funktioniert Moderation? Wer entscheidet was? Wo liegt die Schwelle zur Sperre? Viel bleibt vage.
  • Lücken bei der Kontrolle: Gerade bei Third-Party-Tools (wie über API genutzte GPT-Modelle) fehlt es oft an Übersicht.
  • Kein Audit, kein Siegel, kein Prüfmechanismus: Der Kodex ist freiwillig – und OpenAI bewertet sich selbst. Die Frage ist: Wer kontrolliert die Kontrolle?

Warum das Ganze? Und warum jetzt?

Zwei Gründe:

1. Druck aus Brüssel: Die EU drängt auf mehr Verantwortung von Plattformen und KI-Anbietern. Mit dem Digital Services Act (DSA) und bald auch dem AI Act wird der Ton schärfer. Der „Code of Practice“ soll ein weiches Mittel sein, bevor’s regulatorisch kracht.

2. Public Relations: OpenAI will Vertrauen schaffen. Nach Kritik an Fake-Bildern, manipulativen Texten und mangelnder Transparenz wirkt so ein Commitment wie ein Reputations-Booster. Ein öffentliches „Wir tun was“.

Klingt gut – aber hilft das wirklich gegen Desinformation?

Ehrliche Antwort: Nur bedingt.

KI ist kein einzelner Akteur, sondern ein Werkzeug. Wer will, kann damit täuschen. Oder aufklären. Es hängt am Menschen. An der Nutzung. An der Haltung.

Der Kodex ist ein Schritt in die richtige Richtung. Aber eben nur ein Schritt.

Was wirklich helfen würde:

  • Verbindliche Standards statt freiwilliger Selbstverpflichtung
  • Interne Ethik-Boards mit echter Entscheidungsgewalt
  • Technische Tools, die Erkennbares wirklich erkennbar machen
  • Klare Konsequenzen, wenn Regeln verletzt werden

Warum es trotzdem wichtig ist

Trotz aller Kritik: Dass OpenAI mitmacht, ist ein Zeichen. Für Dialog. Für Lernbereitschaft. Für die Erkenntnis, dass Technologie nicht im luftleeren Raum entsteht, sondern Verantwortung braucht.

Gerade im Wahljahr 2024 in den USA, mit aufgeheizten Debatten, KI-generierten Kampagneninhalten und millionenfachen Deepfakes ist klar: Wer Inhalte erzeugt, muss mitdenken. Und mitlenken.

EU Code of Practice AI – besser als nichts. Aber weit entfernt von „gut genug“

OpenAI versucht, zwischen Innovation und Verantwortung zu balancieren. Der EU-Kodex bietet dafür einen Rahmen. Aber solange dieser freiwillig, unverbindlich und größtenteils selbstkontrolliert bleibt, ist er eher Feigenblatt als Fundament.

Das Ziel muss sein: Echte Transparenz. Klare Grenzen. Und vor allem: Konsequenzen bei Missbrauch.

Nur so kann Vertrauen in KI langfristig entstehen.

Sharing is caring

Wenn dir der Beitrag gefallen oder weitergeholfen hat, teile ihn gern in deinem Netzwerk – und hinterlass mir eine Bewertung und/oder einen Kommentar. Dein Feedback zeigt mir, was ankommt – und motiviert mich, noch mehr davon zu machen.

War der Beitrag für dich hilfreich?

Klick bitte auf die Sterne zur Bewertung.

Gesamt 5

Deine Bewertung:

Hinterlasse einen Kommentar

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

The reCAPTCHA verification period has expired. Please reload the page.

Suche
Verwandte Beiträge