Es gibt Momente in der Tech-Welt, da reicht es nicht mehr, nur auf die Features zu schauen. Man muss unter die Haube blicken: nicht nur in den Code, sondern in die Firmenstruktur, die Partnerschaften und die politische Agenda. Ich habe ChatGPT den Rücken gekehrt. Das ist keine leichte Entscheidung gewesen, denn OpenAI war der Wegbereiter. Und hat mir meinen Spitznamen „Prompt Rocker“ verpasst. Aber die Entwicklungen der letzten Monate haben eine Richtung eingeschlagen, die ich als Unternehmer und als Mensch nicht mehr mittragen kann. Ich bin nun endgültig bei Claude gelandet. Warum das so ist und warum dieser Wechsel weit mehr als nur ein Tool-Wechsel ist, erkläre ich Dir hier ganz direkt.
Der Sündenfall von OpenAI: Wenn die NSA am Tisch sitzt
Der erste große Riss im Fundament von OpenAI war für mich die personelle Neuausrichtung. Wenn Paul Nakasone, der ehemalige Chef der NSA, in den Vorstand berufen wird, dann ist das kein Zufall und auch keine harmlose Personalie für mehr Sicherheit. Es ist ein klares Signal für eine tiefe Verflechtung mit dem Sicherheitsapparat der USA. OpenAI hat zudem klammheimlich die Nutzungsbedingungen geändert. Das explizite Verbot, die Technologie für militärische Zwecke zu nutzen, wurde gestrichen. Das ist der Punkt, an dem das ursprüngliche Versprechen, KI zum Wohle der Menschheit zu entwickeln, endgültig beerdigt wurde.
Für mich als Nutzer bedeutet das: Ich füttere ein System, das sich aktiv für die Rüstungsindustrie und staatliche Überwachung öffnet. Wer glaubt, dass seine Geschäftsgeheimnisse oder persönlichen Strategien in einem solchen Umfeld sicher vor staatlichem Zugriff sind, ist naiv. OpenAI ist heute ein kommerzieller Gigant, der sich eng an die Machtstrukturen in Washington schmiegt. Das ist legitim für ein US-Unternehmen, aber es ist nicht mehr das Werkzeug, dem ich meine Daten anvertrauen will.
Der EU AI Act: Ein stumpfes Schwert im Schatten des Militärs
Wir in Europa feiern uns oft für den EU AI Act. Wir glauben, wir hätten damit die „wilde KI“ gezähmt. Doch wenn man genau liest, erkennt man die riesige Lücke, die uns alle betrifft. Artikel 2 Absatz 3 der Verordnung stellt klar: Das Gesetz gilt nicht für KI-Systeme, die ausschließlich für militärische, verteidigungs- oder national sicherheitsrelevante Zwecke genutzt werden. Das ist ein Freibrief für die Großen.
Während Du und ich uns mit Compliance-Regeln, Transparenzpflichten und Risikobewertungen herumschlagen müssen, können die Tech-Giganten über die Hintertür der nationalen Sicherheit fast alles machen. Ein System, das im zivilen Bereich vielleicht als „hochriskant“ eingestuft und streng reguliert wäre, ist im militärischen Kontext plötzlich völlig frei von diesen Fesseln. Das schafft zwei Welten: Eine für uns, die reguliert und gebremst wird, und eine für den militärisch-industriellen Komplex, die keine Grenzen kennt.
Anthropic und die Grenze im Sand: Warum ich bei Claude bin
Mein Wechsel zu Claude war eine bewusste Entscheidung für ein Unternehmen, das bisher – zumindest öffentlich – Rückgrat bewiesen hat. Dario Amodei, der CEO von Anthropic, hat klare rote Linien gezogen. Er weigert sich, Claude für Massenüberwachung oder für vollautonome letale Waffensysteme freizugeben. Anthropic argumentiert hier nicht nur moralisch, sondern auch technisch: Die heutigen Modelle sind schlicht nicht zuverlässig genug, um über Leben und Tod zu entscheiden.
Diese Haltung hat Anthropic in direkten Konflikt mit der Trump-Administration gebracht. Verteidigungsminister Pete Hegseth hat Anthropic ein Ultimatum gestellt: Entweder sie geben dem Pentagon uneingeschränkten Zugriff auf Claude für alle legalen militärischen Zwecke, oder sie fliegen raus. Amodei ist hart geblieben. Er sagte: „Wir können das nicht guten Gewissens tun“. Das ist genau die Art von Integrität, die ich bei einem KI-Partner suche. Claude ist technisch auf Augenhöhe mit GPT, aber die ethische Architektur dahinter ist eine völlig andere.
Die Verbannung durch Donald Trump: Sechs Monate bis zum Aus
Die Reaktion aus dem Weißen Haus ließ nicht lange auf sich warten. Donald Trump hat Anthropic als „Leftwing nut jobs“ bezeichnet und behauptet, ihre Weigerung gefährde amerikanische Leben. Er hat eine Durchführungsverordnung unterzeichnet, die es allen Bundesbehörden verbietet, Anthropic-Produkte zu nutzen. Es wurde ein Zeitfenster von sechs Monaten eingeräumt, um Claude aus allen Regierungssystemen zu entfernen.
Das ist ein beispielloser Vorgang. Ein US-Präsident erklärt ein heimisches KI-Unternehmen zum „Lieferketten-Risiko“, nur weil es sich weigert, seine Sicherheitsvorkehrungen für das Militär abzuschalten. Für mich bestätigt das nur eines: Anthropic macht etwas richtig. Wenn die Politik so massiv gegen ein Unternehmen vorgeht, weil es ethische Leitplanken einfordert, dann ist das ein Unternehmen, dem ich eher vertraue als einem, das sich sofort andient.

Die Ironie des Krieges: Claude beim Angriff auf den Iran
Die Realität ist jedoch komplexer und fast schon zynisch. Trotz des offiziellen Bannes durch Trump wurde Claude Berichten zufolge beim jüngsten Angriff auf den Iran eingesetzt. Das zeigt, wie tief Claude bereits in die kritischen Systeme des Pentagon (das jetzt „Department of War“ heißt) integriert ist. Das US-Militär nutzte das Modell für Geheimdienstauswertungen, Zielidentifizierung und Schlachtfeldsimulationen.
Man kann den Bann eben nicht von heute auf morgen umsetzen. Claude war das einzige Modell, das für die hochsensiblen, klassifizierten Netzwerke zugelassen war. Dass die Generäle es trotzdem genutzt haben, während ihr Chef sie öffentlich beschimpft, zeigt die technische Überlegenheit von Claude. Aber es zeigt auch das Dilemma: Ein Unternehmen kann noch so viele rote Linien ziehen: Sobald die Technik in den Händen der Mächtigen ist, wird sie genutzt. Dennoch bleibt der Unterschied: Anthropic kämpft dagegen an, OpenAI hat die Tür bereits sperrangelweit aufgemacht.
Datensouveränität ist die neue Währung
Warum erzähle ich Dir das alles? Weil Du als Unternehmer entscheiden musst, auf wessen Infrastruktur Du Dein Geschäft aufbaust. Wenn Du ChatGPT nutzt, bist Du Teil eines Ökosystems, das Transparenz gegen militärische Aufträge eingetauscht hat. Wenn Du Claude nutzt, bist Du bei einem Team, das sich lieber mit dem Präsidenten anlegt, als seine Prinzipien zu opfern.
Datensouveränität bedeutet für mich, dass ich die Kontrolle darüber behalte, wie meine Daten verarbeitet werden und wer Zugriff darauf hat. Bei Anthropic habe ich zumindest die Gewissheit, dass sie aktiv gegen den Missbrauch durch staatliche Stellen kämpfen. Das ist kein hundertprozentiger Schutz, aber es ist eine weitaus bessere Basis als das, was OpenAI derzeit bietet. Wer heute noch glaubt, dass KI nur ein neutrales Tool ist, hat die letzten zwei Jahre verschlafen.
Der Wechsel zu Claude: Technisch und ethisch sinnvoll
Technisch gesehen habe ich beim Wechsel zu Claude nichts verloren. Im Gegenteil: Claude liefern Ergebnisse, die in Sachen Nuancierung, Code-Qualität und vor allem im Befolgen komplexer Anweisungen oft überlegen sind. Das „Constitutional AI“-Prinzip von Anthropic sorgt dafür, dass das Modell weniger zu gefährlichen Halluzinationen neigt und logischer argumentiert.
Der Wechsel war für mich ein strategischer Schritt. Ich will nicht in sechs Monaten feststellen, dass meine gesamte Automatisierung auf einem Modell basiert, das Teil eines globalen Überwachungsapparates geworden ist. Ich will Partner, die verstehen, dass Technologie eine Verantwortung trägt. Claude ist für mich dieses Werkzeug. Es ist präzise, es ist schnell und es hat – so seltsam das bei einer KI klingt – einen moralischen Kompass, der durch das Unternehmen dahinter gestützt wird.
Was Du jetzt tun solltest
Ich rate Dir: Schau Dir Deine Tools genau an. Wir sind in einer Phase der KI-Entwicklung, in der sich die Spreu vom Weizen trennt. Es geht nicht mehr nur um „wer kann besser dichten“, sondern um „wer schützt meine Interessen als Nutzer“.
Teste Claude. Schau Dir an, wie Anthropic mit Daten umgeht. Und vor allem: Bleib kritisch. Die Bequemlichkeit, einfach das bekannteste Tool zu nutzen, kann Dich langfristig teuer zu stehen kommen: sowohl was Deine Daten betrifft als auch Deine unternehmerische Freiheit. Ich habe meine Wahl getroffen. Ich bin bei Claude, und ich habe es keine Sekunde bereut.
Es geht darum, die Kontrolle zurückzugewinnen. In einer Welt, in der KI zum Schlachtfeld der Geopolitik wird, ist Neutralität eine Illusion. Wir müssen uns für die Werkzeuge entscheiden, die unsere Werte am besten widerspiegeln. Und das ist für mich derzeit ganz klar Claude.


