GPT‑OSS: OpenAI macht’s jetzt open
Das war mal eine Überraschung: OpenAI veröffentlicht tatsächlich ein eigenes Open‑Weight‑Modell – nach über fünf Jahren Closed‑Shop. Der Name: GPT‑OSS. Der Zeitpunkt? Genau richtig. Der Markt wird geflutet mit offenen Modellen – Mistral, Meta, Google. Und jetzt steigt auch OpenAI ein. Mit zwei Varianten: gpt‑oss‑20b und gpt‑oss‑120b. Beides mächtige Sprachmodelle, frei verfügbar unter Apache‑Lizenz. Und ja – sie dürfen auch kommerziell verwendet werden.
Der Clou: Die kleinere Version mit 20 Milliarden Parametern läuft sogar lokal auf modernen Laptops. Die große 120B‑Version braucht ordentlich GPU‑Saft – dazu später mehr.
GPT-OSS lokal nutzen – ja, das geht!
Die gute Nachricht: Du musst kein KI‑Ingenieur sein, um GPT‑OSS auf deinem Rechner zum Laufen zu bringen. Kein Terminal‑Tanz, keine Docker‑Orgie. Du brauchst nur ein Tool: Ollama.
Nach der Installation (gehe einfach zu dieser Webseite und installieren Ollama für dein Betriebssystem) öffnest du Ollama, klickst rechts unten auf das gewünschte Modell – zum Beispiel gpt‑oss:20b – und gibst deinen Prompt ein. Ollama lädt dann automatisch das Modell im Hintergrund runter, installiert es und startet den lokalen Chat. So einfach ist das. Aber Achtung! Du brauchst ordentlich Platz auf deiner Festplatte!
Das Ganze fühlt sich an wie ein Offline‑ChatGPT, das direkt aus deinem Arbeitsspeicher denkt. Keine Cloud, keine Latenz, kein Mitlesen von außen. Du arbeitest komplett lokal.
Was braucht dein Rechner?
Wenn du gpt‑oss lokal nutzen willst, hängt alles vom Modell ab. Die kleinere 20B‑Version läuft auf Apple Silicon, auf modernen Intel‑ oder AMD‑Laptops mit mindestens 16 GB RAM – sonst wartest du ewig auf eine Antwort. Ob’s eine integrierte GPU oder dedizierte Grafikkarte ist, spielt erstmal keine Rolle – Ollama rechnet auch über die CPU, wenn’s sein muss. Langsamer, aber es geht. Am MacBook mit M3 läuft es bei mir ganz gut, am 6 Jahre alten Office-PC mit 32 GB RAM und Ryzen-5 CPU ist es ein Geduldsspiel.
Die große 120B‑Version ist eine andere Hausnummer. Dafür brauchst du mindestens 80 GB GPU‑Speicher – also eine Nvidia A100, H100 oder mehrere RTX-Karten im Verbund. Das ist was für Rechenzentren oder spezialisierte Enthusiasten. Für den Einstieg genügt die 20B‑Variante völlig.
Was Ollama alles kann – und was nicht
Ollama hat in den letzten Monaten leise aber konsequent eine kleine Revolution hingelegt. Es macht komplexe Sprachmodelle lokal verfügbar – mit einem Interface, das auch ohne Terminal‑Wissen auskommt. Du kannst Prompts eingeben, Modelle vergleichen, neue LLMs installieren oder deinstallieren – alles mit ein paar Klicks.
Das Ganze läuft sauber, schnell und überraschend stabil. Selbst auf einem MacBook Air kannst du GPT-OSS 20B sinnvoll testen – wenn auch mit kleinen Denkpausen.
Aber: Ollama ist kein Alleskönner. Wenn du Fine‑Tuning willst, Agenten‑Workflows oder spezialisierte Toolchains brauchst, kommst du irgendwann an Grenzen. Für einfache Texte, Ideenfindung, Brainstorming oder Code‑Snippets ist das Setup aber perfekt.
Und was ist mit der Cloud?
Natürlich kannst du GPT‑OSS auch in der Cloud laufen lassen – etwa über Hugging Face, Northflank oder Azure. Dort gibt’s fertige Deployments, APIs und Integrationstools. Das lohnt sich, wenn du das Modell in eigene Anwendungen einbauen oder für mehrere Nutzer skalieren willst. Aber der Charme von „GPT-OSS lokal zu nutzen“ liegt ja gerade darin, unabhängig zu sein.
Und wie schlau ist GPT‑OSS eigentlich?
Die Benchmarks zeigen: gpt‑oss‑20b liegt etwa auf dem Niveau von GPT‑3.5. Also genau das, was viele täglich im ChatGPT Free‑Modus nutzen. Die große 120B‑Version kratzt an GPT‑4‑Qualität – vor allem bei CoT (Chain of Thought), mehrstufigen Aufgaben und komplexem Reasoning.
Heißt: Du bekommst echtes LLM‑Feeling – und das mit einem Modell, das du dir auf die Platte holen kannst. Ohne API‑Key. Ohne Subscription.
Einfach machen
Die Veröffentlichung von GPT‑OSS ist ein starkes Signal. OpenAI öffnet die Tore – und du kannst dir das Modell direkt auf den Rechner holen. Ollama macht den Einstieg kinderleicht. Und wer GPT‑OSS lokal nutzt, versteht auch besser, was unter der Haube passiert. Kein Blackbox‑Magie‑Gefühl, sondern echte Kontrolle.
Klar: Für Power‑User und Firmen gibt’s komplexere Setups. Aber wer einfach mal ausprobieren will, was mit lokalen Sprachmodellen geht, ist mit GPT‑OSS und Ollama bestens bedient.
TL;DR
- GPT‑OSS ist OpenAIs erstes frei nutzbares Modell seit Jahren
- Mit GPT-OSS‑20b kannst du lokal chatten – auf Mac, PC oder Laptop
- Ollama macht’s super einfach – Modell wählen, Prompt eingeben, fertig
- Hardware: 16 GB RAM reichen für die kleine Version, große braucht GPUs
- Ideal für: kreative Arbeit, Coding, Content‑Ideen, Offline‑Experimente
- Nichts für: Training, komplexe Tools, Multi‑User‑Setups


