Darum gehts
- OpenAI stellt neue Sprachmodelle vor, die kostenlos genutzt werden können
- GPT-OSS ist kein Open-Source-, sondern ein Open-Weight-Modell
- Die kleine Variante, GPT-OSS-20B, läuft auf Notebooks mit 16 GB RAM
Zum ersten Mal seit Jahren gibt sich OpenAI wieder offen – zumindest dem Schein nach. Die US-Firma, bekannt für ChatGPT, hat zwei neue Sprachmodelle vorgestellt, die kostenlos genutzt, angepasst und lokal betrieben werden können.
GPT-OSS-120B und GPT-OSS-20B heissen die neuen Modelle. Sie sollen laut OpenAI mit den hauseigenen Reasoning-Modellen konkurrieren, also gut darin sein, logische Schlüsse zu ziehen oder Code zu schreiben.
GPT-OSS: Anforderungen
Technisch ist das ein Hosenlupf: Die grössere Variante, GPT-OSS-120B, benötigt eine Grafikkarte mit 80 GB Speicher. Die kleinere Version läuft jedoch auch auf modernen Notebooks mit 16 GB RAM und bietet laut dem Hersteller dennoch starke Fähigkeiten, etwa bei der Problemlösung oder Analyse von Daten. Die Modelle können unter der Apache-2.0-Lizenz genutzt werden, auch kommerziell. OpenAI veröffentlicht sie auf den Plattformen Hugging Face, AWS und Azure.
OpenAI richtet sich damit gezielt an kleinere Entwicklerteams und Unternehmen, die mehr Kontrolle über Infrastruktur und Daten wollen – ein Bereich, in dem der Konzern zuletzt an Boden gegenüber Open-Source-Wettbewerbern wie Llama von Meta oder Deepseek aus China verloren hatte. «Wir haben einen historischen Fehler gemacht. Wir müssen unsere Open-Source-Strategie überdenken», sagte OpenAI-Boss Sam Altman im Januar selbstkritisch. Nun also die Korrektur, wenn auch halbherzig.
Das grosse Schweigen
Denn ganz so offen, wie der Name vermuten lässt, ist GPT-OSS nicht. Zwar sind die Gewichte der Modelle öffentlich. Sie sind das Fundament, aus dem das Wissen des Modells entsteht. Doch OpenAI veröffentlicht weder den Code noch weitere Details zur Trainingsmethodik. Auch zu den verwendeten Daten schweigt das Unternehmen. GPT-OSS ist damit kein Open-Source-, sondern lediglich ein Open-Weight-Modell. Es sieht offen aus, ist es aber nicht. Kritiker werfen OpenAI deshalb vor, den Begriff der Offenheit zu verwässern und sich besser darzustellen, als es der Realität entspricht.
Und in der Praxis? Laut Benchmarks von OpenAI erreichen die Modelle das Leistungsniveau von kommerziellen Produkten wie o4-mini. OpenAI betont, dass GPT-OSS besonders sicher sei. Entwickelt wurde ein neues Protokoll namens «Worst-Case Fine-Tuning», das Missbrauchsfälle wie Cyberangriffe oder Biowaffen simuliert. Externe Prüfer hätten die Methodik bewertet. Zudem zeigt GPT-OSS seinen Denkprozess (Chain of Thought) transparent an, um Fehlverhalten frühzeitig zu erkennen.
Zwischen PR und Politik
Hinter dem Schritt steckt geopolitisches Kalkül: In den USA wächst der Druck, eigene KI-Technologie als Gegenentwurf zu chinesischen Modellen zu positionieren. Die dortigen Anbieter, etwa Alibaba mit Qwen, Deepseek oder Moonshot AI, haben in den letzten Monaten einige der leistungsfähigsten offenen Modelle vorgestellt. Auch im «AI Action Plan» der Trump-Regierung wird betont, wie wichtig es sei, mehr Technologie offenzulegen, um KI weltweit zu verbreiten, aber mit «amerikanischen Werten». OpenAI positioniert sich nun als patriotischer Akteur: freie Modelle, made in USA.
Die neue Offenheit ist also ein Kompromiss zwischen PR, Technik und Politik. Mehr Kontrolle für Entwickler, mehr Reichweite für OpenAI, aber eben keine vollständige Transparenz. Die neuen Modelle stehen ab sofort zum Download bereit. Diese nutzt man am besten mit einem Tool wie Ollama. Man kann sie auch auf einer speziellen Website direkt bei OpenAI ausprobieren.