Darum gehts
Ballploppen, Rollenlärm, Alltag. Während Jugendliche kicken und ein Skater seine Bahnen zieht, ahnt fast niemand, was sich gegenüber dem Stadio di Cornaredo des FC Lugano verbirgt: eines der ehrgeizigsten KI-Projekte Europas.
Zwischen Fussball und Feuerwehr klingt die Zukunft wie ein Laubbläser. Im ersten Stock des grauen Baus liegt ein tiefer Ton in der Luft. Es ist das Grundrauschen von Alps, dem schnellsten Supercomputer der Schweiz, der im September 2024 in Betrieb ging.
Kraftprotz am Luganersee
Was in diesem Brummen steckt, ist schwer zu fassen: Damit ein herkömmliches Notebook dasselbe berechnet wie Alps in einem Tag, hätte es anfangen müssen, als noch Mammuts in Europa lebten. Während der Vorgänger (Piz Daint) ohrenbetäubend laut lief, ist Alps leiser. Der Supercomputer schlürft kaltes Wasser aus dem Luganersee zur Kühlung.
Dass die Schweiz bei der KI-Revolution mitmischen kann, verdankt sie einer klugen Weichenstellung und langjährigen Partnerschaften: 2021 bestellte das Swiss National Supercomputing Centre, CSCS, die neueste Generation von Nvidia-Grafikkarten, noch bevor der ChatGPT-Hype ausbrach. Alps kostete 100 Millionen Franken. Heute müsste man für den Supercomputer 400 Millionen Franken hinblättern. Statt die wertvollen Chips weiterzugeben, entschied man sich zusammen mit den Hochschulen für ein Moonshot-Projekt, also ein besonders gewagtes Vorhaben: ein eigenes Schweizer Sprachmodell.
«Wir wollen zeigen, dass es auch anders geht», erklärt Imanol Schlag. Er ist Forscher am ETH AI Center und Co-Leiter des Projekts. Das Schweizer KI-Modell soll offen, unabhängig und vertrauenswürdig sein. Der Forscher steht seit Monaten im Austausch mit dem CSCS, das Alps betreibt. Hier, wo sonst Klimamodelle entstehen und Forschungsaufgaben der ETH und anderer Hochschulen berechnet werden, wird jetzt künstliche Intelligenz (KI) trainiert. Ziel ist es, ein KI-Sprachmodell zu schaffen, das anders ist als ChatGPT.
David gegen Goliath
Die grossen KI-Konzerne sammeln heute Daten wie Staubsauger: Bücher, Zeitungsartikel, Wikipedia, Blogs: Alles, was im Netz steht, wird einverleibt und zum Training verwendet. Oft ohne zu fragen, manchmal gar illegal. So entstehen gigantische Sprachmodelle mit Billionen von Parametern. Je mehr Parameter ein Modell hat, desto besser kann es lernen und komplizierte Fragen beantworten. Aber Quantität ist nicht immer gleich Qualität.
Die Schweizer Forscher gehen einen anderen Weg. «Wir sind überzeugt, dass man mit sauber kuratierten Daten gute Modelle bauen kann, auch wenn sie kleiner sind», sagt Schlag. Eine Studie, an der er mitgearbeitet hat, zeigt: Das Schweizer KI-Modell kann leistungsfähig sein, ohne dubiose Trainingsdaten. SwissLLM wurde mit 15 Billionen sogenannten Token (Textbausteinen) trainiert (siehe Box). Darunter sind beispielsweise wissenschaftliche Inhalte, Quellcodes und 1000 Sprachen. Trotz kleinerer Grösse liegt die 70-Milliarden-Parameter-Version bei Tests auf Augenhöhe mit Metas Llama 3.
Helv-AI-tia, TeLLM, HAidi oder doch schlicht SwissLLM? Wie das KI-Modell heissen wird, das in den nächsten Wochen erscheinen soll, ist noch ein Mysterium. Vieles ist aber bekannt.
Grösse: zwei Versionen in Planung: eine kompakte mit 8 Milliarden und eine leistungsstarke mit 70 Milliarden Parametern. Download, sobald verfügbar, über huggingface.com.
Funktionen: reines Textmodell (Text-Input, Text-Output) – keine Bilder oder Audio. Die multimodalen Fähigkeiten sind für künftige Versionen geplant.
Trainingsdaten: Über 15 Billionen Textbausteine aus dem sogenannten Common-Crawl- und FineWeb2-Datensatz. Diese wurden optimiert gefiltert. Keine Medienartikel, Opt-out-Regeln via robots.txt-Files werden respektiert, 60 % Englisch, 40 % andere Sprachen.
Besonderheit: Im Gegensatz zu ChatGPT oder Open-Weight-Modellen wie Llama von Meta oder das neue GPT-OSS von OpenAI, ist das Schweizer Modell vollständig transparent und offen. Sprich: Code und Gewichtungen werden veröffentlicht. Sie sind das Fundament, aus dem das Wissen des Modells entsteht. Zudem sind die gesamten Trainingsdaten versioniert und damit weitgehend reproduzierbar.
Ethik: Verzicht auf dubiose Webquellen, Einhaltung von Datenschutz und EU KI-Recht.
Verfügbarkeit: voraussichtlich Ende Sommer 2025 als Download unter Apache-2-Lizenz. Kein eigenes Webinterface geplant, aber Gespräche mit Cloud-Anbietern laufen.
Anforderungen: Das grosse Modell setzt starke Hardware voraus: Es sind rund 130 Gigabyte GPU-Speicher nötig. Es braucht dafür mehrere Grafikkarten oder spezielle Hardware. Die kompakte Version ist genügsamer: Mit 16 GB Arbeitsspeicher lässt sie sich auf einem guten Laptop oder Standard-PC betreiben.
Training: rund drei Monate auf 4000 Grafikkarten von Alps. Energieverbrauch beim Training wie etwa «4000 Toaster, die rund um die Uhr laufen» oder zwei SBB-Züge im Gotthard bei Vollgas. Zu 100 Prozent klimaneutraler Strom beim Training.
Kosten: Konkrete Zahlen sind noch nicht öffentlich. Training erfolgte über «Millionen von Grafikkartenstunden», grösstenteils über vorhandene CSCS-Infrastruktur und Mittel der Swiss AI Initiative (20 Millionen Franken für 4 Jahre).
Helv-AI-tia, TeLLM, HAidi oder doch schlicht SwissLLM? Wie das KI-Modell heissen wird, das in den nächsten Wochen erscheinen soll, ist noch ein Mysterium. Vieles ist aber bekannt.
Grösse: zwei Versionen in Planung: eine kompakte mit 8 Milliarden und eine leistungsstarke mit 70 Milliarden Parametern. Download, sobald verfügbar, über huggingface.com.
Funktionen: reines Textmodell (Text-Input, Text-Output) – keine Bilder oder Audio. Die multimodalen Fähigkeiten sind für künftige Versionen geplant.
Trainingsdaten: Über 15 Billionen Textbausteine aus dem sogenannten Common-Crawl- und FineWeb2-Datensatz. Diese wurden optimiert gefiltert. Keine Medienartikel, Opt-out-Regeln via robots.txt-Files werden respektiert, 60 % Englisch, 40 % andere Sprachen.
Besonderheit: Im Gegensatz zu ChatGPT oder Open-Weight-Modellen wie Llama von Meta oder das neue GPT-OSS von OpenAI, ist das Schweizer Modell vollständig transparent und offen. Sprich: Code und Gewichtungen werden veröffentlicht. Sie sind das Fundament, aus dem das Wissen des Modells entsteht. Zudem sind die gesamten Trainingsdaten versioniert und damit weitgehend reproduzierbar.
Ethik: Verzicht auf dubiose Webquellen, Einhaltung von Datenschutz und EU KI-Recht.
Verfügbarkeit: voraussichtlich Ende Sommer 2025 als Download unter Apache-2-Lizenz. Kein eigenes Webinterface geplant, aber Gespräche mit Cloud-Anbietern laufen.
Anforderungen: Das grosse Modell setzt starke Hardware voraus: Es sind rund 130 Gigabyte GPU-Speicher nötig. Es braucht dafür mehrere Grafikkarten oder spezielle Hardware. Die kompakte Version ist genügsamer: Mit 16 GB Arbeitsspeicher lässt sie sich auf einem guten Laptop oder Standard-PC betreiben.
Training: rund drei Monate auf 4000 Grafikkarten von Alps. Energieverbrauch beim Training wie etwa «4000 Toaster, die rund um die Uhr laufen» oder zwei SBB-Züge im Gotthard bei Vollgas. Zu 100 Prozent klimaneutraler Strom beim Training.
Kosten: Konkrete Zahlen sind noch nicht öffentlich. Training erfolgte über «Millionen von Grafikkartenstunden», grösstenteils über vorhandene CSCS-Infrastruktur und Mittel der Swiss AI Initiative (20 Millionen Franken für 4 Jahre).
Doch es geht nicht nur um die Datenmenge. Die grossen KI-Modelle aus den USA haben zwar Billionen Parameter, aber sie sind nicht transparent. Und oft schwer steuerbar. «Die Schweiz hingegen setzt auf eine erklärbare KI, die nach wissenschaftlichen Prinzipien funktioniert», so Schlag.
Ein Besuch im Hochleistungsrechenzentrum in Lugano zeigt, wie offen dieses Denken auch am CSCS gedacht ist: Keine biometrischen Scanner, keine Panzertür, keine bewaffneten Sicherheitsangestellten. Ein Vertreter einer US-Techfirma soll kürzlich fassungslos reagiert haben: «US-Datencenter sind so abgeriegelt, da weiss oft nicht mal der Bürgermeister, dass sie existieren.» Hier: Sichtbeton, Glastüren und ein Espressoautomat am Eingang.
Der dritte Weg
Alps ist ein Kraftwerk für die Forschung, finanziert durch öffentliche Mittel. Private Firmen können den Supercomputer nutzen, aber nur in Zusammenarbeit mit einer Hochschule. Der Kernauftrag ist die Wissenschaft. Damit soll verhindert werden, dass die Technologie allein den Interessen grosser Konzerne dient.
Der Anspruch ist klar: Die Schweiz will KI nicht nur nutzen, sondern mitgestalten. Während die USA ihre KI-Modelle politisch auf Linie bringen und China gezielt staatsnahe Modelle für Zensur und Überwachung einsetzt, versucht die Schweiz einen dritten Weg. Dieser basiert auf einem simplen Grundsatz: Offenheit als Stärke. Die Schweiz will beweisen, dass ein Land ohne Hunderte Millionen Einwohner oder Tech-Giganten trotzdem eine relevante Rolle spielen kann, wenn es die richtigen Werte vertritt.
Doch als Eigenbrötler funktioniert das nicht. «Die Schweiz allein ist zu klein, um isoliert mit dem Rest der Welt zu konkurrieren», sagt Maria Grazia Giuffreda. Sie ist die stellvertretende Direktorin des CSCS in Lugano. «Deshalb ist die Zusammenarbeit absolut wichtig.» So soll eine gemeinsame KI-Infrastruktur entstehen, die europäischen Werten entspricht. Das ist auch Schlags Vision.
Die Dringlichkeit ist real. KI ist heute ein geopolitisches Machtinstrument. «Wenn wir da nicht selbst entwickeln, geben wir Kontrolle ab», sagt er. Und seine Warnung wird konkret: «Wenn OpenAI eines Tages entscheidet, ChatGPT abzuschalten, dann haben wir ein Problem.» Der Zugang zu einer solch zentralen Infrastruktur – vergleichbar mit der Elektrizitätsversorgung – dürfe nicht vom Geschäftsmodell einer US-Firma abhängen.
Baukasten für die Zukunft
Deshalb hat sich das Forscherteam bewusst gegen Konkurrenzdenken entschieden. Das Ziel ist nicht, ChatGPT zu schlagen, sondern ein Fundament zu schaffen. Für Europa, für Forschung, für die nächste Generation von KI-Anwendungen. Schlag spricht von einem «Baukasten für eine bessere Zukunft».
Die Anwendungen für das Schweizer KI-Modell sind vielfältig: Das Bundesgericht könnte Gerichtsentscheide automatisch zusammenfassen lassen, Unternehmen ihre E-Mail-Flut intelligenter sortieren, Behörden mehrsprachige Dokumente übersetzen. «Jegliche Arbeit mit Text-Input und Text-Output», erklärt Schlag die Möglichkeiten. Besonders im Rechts- und Medizinbereich, wo Datenschutz kritisch ist, kann ein transparentes, lokal betriebenes Modell punkten, da keine Daten an irgendwelche Server fliessen. Die Schweiz positioniert sich damit nicht nur als Forschungsstandort, sondern als politischer Akteur. Während die USA unter Donald Trump KI-Modelle «entideologisieren» wollen – und damit ihre eigene Ideologie durchsetzen – setzt man hier auf Vielfalt.
Doch dieser Weg ist fragil. Die für 2026 angekündigten Kürzungen bei Forschung und Bildung bereiten den hiesigen Experten Sorgen. «Ich hoffe, die Politik ist sich bewusst, in welchem Ausmass KI die Welt verändert», warnt Giuffreda. Nicht mehr voll in Forschung und KI zu investieren, könne die Schweiz «zu einem der Schlusslichter Europas machen, statt die Triebkraft zu sein, die wir bisher waren». Noch ist das Schweizer KI-Modell ein Experiment. Aber eines mit Rückgrat und Prinzipien – und ohne Staubsaugermentalität.