Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.

ETH zieht Bilanz nach Start – aber Zukunft ist ungewiss
420'000 Downloads für Schweizer KI-Modell Apertus

Ein Monat nach dem Launch von Apertus zieht EPFL-Professor Martin Jaggi im Podcast Prompt Zero Bilanz. Die Kritik am ersten Schweizer Sprachmodell nimmt er gelassen und erklärt, warum das Schweizer LLM keine ChatGPT-Alternative ist. Wie gehts jetzt weiter?
Publiziert: 11:44 Uhr
|
Aktualisiert: vor 39 Minuten
Teilen
Anhören
Kommentieren
1/4
Seit einem Monat da: Das Schweizer KI-Sprachmodell Apertus.
Foto: EPFL, ETH Zurich, CSCS / molinari design

Darum gehts

  • Schweizer KI-Modell Apertus: Euphorie und Ernüchterung nach der Lancierung
  • Apertus ist kein fertiges Produkt, sondern ein Basismodell ohne Zusatzfunktionen
  • Über 420'000 Downloads der beiden Apertus-Modelle auf Huggingface.co verzeichnet
Die künstliche Intelligenz von Blick lernt noch und macht vielleicht Fehler.
nnnnnnn.jpg
Tobias BolzernRedaktor Digital

Als Apertus am 2. September lanciert wurde, war die Euphorie gross: Ein Schweizer KI-Modell, trainiert auf über 1000 Sprachen, transparent, offen und mit legalen Daten. Doch schnell kam Ernüchterung auf: Gegen die bekannten Modelle hat Apertus keinen Stich. Und es gab auch Kritik: Wer nach Schweizer Bundesräten fragte, erhielt gar frei erfundene Namen.

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.

«Das war ein bisschen enttäuschend für uns», gibt Martin Jaggi. Der EPFL-Professor leitete das Projekt zusammen mit Kollegen aus Zürich und Lausanne. Im Gespräch mit Blick aber hält er dagegen: «Auch anderen offene KI-Modelle wie Lama oder Qwen liegen bei den Schweizer Bundesräten falsch.»

Motor statt Auto

Das Chrüsimüsi zum Start war programmiert. «Wir haben immer gesagt: Wir sind keine ChatGPT-Alternative», sagt Jaggi. «Apertus ist kein fertiges Auto, es ist nur der Motor davon.» Ein Basismodell, ohne Schnickschnack wie Suchmaschinenanbindung. Ganz im Gegensatz zu ChatGPT, dass ein kommerzielles Produkt ist und zudem mit einem Vielfachen an Budget trainiert wurde.

Die ersten Zahlen? Durchaus beeindruckend. Über 420'000 Downloads verzeichneten die beiden Modelle auf Huggingface.co. Zum Vergleich: Das neuste Qwen-Modell aus China erreichte im selben Zeitraum 4,2 Millionen Downloads: David gegen Goliath.

Erste Demos mit Apertus

Bei 15 Hackathons in Zürich, Lausanne und Basel tüfteln Entwickler die vergangenen Wochen an ersten Anwendungen mit dem Schweizer KI-Modell. Hier drei Ideen, die entstanden sind: 

  • Mut zur Lücke: Eine Lern-App gegen den Prüfungsstress. Man kann alte Prüfungen und Notizen hochladen und die App erstellt einen realistischen Lernplan nach den verbleibenden Stunden. Keine Schönfärberei, sondern nüchterne Einschätzung (z. B. «55% schaffbar»)
  • Tibetischer Chatbot: ein KI-Tutor für die tibetische Sprache. Auf Basis von Apertus 8B beantwortet dieser Chatbot Fragen mit Textquellen. Gedacht als interaktive Lernhilfe für Studierende.
  • UNHCR-Automatisierung: KI-Tool zur Unterstützung von Flüchtlingsinterviews. Mitarbeitende können Transkripte hochladen, das System kategorisiert die Antworten automatisch und spart so bis zu 80 Prozent Zeit und Kosten. Die Basis bildet Apertus.
Tibetischer Chatbot, gebaut mit Apertus im Hintergrund.
Foto: Tobias Bolzern

Ist die Schweiz bereit, Milliarden zu investieren?

Die Zukunft ist ungewiss bis düster. Während US-Konzerne Rechenzentren mit der Leistung von zehn Atomkraftwerken hochziehen, wurde Apertus mit einem Faktor 1000 weniger in Lugano trainiert. Zudem hatte die Schweiz Glück, dass sie die nötigen GPUs von Nvidia noch vor dem GenAI-Boom relativ günstig kaufen konnte.

«Längerfristig ist schon die Frage, ob die Schweiz den Aufwand stemmen kann», sagt Jaggi. Der Plan: jährlich ein verbessertes Modell, eventuell in Kooperation mit Partnern in Europa. Das hängt aber auch von den finanziellen Mitteln ab.

Das Vermächtnis soll laut Jaggi bleiben: «Ich hoffe, dass wir mehr Transparenz erreichen können in KI-Modellen.»

Weitere Themen in Podcast-Folge #35

  • Gesundheits-Turbulenzen und Dr. AI
  • Die Obsession von Tech-Milliardär Peter Thiel mit dem Antichristen
  • Erleichterung für Eltern: ChatGPT bringt nach Skandalen die Kindersicherung
Teilen
Fehler gefunden? Jetzt melden
Was sagst du dazu?
Heiss diskutiert
    Meistgelesen
      Meistgelesen