Schweizer KI-Projekt

Kann das Schweizer LLM mithalten?

Die Schweiz veröffentlicht 2025 ihr eigenes Large Language Model, entwickelt von ETH Zürich, EPFL und CSCS. Das Projekt setzt auf Transparenz, Datenschutz und Sprachenvielfalt – aber kann es mit KI-Giganten wie OpenAI oder Meta mithalten?
Veröffentlicht am 11. Juli 2025 · von Michael J. Baumann

Im Spätsommer 2025 veröffentlicht die Schweiz ihr eigenes Large Language Model (LLM), entwickelt von der ETH Zürich, der EPFL und dem Swiss National Supercomputing Centre (CSCS). Das Projekt setzt auf Transparenz, Datenschutz und Sprachenvielfalt – und versteht sich als europäische Alternative zu KI-Giganten wie OpenAI, Anthropic, Meta oder xAI.

Doch wie realistisch ist dieses Ziel? Kann ein öffentlich finanziertes Modell mit Milliardenprojekten aus dem Silicon Valley wirklich mithalten? Wir haben alle verfügbaren Fakten geprüft – sachlich, kritisch und ohne Technik-Hype.

Was steckt hinter dem Schweizer LLM?

Das Modell ist Teil der Swiss AI Initiative, die Ende 2023 gestartet wurde. Die wichtigsten Eckpunkte:

  • Open Source: Veröffentlicht unter Apache-2.0 – inklusive Quellcode, Modellgewichten und Trainingsdaten
  • Modellgrössen: Zwei Varianten mit 8 Milliarden und 70 Milliarden Parametern
  • Mehrsprachigkeit: Trainiert auf mehr als 15 Billionen Tokens in über 1'500 Sprachen – 40 % davon nicht auf Englisch
  • Infrastruktur: Entwickelt auf dem neuen Alps-Supercomputer am CSCS mit über 10'000 NVIDIA GH200 Grace-Hopper-Chips
  • Datenschutz: Konform mit der DSGVO, dem EU AI Act und Schweizer Datenschutzgesetzen

Forschung: Stark besetzt, aber nicht überfinanziert

Die ETH Zürich und die EPFL zählen zu den weltweit führenden Hochschulen für Technik und Naturwissenschaften. Im Bereich Künstliche Intelligenz sind sie gut aufgestellt:

Trotzdem: ETH und EPFL können nicht mit den Gehältern und Ressourcen von OpenAI oder xAI mithalten. Sie bieten dafür etwas anderes – ein Umfeld für offene, ethisch orientierte Forschung. Für ein öffentliches Modell wie das Schweizer LLM ist das eine solide Ausgangsbasis.

Rechenleistung: Stark – aber nicht konkurrenzfähig

Das Schweizer LLM wird auf dem neuen Alps-Supercomputer trainiert, der seit September 2024 am CSCS in Betrieb ist:

Zum Vergleich:

  • GPT-4 wurde laut Analysen mit rund 25'000 A100-GPUs über 90–100 Tage trainiert
  • Grok 4 von xAI nutzt den Supercomputer Colossus mit bis zu 200'000 NVIDIA H100 GPUs

Fazit: Für ein akademisches Projekt ist Alps leistungsstark. Aber im Vergleich mit den massiven Rechenzentren der grossen Tech-Konzerne liegt es deutlich zurück – was sich auf Trainingsgeschwindigkeit und Modellgrösse auswirkt.

Trainingsdaten: Qualität vor Quantität

Das Schweizer LLM wurde mit rund 15 Billionen Tokens trainiert. Besonders bemerkenswert ist der hohe Anteil an nicht-englischen Daten (40 %) sowie die Abdeckung von über 1'500 Sprachen – darunter auch seltene wie Rätoromanisch oder Zulu.

Die Daten wurden ethisch beschafft – also ohne illegales Scraping, unter Beachtung von robots.txt und urheberrechtlichen Vorgaben. Das schränkt zwar den Zugriff auf bestimmte Fachinformationen ein, dafür betont das CSCS: „Für allgemeine Aufgaben führt das nicht zu messbaren Leistungseinbussen."

Sprachenvielfalt: Hier ist das Schweizer LLM führend

Die Unterstützung von über 1'500 Sprachen ist aktuell einzigartig – auch im Vergleich zu kommerziellen Modellen:

ModellSprachabdeckung
Swiss LLM>1'500 Sprachen
GPT-4.5~80–120 Sprachen
Claude 4keine offizielle Zahl
Llama 412 Sprachen (200+ in Training)

Diese Breite ist besonders relevant für:

  • KMUs mit internationalem Publikum
  • Organisationen mit mehrsprachiger Kommunikation
  • Anwendungen in Ländern mit sprachlicher Vielfalt

Transparenz & Datenschutz: Vorteil mit Kompromissen

Das Schweizer LLM ist vollständig offen – Code, Gewichte, Trainingsdaten: alles öffentlich. Es erfüllt die Anforderungen der DSGVO, des EU AI Act und der Schweizer Datenschutzverordnung.

Das macht es attraktiv für:

  • Behörden und Institutionen
  • Unternehmen in regulierten Branchen
  • Forschung und Bildung

Aber: Der Verzicht auf bestimmte Datenquellen – etwa medizinische Fachliteratur – kann die Leistung in spezialisierten Aufgaben begrenzen. Kommerzielle Modelle haben hier Vorteile, weil sie auf proprietäre Inhalte zugreifen können.

Modellvergleich: Wie schlägt sich das Schweizer LLM?

ModellParameterzahlOffenheitTraining-HardwareStärken
Swiss LLM8B / 70BOpen SourceAlps: 10'752 GH200 GPUsSprachvielfalt, Datenschutz, Transparenz
GPT-4.5~2T (geschätzt)ProprietärAzure: ~25'000 A100 GPUsKreativität, natürliche Gespräche, Agentic Planning
Claude 4Nicht veröffentlichtProprietärAnthropic: Interne ClusterAdaptives Reasoning, Coding
Llama 4109B / 400BOpen WeightMeta: ~20'000 H100 GPUsMultimodalität, 200 Sprachen, Agentic Tasks
Grok 4~1.8T MoEProprietärColossus: 200'000 H100 GPUsReasoning, Echtzeit-Daten, Humor

Was bedeutet das für die Praxis?

Das Schweizer LLM wird nicht die leistungsstärkste KI am Markt sein. Aber es ist ein starkes Werkzeug für viele konkrete Anwendungen – besonders in Europa:

Geeignet für:

  • Mehrsprachige Chatbots und Kundensupport
  • Textzusammenfassungen und Übersetzungen
  • Anwendungen in regulierten Sektoren (z. B. Gesundheitswesen)
  • Forschung, Bildung und Open-Source-Projekte

Nicht geeignet für:

  • Hochkomplexe Reasoning-Aufgaben
  • Multimodale Anwendungen (z. B. Sprache + Bild + Video)
  • Performance auf GPT-4o- oder Grok-Niveau

Fazit: Ein wichtiges Modell – mit klarer Ausrichtung

Das Schweizer LLM ist kein Wundermodell. Aber es ist ein verantwortungsvoll entwickeltes, transparentes und sprachlich breit aufgestelltes KI-System, das genau dort punktet, wo kommerzielle Modelle oft Defizite zeigen: beim Datenschutz, der Offenheit und der regulatorischen Sicherheit.

In einem Markt, der zunehmend von «Black-Box»-Modellen dominiert wird, setzt die Schweiz ein bewusst anderes Zeichen. Ob sich dieses Modell durchsetzt, wird sich in den nächsten Monaten zeigen – je nachdem, wie stark die Community es weiterentwickelt und wie gezielt es eingesetzt wird.

Das Schweizer LLM zeigt: Auch ohne Milliarden-Budgets lassen sich respektable KI-Modelle entwickeln, die in wichtigen Bereichen wie Datenschutz und Transparenz neue Standards setzen.


Quellen:

effektiv Dot