Kann das Schweizer LLM mithalten?
Im Spätsommer 2025 veröffentlicht die Schweiz ihr eigenes Large Language Model (LLM), entwickelt von der ETH Zürich, der EPFL und dem Swiss National Supercomputing Centre (CSCS). Das Projekt setzt auf Transparenz, Datenschutz und Sprachenvielfalt – und versteht sich als europäische Alternative zu KI-Giganten wie OpenAI, Anthropic, Meta oder xAI.
Doch wie realistisch ist dieses Ziel? Kann ein öffentlich finanziertes Modell mit Milliardenprojekten aus dem Silicon Valley wirklich mithalten? Wir haben alle verfügbaren Fakten geprüft – sachlich, kritisch und ohne Technik-Hype.
Was steckt hinter dem Schweizer LLM?
Das Modell ist Teil der Swiss AI Initiative, die Ende 2023 gestartet wurde. Die wichtigsten Eckpunkte:
- Open Source: Veröffentlicht unter Apache-2.0 – inklusive Quellcode, Modellgewichten und Trainingsdaten
- Modellgrössen: Zwei Varianten mit 8 Milliarden und 70 Milliarden Parametern
- Mehrsprachigkeit: Trainiert auf mehr als 15 Billionen Tokens in über 1'500 Sprachen – 40 % davon nicht auf Englisch
- Infrastruktur: Entwickelt auf dem neuen Alps-Supercomputer am CSCS mit über 10'000 NVIDIA GH200 Grace-Hopper-Chips
- Datenschutz: Konform mit der DSGVO, dem EU AI Act und Schweizer Datenschutzgesetzen
Forschung: Stark besetzt, aber nicht überfinanziert
Die ETH Zürich und die EPFL zählen zu den weltweit führenden Hochschulen für Technik und Naturwissenschaften. Im Bereich Künstliche Intelligenz sind sie gut aufgestellt:
- Prof. Andreas Krause (ETH) ist ein international anerkannter Experte für Reinforcement Learning
- Prof. Martin Jaggi (EPFL) leitet das Machine Learning & Optimization Lab
- Seit 2024 stärkt das Swiss National AI Institute die Zusammenarbeit zwischen Forschung und Anwendung
Trotzdem: ETH und EPFL können nicht mit den Gehältern und Ressourcen von OpenAI oder xAI mithalten. Sie bieten dafür etwas anderes – ein Umfeld für offene, ethisch orientierte Forschung. Für ein öffentliches Modell wie das Schweizer LLM ist das eine solide Ausgangsbasis.
Rechenleistung: Stark – aber nicht konkurrenzfähig
Das Schweizer LLM wird auf dem neuen Alps-Supercomputer trainiert, der seit September 2024 am CSCS in Betrieb ist:
- 10'752 NVIDIA GH200 Grace-Hopper-Chips
- Rechenleistung: 270–435 PFLOPS
- Platz 6 auf der TOP500-Liste (Juni 2024)
Zum Vergleich:
- GPT-4 wurde laut Analysen mit rund 25'000 A100-GPUs über 90–100 Tage trainiert
- Grok 4 von xAI nutzt den Supercomputer Colossus mit bis zu 200'000 NVIDIA H100 GPUs
Fazit: Für ein akademisches Projekt ist Alps leistungsstark. Aber im Vergleich mit den massiven Rechenzentren der grossen Tech-Konzerne liegt es deutlich zurück – was sich auf Trainingsgeschwindigkeit und Modellgrösse auswirkt.
Trainingsdaten: Qualität vor Quantität
Das Schweizer LLM wurde mit rund 15 Billionen Tokens trainiert. Besonders bemerkenswert ist der hohe Anteil an nicht-englischen Daten (40 %) sowie die Abdeckung von über 1'500 Sprachen – darunter auch seltene wie Rätoromanisch oder Zulu.
Die Daten wurden ethisch beschafft – also ohne illegales Scraping, unter Beachtung von robots.txt und urheberrechtlichen Vorgaben. Das schränkt zwar den Zugriff auf bestimmte Fachinformationen ein, dafür betont das CSCS: „Für allgemeine Aufgaben führt das nicht zu messbaren Leistungseinbussen."
Sprachenvielfalt: Hier ist das Schweizer LLM führend
Die Unterstützung von über 1'500 Sprachen ist aktuell einzigartig – auch im Vergleich zu kommerziellen Modellen:
Modell | Sprachabdeckung |
---|---|
Swiss LLM | >1'500 Sprachen |
GPT-4.5 | ~80–120 Sprachen |
Claude 4 | keine offizielle Zahl |
Llama 4 | 12 Sprachen (200+ in Training) |
Diese Breite ist besonders relevant für:
- KMUs mit internationalem Publikum
- Organisationen mit mehrsprachiger Kommunikation
- Anwendungen in Ländern mit sprachlicher Vielfalt
Transparenz & Datenschutz: Vorteil mit Kompromissen
Das Schweizer LLM ist vollständig offen – Code, Gewichte, Trainingsdaten: alles öffentlich. Es erfüllt die Anforderungen der DSGVO, des EU AI Act und der Schweizer Datenschutzverordnung.
Das macht es attraktiv für:
- Behörden und Institutionen
- Unternehmen in regulierten Branchen
- Forschung und Bildung
Aber: Der Verzicht auf bestimmte Datenquellen – etwa medizinische Fachliteratur – kann die Leistung in spezialisierten Aufgaben begrenzen. Kommerzielle Modelle haben hier Vorteile, weil sie auf proprietäre Inhalte zugreifen können.
Modellvergleich: Wie schlägt sich das Schweizer LLM?
Modell | Parameterzahl | Offenheit | Training-Hardware | Stärken |
---|---|---|---|---|
Swiss LLM | 8B / 70B | Open Source | Alps: 10'752 GH200 GPUs | Sprachvielfalt, Datenschutz, Transparenz |
GPT-4.5 | ~2T (geschätzt) | Proprietär | Azure: ~25'000 A100 GPUs | Kreativität, natürliche Gespräche, Agentic Planning |
Claude 4 | Nicht veröffentlicht | Proprietär | Anthropic: Interne Cluster | Adaptives Reasoning, Coding |
Llama 4 | 109B / 400B | Open Weight | Meta: ~20'000 H100 GPUs | Multimodalität, 200 Sprachen, Agentic Tasks |
Grok 4 | ~1.8T MoE | Proprietär | Colossus: 200'000 H100 GPUs | Reasoning, Echtzeit-Daten, Humor |
Was bedeutet das für die Praxis?
Das Schweizer LLM wird nicht die leistungsstärkste KI am Markt sein. Aber es ist ein starkes Werkzeug für viele konkrete Anwendungen – besonders in Europa:
Geeignet für:
- Mehrsprachige Chatbots und Kundensupport
- Textzusammenfassungen und Übersetzungen
- Anwendungen in regulierten Sektoren (z. B. Gesundheitswesen)
- Forschung, Bildung und Open-Source-Projekte
Nicht geeignet für:
- Hochkomplexe Reasoning-Aufgaben
- Multimodale Anwendungen (z. B. Sprache + Bild + Video)
- Performance auf GPT-4o- oder Grok-Niveau
Fazit: Ein wichtiges Modell – mit klarer Ausrichtung
Das Schweizer LLM ist kein Wundermodell. Aber es ist ein verantwortungsvoll entwickeltes, transparentes und sprachlich breit aufgestelltes KI-System, das genau dort punktet, wo kommerzielle Modelle oft Defizite zeigen: beim Datenschutz, der Offenheit und der regulatorischen Sicherheit.
In einem Markt, der zunehmend von «Black-Box»-Modellen dominiert wird, setzt die Schweiz ein bewusst anderes Zeichen. Ob sich dieses Modell durchsetzt, wird sich in den nächsten Monaten zeigen – je nachdem, wie stark die Community es weiterentwickelt und wie gezielt es eingesetzt wird.
Das Schweizer LLM zeigt: Auch ohne Milliarden-Budgets lassen sich respektable KI-Modelle entwickeln, die in wichtigen Bereichen wie Datenschutz und Transparenz neue Standards setzen.
Quellen: