Kann das Schweizer LLM mithalten?
Aktualisierung (5. September 2025):
Dieser Blogpost wurde heute mit den neuesten Informationen über das veröffentlichte Modell Apertus aktualisiert. Lesen Sie unseren detaillierten Bericht über die Veröffentlichung für weitere Informationen.
Am 2. September 2025 veröffentlichte die Schweiz ihr eigenes Large Language Model (LLM) namens Apertus, entwickelt von der ETH Zürich, der EPFL und dem Swiss National Supercomputing Centre (CSCS). Das Projekt setzt auf Transparenz, Datenschutz und Sprachenvielfalt – und versteht sich als transparente, gemeinwohlorientierte Alternative zu kommerziellen KI-Modellen.
Doch wie realistisch ist dieses Ziel? Kann ein öffentlich finanziertes Modell mit Milliardenprojekten aus dem Silicon Valley wirklich mithalten? Wir haben alle verfügbaren Fakten geprüft – sachlich, kritisch und ohne Technik-Hype.
Was steckt hinter dem Schweizer LLM?
Das Modell ist Teil der Swiss AI Initiative, die Ende 2023 gestartet wurde. Die wichtigsten Eckpunkte:
- Open Source: Vollständig quelloffen – inklusive Modellgewichte, Quellcode, Trainingsdaten und Checkpoints auf Hugging Face und GitHub
- Modellgrössen: Zwei Varianten mit 8 Milliarden und 70 Milliarden Parametern
- Mehrsprachigkeit: Trainiert auf 15 Billionen Tokens in 1'811 Sprachen (Pretraining) und 149 Sprachen (Post-Training) – 40 % davon nicht auf Englisch
- Infrastruktur: Entwickelt auf dem Alps-Supercomputer am CSCS mit 10'752 NVIDIA GH200 Grace-Hopper-Chips
- Datenschutz: Konform mit der DSGVO, dem EU AI Act und Schweizer Datenschutzgesetzen
Forschung: Stark besetzt, aber nicht überfinanziert
Die ETH Zürich und die EPFL zählen zu den weltweit führenden Hochschulen für Technik und Naturwissenschaften. Im Bereich Künstliche Intelligenz sind sie gut aufgestellt:
- Prof. Andreas Krause (ETH) ist ein international anerkannter Experte für Reinforcement Learning
- Prof. Martin Jaggi (EPFL) leitet das Machine Learning & Optimization Lab
- Seit 2024 stärkt das Swiss National AI Institute die Zusammenarbeit zwischen Forschung und Anwendung
Trotzdem: ETH und EPFL können nicht mit den Gehältern und Ressourcen von OpenAI oder xAI mithalten. Sie bieten dafür etwas anderes – ein Umfeld für offene, ethisch orientierte Forschung. Für ein öffentliches Modell wie das Schweizer LLM ist das eine solide Ausgangsbasis.
Rechenleistung: Stark – aber nicht konkurrenzfähig
Apertus wurde auf dem Alps-Supercomputer am CSCS trainiert, der seit September 2024 in Betrieb ist:
Hardware-Spezifikationen:
- 10'752 NVIDIA GH200 Grace-Hopper-Chips (gesamt)
- Training lief auf 2'048–4'096 GPUs
- ~6 Millionen GPU-Stunden Gesamttraining
- 6.74×10²⁴ FLOPs (Floating Point Operations)
- ~5 GWh Energieverbrauch (aus Wasserkraft)
- ~80% Skalierungseffizienz
Zum Vergleich:
- GPT-4 wurde laut Analysen mit rund 25'000 A100-GPUs über 90–100 Tage trainiert
- Grok 4 von xAI nutzt den Supercomputer Colossus mit bis zu 200'000 NVIDIA H100 GPUs
Fazit: Für ein akademisches Projekt ist Alps leistungsstark. Aber im Vergleich mit den massiven Rechenzentren der grossen Tech-Konzerne liegt es deutlich zurück – was sich auf Trainingsgeschwindigkeit und Modellgrösse auswirkt.
Trainingsdaten: Qualität vor Quantität
Apertus wurde mit rund 15 Billionen Tokens trainiert. Besonders bemerkenswert ist der hohe Anteil an nicht-englischen Daten (40 %) sowie die Abdeckung von 1'811 Sprachen im Pretraining und 149 Sprachen im Post-Training – darunter auch seltene wie Rätoromanisch oder Zulu.
Die Daten wurden ethisch beschafft – also ohne illegales Scraping, unter Beachtung von robots.txt, Urheberrechten, Toxizitätsfiltern und PII-Schutz. Das schränkt zwar den Zugriff auf bestimmte Fachinformationen ein, dafür betont das CSCS: „Für allgemeine Aufgaben führt das nicht zu messbaren Leistungseinbussen."
Sprachenvielfalt: Hier ist das Schweizer LLM führend
Die Unterstützung von 1'811 Sprachen im Pretraining und 149 Sprachen im Post-Training ist bemerkenswert – auch im Vergleich zu kommerziellen Modellen:
Modell | Sprachabdeckung |
---|---|
Apertus | 1'811 Sprachen (Pretraining), 149 Sprachen (Post-Training) |
GPT-4.5 | ~80–120 Sprachen |
Claude 4 | keine offizielle Zahl |
Llama 4 | 12 Sprachen (200+ in Training) |
Diese Breite ist besonders relevant für:
- KMUs mit internationalem Publikum
- Organisationen mit mehrsprachiger Kommunikation
- Anwendungen in Ländern mit sprachlicher Vielfalt
Transparenz & Datenschutz: Vorteil mit Kompromissen
Apertus ist vollständig quelloffen und transparent – Code, Gewichte, Trainingsdaten und Checkpoints sind öffentlich auf Hugging Face und GitHub verfügbar. Es erfüllt die Anforderungen der DSGVO, des EU AI Act und der Schweizer Datenschutzverordnung.
Das macht es attraktiv für:
- Behörden und Institutionen
- Unternehmen in regulierten Branchen
- Forschung und Bildung
Aber: Der Verzicht auf bestimmte Datenquellen – etwa medizinische Fachliteratur – kann die Leistung in spezialisierten Aufgaben begrenzen. Kommerzielle Modelle haben hier Vorteile, weil sie auf proprietäre Inhalte zugreifen können.
Modellvergleich: Wie schlägt sich das Schweizer LLM?
Modell | Parameterzahl | Offenheit | Training-Hardware | Stärken |
---|---|---|---|---|
Apertus | 8B / 70B | Vollständig Open Source | Alps: 2'048–4'096 GH200 GPUs | Sprachvielfalt, Datenschutz, Transparenz |
GPT-4.5 | ~2T (geschätzt) | Proprietär | Azure: ~25'000 A100 GPUs | Kreativität, natürliche Gespräche, Agentic Planning |
Claude 4 | Nicht veröffentlicht | Proprietär | Anthropic: Interne Cluster | Adaptives Reasoning, Coding |
Llama 4 | 109B / 400B | Open Weight | Meta: ~20'000 H100 GPUs | Multimodalität, 200 Sprachen, Agentic Tasks |
Grok 4 | ~1.8T MoE | Proprietär | Colossus: 200'000 H100 GPUs | Reasoning, Echtzeit-Daten, Humor |
Was bedeutet das für die Praxis?
Apertus wird nicht die leistungsstärkste KI am Markt sein. Aber es ist ein starkes Werkzeug für viele konkrete Anwendungen – besonders in Europa:
Geeignet für:
- Mehrsprachige Chatbots und Kundensupport
- Textzusammenfassungen und Übersetzungen
- Anwendungen in regulierten Sektoren (z. B. Gesundheitswesen)
- Forschung, Bildung und Open-Source-Projekte
Nicht geeignet für:
- Hochkomplexe Reasoning-Aufgaben
- Multimodale Anwendungen (z. B. Sprache + Bild + Video)
- Performance auf GPT-4o- oder Grok-Niveau
Fazit: Ein wichtiges Modell – mit klarer Ausrichtung
Apertus ist kein Wundermodell. Aber es ist ein verantwortungsvoll entwickeltes, transparentes und sprachlich breit aufgestelltes KI-System, das genau dort punktet, wo kommerzielle Modelle oft Defizite zeigen: beim Datenschutz, der Offenheit und der regulatorischen Sicherheit.
In einem Markt, der zunehmend von «Black-Box»-Modellen dominiert wird, setzt die Schweiz ein bewusst anderes Zeichen. Als transparente, gemeinwohlorientierte Alternative ist Apertus vergleichbar mit Llama 3 – nicht konkurrenzfähig an der Spitze, aber ein solider, offener Baseline für Forschung und Anwendung.
Apertus zeigt: Auch ohne Milliarden-Budgets lassen sich respektable KI-Modelle entwickeln, die in wichtigen Bereichen wie Datenschutz und Transparenz neue Standards setzen.