Mobile logo

19.09.2025

Apertus: Das offene Sprachmodell aus der Schweiz

Die Schweiz setzt ein starkes Zeichen für digitale Souveränität: Mit Apertus geht ein vollständig offenes Large Language Model (LLM) an den Start – entwickelt von Schweizer Spitzenforschung, für Wissenschaft, Wirtschaft und Gesellschaft.

Apertus offenes Sprachmodell aus der Schweiz

Mit Apertus hat die Schweiz ein vollständig offenes LLM vorgestellt, das weltweit Beachtung findet. Der Name ist Programm: Apertus stammt aus dem Lateinischen und bedeutet «offen». Das ist ein bewusstes Statement gegenüber proprietären Modellen wie ChatGPT oder Claude. 

Entwickelt wurde Apertus im Rahmen der Swiss AI Initiative von einem Konsortium aus ETH Zürich, EPFL Lausanne und dem Swiss National Supercomputing Centre (CSCS) und auf dem Supercomputer  «Alps» in Lugano trainiert.

Warum Apertus besonders ist

Apertus wurde auf 15 Billionen Tokens trainiert und deckt über 1’000 Sprachen ab; Mit einem besonderen Fokus auf Mehrsprachigkeit und Vielfalt. Bemerkenswert: Rund 40 % der Trainingsdaten stammen nicht aus dem Englischen. Damit berücksichtigt Apertus auch seltene Sprachen und Dialekte wie Schweizerdeutsch oder Rätoromanisch (CyberInsider, ETHZ).

Das Modell ist in zwei Varianten verfügbar – mit 8 Milliarden und 70 Milliarden Parametern – und erreicht damit ein Leistungsniveau, das laut Beobachtern mit Metas Llama 3 vergleichbar ist (The Verge, InfoWorld).

Ein zentrales Unterscheidungsmerkmal ist die radikale Transparenz und ethische Verantwortung:

  • Der gesamte Trainingsprozess – von den Daten über die Gewichte bis zu den Checkpoints – ist öffentlich zugänglich.
  • Es wurden ausschliesslich frei verfügbare, urheberrechtskonforme Datenquellen verwendet, und Opt-out-Anfragen wurden respektiert.

 

Damit erfüllt Apertus nicht nur die EU-Urheberrechtsrichtlinien, sondern auch die freiwillige europäische KI-Verhaltensregel (The Verge, ETHZ, InfoWorld).

Apertus ist damit weit mehr als ein reines Forschungsprojekt: Es wird zur öffentlichen Infrastruktur, vergleichbar mit Strassen oder Stromnetzen. Die Schweiz positioniert sich so als Vorreiterin für digitale Souveränität und schafft ein Gegengewicht zu internationalen Tech-Giganten (Medium).

Nutzungsmöglichkeiten von Apertus

Apertus ist flexibel einsetzbar und ermöglicht einen einfachen Einstieg:

  • Cloud-Zugang: Über Plattformen wie Hugging Face oder die öffentliche AI Inference Utility-Plattform kann das Modell direkt getestet werden (ETHZ).
  • On-Premises-Deployment: Für Institutionen mit hohen Datenschutzanforderungen (etwa im Gesundheitswesen, bei Banken oder Behörden) lässt sich Apertus lokal betreiben, sodass alle Daten im eigenen Rechenzentrum bleiben.
  • Hybridansatz: Sensible Daten verbleiben lokal, während die Rechenlast flexibel in die Cloud ausgelagert wird.

 

Zusätzlich stellt Swisscom Unternehmenskunden Apertus über eine souveräne Schweizer AI-Plattform zur Verfügung – unter anderem im Rahmen der Swiss {ai} Weeks, wo Entwickler:innen praxisnah mit Schnittstellen experimentieren können (ETHZ, Medium).

How-To: Apertus aus Hugging Face On-Premises deployen

Viele Unternehmen und Behörden möchten Sprachmodelle wie Apertus nicht nur in der Cloud nutzen, sondern selbst hosten. Das geschieht entweder innerhalb einer eigenen Cloud-Subscription (Public Cloud) oder vollständig On-Premises (Private Cloud). 

Gründe dafür sind strenger Datenschutz, der Schutz geistigen Eigentums und die Notwendigkeit, sensible oder vertrauliche Daten unter voller Kontrolle zu behalten.

 

Ein bewährter Ansatz ist ein zweistufiges Vorgehen:

  • Schritt 1: Schnelles Prototyping

    Mit containerisierten Deployments (z. B. vLLM) und Infrastructure as Code wird zunächst ein funktionsfähiger Prototyp erstellt. So lassen sich Use Cases rasch validieren.

     

  • Schritt 2: Integration in die IT-Landschaft

    Danach folgt die Anbindung an Identity- und Access-Management-Systeme wie Microsoft Entra ID oder SailPoint IIQ, die Integration von Monitoring und Logging sowie Sicherheitsoptimierungen. Der Prototyp wird so in eine produktionsreife Lösung überführt.

 

Für skalierbare Setups eignet sich Red Hat OpenShift AI, das LLMs effizient über hybride Cloud-Umgebungen hinweg betreiben kann. Die Plattform unterstützt verschiedene Frameworks, bringt integrierte Compliance-Funktionen mit und lässt sich flexibel anpassen (GitHub: rh-aiservices-bu/llm-on-openshift).

Organisationen mit besonders hohen Sicherheitsanforderungen können Apertus auch vollständig On-Premises betreiben. Die Modellgewichte stehen auf Hugging Face zur Verfügung und können auf eigener GPU-Infrastruktur gehostet werden. 

Für einen schnellen Start bietet das Swiss LLM Quickstart Repository konkrete Skripte und Beispiele. Es richtet sich zwar primär an Azure-Umgebungen, die enthaltenen Anleitungen lassen sich aber auch als Vorlage für On-Premises-Deployments verwenden (Azure Samples – Swiss LLM Quickstart).

 

Die praktische Umsetzung lässt sich in vier Schritten zusammenfassen:

  1. Modellgewichte herunterladen: direkt von Hugging Face oder aus dem Quickstart-Repo.
  2. Containerisierung einsetzen:  mit Docker oder Kubernetes sowie Inferenz-Bibliotheken wie vLLM für Effizienz und Skalierung.
  3. Deployment-Umgebung wählen: lokal, hybrid mit OpenShift AI oder in einer privaten Cloud-Subscription.
  4. Integration und Betrieb sichern: durch IAM-Anbindung, Monitoring & Logging sowie Frontend-Integration.

 

Vorteile des Self-Hostings:

Volle Datenhoheit, geopolitische Unabhängigkeit durch Hosting in Schweizer Rechenzentren, Flexibilität und Wiederverwendbarkeit dank containerisierter Deployments sowie Compliance-Sicherheit für streng regulierte Branchen. 

So wird Apertus zu einem zentralen Baustein für souveräne und vertrauenswürdige KI in der Schweiz.

Fazit zu Apertus

Mit Apertus hat die Schweiz ein Modell geschaffen, das offen, transparent und inklusiv ist und damit nicht nur technisch, sondern auch gesellschaftlich Massstäbe setzt. Es stärkt digitale Souveränität, schützt Minderheitensprachen und erfüllt hohe ethische Standards. 

Ob über Hugging Face, lokal im eigenen Rechenzentrum oder hybrid auf OpenShift – die Einsatzoptionen sind vielfältig und flexibel. Wer heute mit Apertus startet, gestaltet aktiv eine KI-Zukunft, die nicht auf Abhängigkeit, sondern auf Vertrauen und Offenheit basiert.

Gleichzeitig ist klar: Apertus ist nur der Anfang. Es wird als erstes Modell einer Serie verstanden, eine Grundlage, auf der weitere, verbesserte Generationen folgen sollen. Noch offen bleibt die Frage, wie leistungsfähig Apertus in komplexeren Aufgabenfeldern wie Tool Calling ist, also in Szenarien, die für den Einsatz als KI-Agenten entscheidend wären. 

Auch im Vergleich zu etablierten internationalen Modellen ist derzeit nicht eindeutig, wo die wirklichen Stärken und Alleinstellungsmerkmale von Apertus liegen. Diese Punkte gilt es in den kommenden Monaten durch Forschung, Benchmarks und erste Pilotanwendungen zu klären.

Über Andreas Schneider

«Die Herausforderung, aus Machine Learning einen hohen Nutzen zu ziehen, fasziniert mich. Die Konzeption & Umsetzung von AI-Services von der Datenbeschaffung bis zur Wertschöpfung liegt mir am Herzen.»

Andreas Schneider Casual

Über Valentin Verschinin

«Ich begeistere mich für alles rund um AI, Daten & Cloud, vor allem dafür, wie man mit guten Daten, durchdachter Technik & etwas Leidenschaft den Alltag unserer Kunden zukunftsfähiger machen kann.»

Valentin Verschinin Casual

Über Michael Stauffer

«Wie ein Architekt Räume erschafft, gestalte ich Daten-, AI/ML- und LLM-Plattformen, in denen Ideen zu Innovation werden.»

Michael Stauffer Casual