Large Language Models (LLMs) sind zum Fundament der modernen Entwicklung im Bereich der künstlichen Intelligenz geworden. Sie haben das Zeitalter der generativen KI eingeleitet und prägen es heute, von einfachen Chatbot-Anwendungen bis hin zum agentischen Engineering und anderen komplexen, von KI-Agenten gesteuerten automatisierten Workflows. Ihr Aufkommen markiert einen grundlegenden Wendepunkt in der Geschichte des maschinellen Lernens.
Mit zunehmender Reife der Technologie kommen immer mehr neue LLMs auf den Markt. Sowohl führende KI-Entwickler als auch neue Start-ups und etablierte Großunternehmen bringen ständig neue Modelle heraus und verfeinern diese. Gleichzeitig arbeitet die Open-Source-Community kontinuierlich an der Feinabstimmung von Open-Source-LLMs, indem sie bestehende Modelle mit benutzerdefinierten Datensätzen kombiniert und modifiziert, um unzählige Varianten zu schaffen. Daher kann keine Liste von LLMs Anspruch auf Vollständigkeit erheben – und selbst die „vollständigste“ Liste würde diesen Anspruch nicht lange behalten.
Im Folgenden finden Sie eine Liste einiger der derzeit bekanntesten und leistungsstärksten Large Language Models. Hier sind einige Punkte, die es zu beachten gilt:
In der Praxis lassen sich LLMs im Allgemeinen in zwei Kategorien einteilen: Closed-Source-LLMs, die ausschließlich als kommerzielle Angebote über den Modellentwickler erhältlich sind, und Open-Modelle, die kostenlos zur Verfügung gestellt werden.
Auf ein Closed-Source-Modell oder ein proprietäres Modell kann nur direkt auf der Plattform des Modellentwicklers, auf anderen Plattformen, für die er sein Modell lizenziert hat, oder über die proprietäre API des Modellanbieters zugegriffen werden.
Da Entwickler geschlossener Modelle ihre technischen Details in der Regel als streng gehütete Geschäftsgeheimnisse behandeln, ist es meist unmöglich, die genauen Angaben zur Größe eines geschlossenen Modells, zur Architektur seines neuronalen Netzes oder zu seinem Trainingsprozess mit Sicherheit zu erfahren. Einige Details lassen sich zwar ableiten – beispielsweise durch den Vergleich der Inferenzgeschwindigkeit, der GPU-Speichernutzung und der Benchmark-Leistung eines geschlossenen Modells mit denen offener Modelle, deren Details öffentlich bekannt sind –, doch werden diese selten, wenn überhaupt, bestätigt.
Spätestens seit etwa 2022 sind die meisten hochmodernen Pioniermodelle zu jedem beliebigen Zeitpunkt geschlossene Modelle – doch dies spiegelt in erster Linie die realen historischen Gegebenheiten der Branche wider und nicht etwa eine inhärente Überlegenheit geschlossener Modelle gegenüber offenen Modellen. Nachfolgend sind einige der bemerkenswertesten geschlossenen Modellreihen in alphabetischer Reihenfolge aufgeführt.
Die Claude-Sprachmodelle von Anthropic gehören zu den leistungsstärksten der Welt. Anthropic wurde 2021 von ehemaligen OpenAI-Mitarbeitern ursprünglich als Forschungslabor für KI-Sicherheit gegründet. Der Ansatz des Unternehmens bei der Modellentwicklung basiert auf dem einzigartigen Konzept der Constitutional AI. Claudes „Verfassung“ ist ein Dokument, das nicht nur als Leitfaden für das Verhalten der Mitarbeiter von Anthropic dient, sondern auch für das Verhalten (und die Erstellung von synthetischen Trainingsdaten) der Claude-Modelle selbst.
Seit Claude 3 verfügen die nachfolgenden Generationen von Claude über multimodale Modelle in drei verschiedenen Größen:
Claude Haiku, Sonnet und Opus können alle Text-, Audio- und Bildeingaben verarbeiten und Text oder Audio (als Text to Speech) ausgeben. Im Gegensatz zu den meisten ihrer Konkurrenten mit geschlossenen Modellen waren sie (und die Claude-Plattform, auf der sie basieren) bisher nicht in der Lage, Bilder zu generieren – doch seit dem 12. März 2026 kann Claude nun Bilder generieren. Beim Zugriff auf die Modelle über die Claude-API können Nutzer den „Aufwandsgrad“ des Schlussfolgerungsprozesses von Sonnet oder Opus auf „max“, „hoch“, „mittel“, „niedrig“ oder „adaptiv“ einstellen.
Gemini ist Googles Serie geschlossener Sprachmodelle, die von der Tochtergesellschaft Google DeepMind entwickelt und erstmals im Dezember 2023 vorgestellt wurde. Es ist erwähnenswert, dass Google Brain (das 2023 mit DeepMind zu Google DeepMind fusionierte) für die Entwicklung der Transformer-Architektur des Transformator-Modells verantwortlich ist, das die ersten großen Sprachmodelle (LLMs) ermöglichte, nachdem es 2017 die bahnbrechende Forschungsarbeit „Attention is All You Need“ veröffentlicht hatte.
Seit Anfang 2025 hat Google jede Generation der Gemini-Modelle in drei verschiedenen Größen veröffentlicht, bei denen es sich durchweg um Modelle für logisches Schlussfolgern handelt. Beim Zugriff über die Gemini-API können Nutzer eine von mehreren „Denkstufen“ auswählen, um die Anzahl der Token und die Zeit, die das Modell benötigt, bevor es eine endgültige Ausgabe generiert, individuell anzupassen.
Die Modelle Gemini Pro, Flash und Flash-Lite sind von Haus aus multimodal: Sie können Text-, Audio-, Bild- oder Videoeingaben verarbeiten und Textausgaben generieren. Bei Zugriff über die Gemini-Plattform können multimodale Ausgaben mithilfe der separaten, spezialisierten Modelle von Gemini für die Bild-, Video- oder Musikgenerierung erstellt werden.
Seit der Veröffentlichung von Gemini 2.5 Pro im März 2025, das damals in den meisten akademischen Benchmarks die branchenweit beste Leistung erzielte, konkurrieren die Gemini-Modelle mit Claude und der GPT-Serie von OpenAI um den Titel der weltweit leistungsstärksten LLMs. Generell wechselt der Status des „Top“-Modells jedes Mal, wenn ein neues bahnbrechendes Modell aus einer dieser drei Serien veröffentlicht wird.
Grok ist eine Familie proprietärer LLMs, die von xAI erstellt wurden und erstmals im November 2023 als Chatbot in der Beta-Vorschau auf X (ehemals Twitter) gestartet wurden. Im April 2025 veröffentlichte xAI den API-Zugriff für Grok 3, das damals neueste Flaggschiffmodell des Unternehmens.
Die Modellpalette von Grok hat sich im Laufe der verschiedenen Modellgenerationen kontinuierlich weiterentwickelt.
Seit Grok 4 können Grok-Modelle Text-, Bild- und Spracheingaben verarbeiten. Obwohl die Grok-LLMs keine multimodalen Ausgaben liefern können, lassen sich Bild- und Videoausgaben über die Grok Imagine-Plattform mithilfe des Aurora-Modells von xAI generieren.
Unabhängig von seiner reinen Leistungsfähigkeit war ein Großteil der Geschichte von Grok (und insbesondere die des Grok-Chatbots) von Kontroversen geprägt, wie etwa Vorwürfen der Verbreitung von Fehlinformationen zu Wahlen, dem Einbringen polarisierender Standpunkte in nicht damit zusammenhängende Gespräche und der Verfestigung schädlicher Stereotypen.
In öffentlichen Erklärungen erklärte Elon Musk, CEO von xAI, dass „unser allgemeiner Ansatz darin besteht, die letzte Version als Open Source zu veröffentlichen, sobald die nächste Version vollständig verfügbar ist.“1
xAI hat Grok 1 im März 2024 unter der Apache-2.0-Lizenz als Open-Source-Software veröffentlicht. Obwohl Grok 3 bereits im Februar 2025 veröffentlicht wurde, erfolgte die nächste Open-Source-Veröffentlichung eines weiteren Modells erst im August 2025. Irritierenderweise gaben xAI (und Musk) bekannt, dass sie „Grok 2.5“ 2als Open Source veröffentlicht hätten, 2 obwohl zuvor weder ein Modell mit diesem Namen genannt noch angekündigt worden war. Die eigene Hugging-Face-Modellkarte des Modells bezeichnet das Modell sogar als „Grok-2“.
In dieser Ankündigung von August 2025 deutete Musk an, dass Grok 3 ebenfalls in „etwa sechs Monaten“ als Open Source veröffentlicht werden würde. Auch acht Monate später wurde der Veröffentlichungstermin für die Open-Source-Version noch nicht bekannt gegeben.
Der GPT-Reihe von OpenAI – kurz für „Generative Pretrained Transformer“ – wird weithin zugeschrieben, die aktuelle Ära der generativen KI eingeläutet zu haben, insbesondere nach der Einführung von ChatGPT im Jahr 2022 mit dem Modell GPT-3.5.
Die Konventionen von OpenAI für die Benennung von Modellen und Varianten haben sich seit 2022 erheblich geändert, was oft zu Verwirrung führt. So wurde beispielsweise GPT-4.1 nach GPT-4.5 veröffentlicht, und das o4-Argumentationsmodell war zur gleichen Zeit verfügbar wie das multimodale Modell GPT-4o ohne Argumentationsfunktionen, das sich völlig von ihrem „o4“-Modell für Schlussfolgerungen unterschied, dessen Leistung der von „o3“ unterlegen war. Anfang 2025 räumte OpenAI-CEO Sam Altman ein: „Wir sind uns bewusst, wie kompliziert unser Modell- und Produktangebot geworden ist.“
Seit der Veröffentlichung von GPT-5 im August 2025 umfasst das konsolidierte LLM-Angebot des Unternehmens nun Folgendes:
OpenAI hat zudem Open-Weight-GPT-Modelle mit offenen Gewichten veröffentlicht, die im Abschnitt „Offene Modelle“ dieses Artikels näher beschrieben werden.
Mistral AI, ein in Frankreich ansässiges Unternehmen, das von ehemaligen Mitarbeitern von Meta AI und Google DeepMind gegründet wurde, widmete sich bei der Veröffentlichung seines ersten Modells (Mistral 7B) im September 2023 ursprünglich ausschließlich Open-Source-Modellen. Seitdem ist Mistral zu einem gemischten Modell übergegangen, bei dem viele seiner Angebote offen zugänglich sind, ausgewählte Spitzenmodelle jedoch weiterhin Closed Source bleiben.
Zu den wichtigsten proprietären LLMs von Mistral AI gehören ab März 2026:
Die Angebote von Mistral im Bereich der Open-Weight-Modelle werden weiter unten in diesem Artikel näher erläutert.
Im Bereich des maschinellen Lernens wird der Begriff Open Source umgangssprachlich oft für KI-Tools verwendet, deren Quellcode kostenlos zur Verfügung gestellt wird; tatsächlich handelt es sich bei dem Begriff jedoch um eine formelle Bezeichnung, die von der Open Source Initiative (OSI) verwaltet wird. Die OSI zertifiziert eine bestimmte Softwarelizenz nur dann als „von der Open Source Initiative genehmigt“, wenn sie der Ansicht ist, dass diese Lizenz die zehn Anforderungen erfüllt, die in der offiziellen Open Source Definition (OSD) aufgeführt sind.
Die meisten „Open-Source“-Modelle erfüllen nicht alle diese Anforderungen. Vor diesem Hintergrund bezieht sich der Begriff offenes Modell (oder Open-Weight-Modell) treffender auf jedes frei verfügbare LLM. Innerhalb des Spektrums der offenen Modelle gibt es große Unterschiede. Ein Open-Weight-Modell (das jedoch kein Open-Source-Modell ist) kann zur Durchführung von Inferenz verwendet und sogar feinabgestimmt werden – wenn jedoch nicht der vollständige Quellcode bereitgestellt wird, kann es über Änderungen an den Werten seiner Gewichte durch Feinabstimmung hinaus nicht modifiziert werden. Seine Lizenz kann die Nutzung des Modells in bestimmten Szenarien (wie beispielsweise kommerziellen Umgebungen) untersagen oder andere spezifische Auflagen für seine Anwendung vorsehen.
Ein echtes Open-Source-Modell, das zusammen mit dem Trainingscode und einer Beschreibung der Trainingsverfahren veröffentlicht wird, kann hingegen in jeder Hinsicht vollständig angepasst und ohne Einschränkungen genutzt werden. Die gängigsten und standardisiertesten Open-Source-Lizenzen sind die Apache-2.0-Lizenz und die MIT-Lizenz. Es sei jedoch darauf hingewiesen, dass ein Open-Source-Modell nicht vollständig reproduzierbar ist, sofern der Entwickler nicht die Details zu den Trainingsdaten bereitstellt.
Open-Source-Veröffentlichungen sind ein integraler Bestandteil der kontinuierlichen Weiterentwicklung und Verbesserung von LLMs und haben maßgeblich dazu beigetragen, dass deren Erfindung überhaupt erst ermöglicht wurde. Open Models sind normalerweise über ihren Modellentwickler oder über beliebte Open-Source-Plattformen wie GitHub oder Hugging Face zugänglich. Im Folgenden finden Sie eine alphabetisch geordnete Liste bemerkenswerter Open-Model-Serien.
Cohere, ein in Kanada ansässiges Unternehmen, zu dessen Gründern einer der Autoren des Buches „Attention is All You Need“ gehört, wurde 2019 gegründet. Obwohl das Unternehmen für jedes LLM detaillierte technische Berichte veröffentlicht und diese angeblich als offene Modelle zur Verfügung stellt, lizenziert Cohere seine offenen Veröffentlichungen unter einer modifizierten Version der Creative-Commons-4.0-Lizenz, die eine kommerzielle Nutzung untersagt.
Command ist Coheres Flaggschiff-Serie von Foundation Modellen, die für Anwendungsfälle in Unternehmen konzipiert ist.
In einem Reddit-Kommentar vom März 2026 wies Cohere-CEO Aidan Gomez darauf hin, dass das Unternehmen aktiv an der Entwicklung der nächsten Generation von Command arbeite und dass es sich dabei um die ersten Mixture-of-Experts-Modelle (MoE) des Unternehmens handeln werde.
Aya ist die auf Mehrsprachigkeit ausgerichtete Modellreihe von Cohere, die im Februar 2024 mit Aya 101 eingeführt wurde – einem Modell, das, wie der Name schon sagt, „Anweisungen in 101 Sprachen befolgen konnte“.
DeepSeek ist ein wichtiger Akteur im Open-Source-Ökosystem und hat eine Reihe von Innovationen zu LLM-Architekturen und Trainingsprozessen beigetragen. Zeitweise konnte die Leistung seiner Modelle mit der von führenden proprietären Modellen mithalten. Ihre LLMs – sowohl die Gewichte als auch der Code – werden unter einer Standard-MIT-Lizenz als Open Source zur Verfügung gestellt. DeepSeek veröffentlicht zudem regelmäßig Fachartikel, in denen die Ergebnisse und Techniken detailliert beschrieben werden.
Trotz immer wiederkehrender Gerüchte über eine bevorstehende Veröffentlichung von DeepSeek-V4 (oder „DeepSeek-R2“) ist diese bislang noch nicht erfolgt.
Die LLMs der Falcon-Reihe werden vom Technology Innovation Institute (TTI) der Vereinigten Arabischen Emirate entwickelt. Zwar war die erste Modellgeneration des TTI aus dem Jahr 2023 vor allem durch Falcon-180B bekannt, das damals zu den größten verfügbaren Open-Source-Modellen zählte, doch hat sich das TTI seitdem auf kleinere Modelle konzentriert. Falcon2 verfügte über 11 Milliarden Parameter, und Falcon3, das erste multimodale Modell des TII (veröffentlicht im Dezember 2024), umfasste zwischen 1 und 10 Milliarden Parameter.
Die aktuellsten Generationen der Falcon-Modelle konzentrieren sich auf Hybridmodelle vom Typ Mamba-Transformator-Modelle.
Falcon-Modelle werden unter einer proprietären Falcon-Lizenz veröffentlicht, die sich am Apache-2.0-Framework orientiert, diesem jedoch wesentliche Bestimmungen und Einschränkungen hinzufügt.
Gemma ist eine Familie offener Modelle von Google. Laut Google werden Gemma-Modelle „aus derselben Technologie gebaut, die auch [ihre] Gemini-Modelle betreibt.“7
Gemma-Modelle werden unter der Gemma-Lizenz veröffentlicht, deren Nutzungsbedingungen denen der Apache 2.0-Lizenz ähneln, jedoch der Gemma Prohibited Use Policy unterliegen.
GLM ist eine Familie von LLMs des in Peking ansässigen Unternehmens Z.ai (auch bekannt als Zhipu AI), die auf Spitzenleistung abzielt. Das Unternehmen erzielte mit GLM-4.5 einen Durchbruch, das bei seiner ersten Veröffentlichung Ende Juli 2025 in akademischen Benchmarks offenbar mit den weltweit führenden Open-Source-Modellen, darunter die Flaggschiff-Modelle von DeepSeek und Qwen, mithalten konnte.
IBM Granite ist eine Reihe von Open-Source-LLMs, die für Anwendungsfälle in Unternehmen optimiert sind und sich vor allem auf kleine, praktische und effiziente Modelle konzentrieren. Granite wurde erstmals im September 2023 eingeführt und erlangte mit der Veröffentlichung von Granite 3.0 im Oktober 2024 große Bekanntheit, wodurch die Granite-Reihe eine Leistung erreichte, die mit der führenden Open-Source-Modelle vergleichbarer Größe mithalten kann.
Granite 4, das im Oktober 2025 veröffentlicht wurde, führte eine neue hybride Mamba2-Transformer-Architektur für überlegene Geschwindigkeit und Speichereffizienz ein, insbesondere unter großen Workloads, im Vergleich zu herkömmlichen Transformermodellen.
Alle Granite-Modelle sind unter einer Standard-Apache-2.0-Lizenz als Open Source verfügbar und wurden anhand von unternehmenssicheren Daten trainiert. Im Oktober 2025 wurde die Granite-Serie als erste große Familie offener Modelle nach ISO 42001 zertifiziert.
GPT-OSS sind die Open-Weight-Sprachmodelle von OpenAI, die im August 2025 unter einer Standard-Apache-2.0-Lizenz veröffentlicht wurden. Es sind die ersten offenen LLMs des Unternehmens seit der Veröffentlichung von GPT-2 im Jahr 2019.
Beide GPT-OSS-Modelle wurden mit einer 4-Bit-Quantisierung ihrer Modellgewichte trainiert, wodurch ihre Geschwindigkeit im Vergleich zu herkömmlichen Modellen ähnlicher Größe deutlich gesteigert und ihr Speicherbedarf reduziert wurde.
Kimi ist eine Serie offener Modelle, die von Moonshot AI aus Peking entwickelt wurden.
Kimi-Modelle werden unter einer modifizierten MIT-Lizenz veröffentlicht, die von den Nutzern verlangt, „‚Kimi K2‘ an prominenter Stelle auf der Benutzeroberfläche“ jedes Produkts anzuzeigen, das über 100 Millionen aktive Nutzer pro Monat oder einen monatlichen Umsatz von mehr als 20 Millionen US-Dollar aufweist.
Die Llama-Modelle von Meta (ursprünglich als LLaMA bezeichnet, eine Abkürzung für „Large Language model Meta AI) sind ein fester Bestandteil der Geschichte der offenen LLMs. Die frühen Llama-Versionen trugen zur Demokratisierung der LLM-Methoden bei und prägten viele Standardkonventionen der LLM-Entwicklung – vom Training über die Architektur bis hin zu Variationen bei der Dimensionierung.
Obwohl Meta häufig den Begriff „Open Source“ verwendet, werden Llama-Modelle unter einer speziellen Llama-Lizenz veröffentlicht, die Einschränkungen hinsichtlich Nutzung, Namensnennung und Zugriff vorsieht. Die Open Source Initiative hat daher die Verwendung des Begriffs durch Meta kritisiert.
Die in Shanghai ansässige MiniMax Group veröffentlichte im Januar 2025 ihr erstes gleichnamiges LLM, MiniMax-Text-01, sowie ein dazugehöriges VLM, MiniMax-VL-01. Seitdem hat sich das Unternehmen als einer der führenden LLM-Entwickler in China etabliert, wobei der Schwerpunkt auf groß angelegten Modellen und langen Kontextfenstern liegt.
MiniMax-Modelle werden unter einer modifizierten MIT-Lizenz angeboten.
Neben seinen Closed-Source-Angeboten bietet Mistral AI eine Vielzahl von hoch angesehenen Open-Source-Modellen an. Die meisten (wenn auch nicht alle) Open-Source-Modelle von Mistral werden unter der Standard-Apache-2.0-Lizenz veröffentlicht.
Die offene LLM-Serie des führenden Hardwareherstellers NVIDIA genießt aufgrund ihrer Leistungsfähigkeit, der wissenschaftlichen Literatur sowie ihrer architektonischen Innovationen hohes Ansehen.
Olmo, entwickelt vom Allen Institute for AI („Ai2“), gehört zu den wirklich „offensten“ aller Open-Source-Modelle: Ai2 veröffentlicht in der Regel den gesamten Code, die Gewichte, die Trainings-Checkpoints und die zugehörigen Datensätze im Rahmen einer Standard-Apache-2.0-Lizenz.
Phi ist die offene Modellreihe von Microsoft, die sich traditionell auf kleine Modelle konzentriert. Sie werden unter der Standard-MIT-Lizenz veröffentlicht.
Die von Alibaba entwickelte Qwen-Reihe von LLMs hat sich zu einem der beliebtesten offenen Modelle der Branche entwickelt. Die Modellfamilie bietet eine große Auswahl an Modellgrößen, Architekturen und Funktionen, die auf die vielfältigen Anforderungen von Entwicklern zugeschnitten sind.
Beschleunigen Sie die Softwarebereitstellung mit Bob, Ihrem KI-Partner für sichere, absichtsorientierte Entwicklung.
Mit IBM watsonx Orchestrate können Sie ganz einfach skalierbare KI-Assistenten und -Agenten entwickeln, sich wiederholende Aufgaben automatisieren und komplexe Prozesse vereinfachen.
Setzen Sie KI in Ihrem Unternehmen ein
– mit branchenführendem Fachwissen im Bereich KI und dem umfassenden Lösungsportfolio von IBM an Ihrer Seite.
1. „Elon Musk reins in Grok AI bot to stop election misinformation,” The Register, 28. August 2024
2. „Musk’s xAI chatbot Grok keeps randomly responding about ‘white genocide’ in South Africa,” CNBC, 14. Mai 2025
3. „Elon Musk’s AI chatbot, Grok, started calling itself ‘MechaHitler’,” NPR, 9. Juli 2025
4. @MarioNawfal tweet, X (ehemals Twitter), 18. Februar 2025
5. „GPT-5.4 pro”, OpenAI, API-Dokumente, Zugriff am 12. März 2026
6. „Announcing Codestral 25.08 and the Complete Mistral Coding Stack for Enterprise,” Mistral AI, 30. Juli 2025
7. Gemma, Google DeepMind, Zugriff am 12. März 2026
8. „Alibaba-backed Moonshot releases new Kimi AI model that beats ChatGPT, Claude in coding — and it costs less,” CNBC, 14. Juli 2025
9. „5 Thoughts on Kimi K2 Thinking,” Interconnects, 6. November 2025
10. Meta Llama: Model-Seite (sortiert nach „Most Downloads”), Hugging Face, Zugriff am 11. März 2026
11. „MiniMax M2.7: Early Echoes of Self-Evolution,” MiniMax, 18. März 2026
12. „Introducing Mistral 3,” Mistral AI, 2. Dezember 2025
13. Mistral AI: models page (sortiert nach „Most Downloads”), Hugging Face, Zugriff am 11. März 2026