大语言模型 (LLM) 已成为现代人工智能发展的基石。它们开启并如今定义了生成式 AI 时代,从直接的聊天机器人应用到智能体工程以及其他由 AI 智能体驱动的复杂自动化工作流程。它们的出现标志着机器学习历史上的一个根本性转折点。
生成式 AI (Gen AI) 的蓬勃发展使人们关注其背后的驱动力:大语言模型 (LLM)。目前已经存在数十种 LLM,但随着技术的快速发展,越来越多的人工智能 (AI) 模型将不断涌现。
从汽车行业的角度来思考这个问题。全球数百家汽车制造商都有自己的车型,以满足不同消费者的需求。随着时间推移,汽车也发生了变化,从燃料汽车发展到拥有众多智能功能的电动汽车。
LLM 也是如此。这些 AI 系统最初是基础模型,由多个神经网络层组成,这些神经网络层在大量数据集上进行训练。
这些模型采用深度学习技术来完成自然语言处理 (NLP) 和自然语言理解 (NLU) 任务。但是,它们的能力已经得到提升,包括 agentic AI 功能和推理能力。
这一快速的演进意味着 LLM 的环境处于不断变化的状态。 AI 开发人员必须不断更新他们的模型,甚至构建新的模型,才能跟上快速的发展步伐。
虽然内容摘要、机器翻译、情感分析和文本生成 等 NLP 和 NLU 任务仍然继续,但是 AI 开发人员正在根据特定用例定制自己的模型。
例如,有些 LLM 专门用于代码生成,而另一些 LLM 则用于处理视觉语言任务。
虽然不可能提及现有的每个 LLM,但下面列出了一些当前最流行的大语言模型,以帮助组织缩小选择范围,并考虑哪种模型能满足其需求:
开发商:Anthropic
发布日期:2025 年 2 月 (Claude 3.7 Sonnet)
参数数量:未公开披露
上下文窗口:200,000 个令牌
许可证:专有
访问:Anthropic API、Amazon Bedrock、Google Cloud Vertex AI
输入:多模态(图像、文本)
输出:文本
Claude 是基于转换器架构的 LLM 系列。它是同名会话式 AI 助手背后的大模型。 Claude 的设计遵循宪法式 AI 原则,这些原则侧重于 AI 的安全,旨在减少有害行为,如 AI 偏见 。
Claude 系列由 3 个 AI 模型组成:
● Claude Haiku
● Claude Sonnet
● Claude Opus
开发商:OpenAI
发布日期: GPT-4o 的发布日期为 2024 年 5 月,GPT-4o mini 的发布日期为 2024 年 7 月
参数数量:未公开
上下文窗口:128,000 个词元
许可证:专有
访问:OpenAI API(使用 .NET、JavaScript、Python、TypeScript)
输入:多模态(音频、图像、文本、视频)
输出:多模态(音频、图像、文本)
生成式预训练转换器 (GPT) 是 OpenAI 开发的一系列大语言模型。GPT 包括以下 LLM:
● GPT-4o
● GPT-4o mini
闭源模型或专有模型,只能直接在模型开发者的平台上、已获得模型授权的其他平台上,或通过模型提供商的专有 API 进行访问。
由于闭源模型开发者通常将其技术细节视为严格保密的商业机密,因此通常无法确切知晓闭源模型的具体规模、神经网络架构或训练过程。一些细节可以推断出来——例如,通过将闭源模型的推理速度、GPU 内存使用和基准性能与那些细节已公开的开放模型进行比较——但很少(如果有的话)能得到确认。
至少大致从 2022 年起,在任何特定时间点,大多数最先进的前沿模型都是闭源模型——但这在很大程度上反映了该行业现实世界的历史情况,而非闭源模型相对于开放模型具有任何内在优越性。以下是一些最著名的闭源模型系列,按字母顺序排列。
Anthropic 的 Claude 语言模型是全球性能最高的模型之一。Anthropic 于 2021 年由前 OpenAI 员工创立,最初是一个 AI 安全研究实验室,其模型开发方法基于独特的宪法 AI 概念。Claude 的“宪法”是一份文件,不仅用于指导 Anthropic 员工的行为,还用于指导 Claude 模型自身的行为(以及合成训练数据的生成)。
自 Claude 3 以来,后续各代 Claude 均推出了三种不同尺寸的多模态模型:
Claude Haiku、Sonnet 和 Opus 均可处理文本、音频和图像输入,并输出文本或音频(作为文本转语音)。从历史上看,与大多数闭源模型竞争对手不同,它们(以及它们所驱动的 Claude 平台)不具备图像生成能力——但截至 2026 年 3 月 12 日,Claude 现在可以生成图像。当通过 Claude API 访问模型时,用户可以将 Sonnet 或 Opus 推理过程的“努力程度”设置为“最大”、“高”、“中”、“低”或“自适应”。
Gemini 是 Google 的闭源语言模型系列,由其子公司 Google DeepMind 开发,并于 2023 年 12 月首次推出。值得注意的是,Google Brain(于 2023 年与 DeepMind 合并组成 Google DeepMind)负责创建了促成第一批 LLM 的 Transformer 模型架构,并于 2017 年发表了具有里程碑意义的研究论文 Attention is All You Need。
自 2025 年初以来,Google 发布的每一代 Gemini 模型都有三种不同的尺寸,它们都是推理模型。当通过 Gemini API 访问时,用户可以选择多个“思考级别”之一,以定制模型在生成最终输出之前将花费的令牌数量和时间。
Gemini Pro、Flash 和 Flash-Lite 模型天生就是多模态的:它们可以处理文本、音频、图像或视频输入,并生成文本输出。当通过 Gemini 平台访问时,可以通过 Gemini 独立的、专门的图像生成、视频生成或音乐生成模型来生成多模态输出。
自 2025 年 3 月 Gemini 2.5 Pro 发布(该模型在当时大多数学术基准上实现了业界最佳性能)以来,Gemini 模型已与 Claude 和 OpenAI 的 GPT 系列竞争,成为全球性能最强的 LLM。总体而言,“顶级”模型的地位每次随着这三个系列中的一个发布新的前沿模型而易手。
Grok 是 xAI 生产的专有 LLM 系列,于 2023 年 11 月首次作为 X(原 Twitter)上的聊天机器人以测试预览版形式推出。2025 年 4 月,xAI 推出了 Grok 3 的 API 访问权限,Grok 3 当时是其最新的旗舰模型。
Grok 的模型阵容随着一代又一代模型的发布而不断变化。
从 Grok 4 开始,Grok 模型可以处理文本、图像和语音输入。尽管 Grok LLM 无法提供多模态输出,但图像和视频输出可以通过 xAI 的 Aurora 模型在其 Grok Imagine 平台上生成。
与其原始性能无关,Grok 的许多历史(尤其是 Grok 聊天机器人)一直充满争议,例如被指控传播选举错误信息、将两极分化的观点插入无关对话以及延续有害的刻板印象。
在公开声明中,xAI 首席执行官埃隆·马斯克曾表示:“我们的总体方法是,当新版本完全发布时,我们将开源上一个版本。”1
xAI 于 2024 年 3 月在 Apache 2.0 许可证下开源了 Grok 1。尽管 Grok 3 于 2025 年 2 月发布,但下一个 Grok 模型的开源版本直到 2025 年 8 月才发布。令人困惑的是,xAI(和马斯克)宣布他们已经开源了“Grok 2.5”, 2 但在此声明之前没有任何模型被命名或宣布为此。该模型的 Hugging Face 模型卡片甚至将该模型称为“Grok-2”。
在 2025 年 8 月的公告中,马斯克表示 Grok 3 也将在大约“6 个月后”开源。截至 8 个月后,该开源发布日期尚未公布。
OpenAI 的 GPT 系列——生成式预训练变换器(Generative Pretrained Transformer)的缩写——被普遍认为是开创了当前生成式 AI 时代,尤其是在 2022 年随其 GPT-3.5 模型推出 ChatGPT 之后。
自 2022 年以来,OpenAI 的模型命名和变体惯例已发生显著变化,且常常令人困惑。例如,GPT-4.1 是在 GPT-4.5 之后发布的,而 o4 推理模型与多模态非推理模型 GPT-4o 同时可用,后者与他们的“o4”推理模型完全不同,且“o4”的性能不如“o3”。2025 年初,OpenAI 首席执行官 Sam Altman 承认:“我们意识到我们的模型和产品组合变得多么复杂。”
自 2025 年 8 月 GPT-5 发布以来,该公司整合后的 LLM 产品现包括:
OpenAI 还发布了 2 个开放权重的 GPT 模型,详情见本文的“开放模型”部分。
Mistral AI 是一家总部位于法国的公司,由 Meta AI 和 Google DeepMind 的前员工创立,最初在 2023 年 9 月发布其首个模型 (Mistral 7B) 时完全致力于开源模型。自那以后,Mistral 已过渡到混合模式,其许多产品开放发布,但部分前沿模型仍保持闭源。
截至 2026 年 3 月,Mistral AI 的旗舰专有 LLM 包括:
Mistral 的开放权重模型产品详见本文后续部分。
Llama 3.2 提供 10 亿和 30 亿参数规模的不同版本,这些版本足够紧凑,适用于移动设备和边缘设备。而 110 亿和 900 亿参数规模的不同版本则是多模态大语言模型,针对回答关于图像的一般问题、图像字幕、图像推理和视觉识别等任务进行了优化。6
在机器学习中,开源通常口语化地指免费提供源代码的 AI 工具,但该术语实际上是由开放源代码促进会 (OSI) 管理的一个正式称谓。OSI 只有在认定某个软件许可证符合官方开源定义 (OSD) 中列出的十项要求时,才会将该许可证认证为“开源促进会批准”。
大多数“开源”模型并不满足所有这些要求。既然如此,术语开放模型(或开放权重模型)更准确地指任何免费分发的 LLM。在开放模型的范围内存在很大的可变性。一个开放权重(但非开源)模型可用于运行推理,甚至可以微调——但如果其完整源代码未提供,则无法通过微调之外的方式修改其权重值。其许可证可能禁止在某些场景(如商业环境)下使用该模型,或对其应用程序施加其他特定规定。
相反,一个真正的开源模型如果随附训练代码及其训练过程的描述发布,则可以以任何方式完全修改并无限制使用。最常见和标准化的开源许可证是 Apache 2.0 许可证和 MIT 许可证。不过需注意:除非开源模型的开发者提供其训练数据的详细信息,否则模型本身无法完全复现。
开源发布对于 LLM 的持续发展和改进不可或缺,并且在很大程度上首先促成了它们的发明。开放模型通常可以通过其模型开发者或流行的开源平台(如 GitHub 或 Hugging Face)进行访问。以下是一些著名的开放模型系列列表,按字母顺序排列。
Cohere 是一家总部位于加拿大的公司,其创始人包括 Attention is All You Need 论文的作者之一,于 2019 年成立。尽管该公司为每个 LLM 发布详细的技术报告,并且表面上将其作为开放权重模型发布,但 Cohere 对其开放版本采用知识共享 4.0 许可证的修改版 进行许可,该版本禁止商业用途。
Command 是 Cohere 的旗舰基础模型系列,专为企业用例设计。
在 2026 年 3 月的 Reddit 评论中,Cohere 首席执行官 Aidan Gomez 表示,公司正在积极开发下一代 Command,这将是该组织的首个 Mixture of Experts (MoE) 模型。
Aya 是 Cohere 专注于多语言的模型系列,于 2024 年 2 月首次推出 Aya 101——顾名思义,它“能够用 101 种语言遵循指令”。
DeepSeek 是开源生态系统中不可或缺的一员,为 LLM 架构和训练过程贡献了多项创新。有时,其模型的性能可与顶级闭源模型相媲美。他们的 LLM——包括权重和代码——均根据标准 MIT 许可证开源。DeepSeek 还频繁发布技术论文,详细阐述其发现和技术。
尽管不时有关于 DeepSeek-V4(或“DeepSeek-R2”)即将发布的传闻,但它们尚未面世。
Falcon 系列 LLM 由阿联酋技术创新研究所 (TTI) 开发。尽管 TII 在 2023 年的第一代模型可能以 Falcon-180B 最为引人注目,该模型当时是最大的开源模型之一,但 TII 此后专注于较小的模型。Falcon2 拥有 110 亿参数,而 Falcon3(TII 的首批多模态模型,于 2024 年 12 月发布)的参数范围从 10 亿到 100 亿不等。
最近几代 Falcon 模型专注于混合 Mamba-Transformer 模型。
Falcon 模型根据专有的 Falcon 许可证发布,该许可证受 Apache 2.0 框架启发,但增加了显著的规定和限制。
Gemma 是 Google 的开放模型系列。据 Google 称,Gemma 模型“采用与驱动其 Gemini 模型相同的技术构建”。7
Gemma 模型根据 Gemma 许可证发布,其使用条款与 Apache 2.0 许可证相似,但受 Gemma 禁止使用政策的约束。
GLM 是来自北京的智谱华章(Z.ai,也称 Zhipu AI)的一系列 LLM,旨在实现最先进的性能。该公司凭借 GLM-4.5 取得了突破,该模型于 2025 年 7 月底首次发布时,在学术基准测试上表面上与包括 DeepSeek 和 Qwen 的旗舰模型在内的全球顶级开放模型相媲美。
IBM Granite 是一系列针对企业用例优化的开源 LLM,主要关注小型、实用和高效的模型。Granite 于 2023 年 9 月首次推出,在 2024 年 10 月 Granite 3.0 发布 后声名鹊起,Granite 系列的性能达到了与领先的同类规模开放模型相媲美的水平。
Granite 4 于 2025 年 10 月推出,引入了新的混合 Mamba2-Transformer 架构,与传统 Transformer 模型相比,尤其是在大工作负载下,具有卓越的速度和内存效率。
所有 Granite 模型均根据标准的 Apache 2.0 许可证开源,并使用企业安全数据进行训练。2025 年 10 月,Granite 系列成为首个获得 ISO-42001 认证的主要开放模型家族。
GPT-OSS 是 OpenAI 的开放权重语言模型,于 2025 年 8 月根据标准的 Apache 2.0 许可证发布。它们是该公司自 2019 年发布 GPT-2 以来的首个开放 LLM。
这两个 GPT-OSS 模型均采用模型权重的 4 位量化进行训练,相比类似规模的传统模型,显著提高了速度并降低了内存需求。
Kimi 是由北京 Moonshot AI 开发的一系列开放模型。
Kimi 模型根据修改后的 MIT 许可证发布,要求任何月活跃用户超过 1 亿或月收入超过 2000 万美元的产品,在其用户界面上“显著展示‘Kimi K2’”。
Meta 的 Llama 模型(原名风格化为 LLaMA,是“Large Language model Meta AI”的缩写)一直是开放 LLM 历史中不可或缺的一部分。早期的 Llama 发布有助于 LLM 方法的民主化,从训练到架构和规模变化,为 LLM 开发的许多标准惯例提供了信息并产生了强烈影响。
尽管 Meta 经常使用“开源”一词,但 Llama 模型是根据定制的 Llama 许可证发布的,该许可证对使用、署名和访问施加了限制。因此,开放源代码促进会批评 Meta 使用该术语。
总部位于上海的 MiniMax Group 于 2025 年 1 月发布了其首个同名 LLM——MiniMax-Text-01,以及配套的 VLM——MiniMax-VL-01。此后,他们作为中国主要的 LLM 开发者之一崭露头角,优先发展大规模模型和长上下文窗口。
MiniMax 模型根据修改后的 MIT 许可证提供。
除了闭源产品外,Mistral AI 还提供多种备受好评的开放模型。Mistral 的大部分(但并非全部)开放模型均根据标准的 Apache 2.0 许可证发布。
卓越的硬件制造商英伟达的开放 LLM 系列因其性能、研究文献和架构创新而备受好评。
Olmo 由艾伦人工智能研究所 (Ai2) 开发,是所有开源模型中最真正“开放”的模型之一:Ai2 通常会在标准 Apache 2.0 发布的同时,发布所有代码、权重、训练检查点和相关数据集。
Phi 是微软的开放模型系列,历来专注于小型模型。它们根据标准 MIT 许可证发布。
由阿里巴巴开发的 Qwen 系列 LLM 已成为业界最受欢迎的开放模型之一。该模型系列提供多种模型规模、架构和能力,旨在满足开发者的不同需求。
发布日期:Qwen 2.5 的发布日期为 2024 年 9 月,Qwen2.5-Max 的发布日期为 2025 年 1 月
参数数量: 多达 720 亿
上下文窗口:多达 100 万个词元
许可证:开源 (Apache 2.0),大模型专有
访问:阿里云、Hugging Face
输入:多模态(音频、图像、文本、视频)
输出:文本
Qwen 是来自中国云计算公司阿里云的一系列 LLM。Qwen 包含针对音频、编码、数学和视觉任务进行优化的语言模型和变体。
Qwen 提供以下模型:
● Qwen 2.5
● Qwen Audio
● Qwen Coder
● Qwen Math
● Qwen VL
借助您的 AI 合作伙伴 Bob,加速软件交付,实现安全的意图感知型开发。
使用 IBM watsonx Orchestrate 轻松设计可扩展的 AI 助手和智能体,自动执行重复任务并简化复杂流程。
借助 IBM 业界领先的 AI 专业知识和解决方案组合,让 AI 在您的业务中发挥作用。
1. “埃隆·马斯克收紧 Grok AI 机器人以阻止选举错误信息”, The Register,2024 年 8 月 28 日
2. “马斯克的 x AI 聊天机器人 Grok 持续随机回应关于南非‘白人种族灭绝’的内容,” CNBC,2025 年 5 月 14 日
3. “埃隆·马斯克的 AI 聊天机器人 Grok 开始自称‘MechaHitler’,” NPR,2025 年 7 月 9 日
4. @MarioNawfal 的推文,X(原 Twitter),2025 年 2 月 18 日
5. “GPT-5.4 pro”,OpenAI,API 文档于 2026 年 3 月 12 日访问
6. “宣布 Codestral 25.08 和面向企业的完整 Mistral 编码栈”, Mistral AI,2025 年 7 月 30 日
7. Gemma,Google DeepMind,于 2026 年 3 月 12 日访问
8. “阿里巴巴支持的月之暗面发布新的 Kimi AI 模型,在编码方面击败 ChatGPT 和 Claude——且成本更低”, CNBC,2025 年 7 月 14 日
9. “关于 Kimi K2 Thinking 的 5 点思考”,Interconnects,2025 年 11 月 6 日
10. Meta Llama:模型页面(按“下载最多”排序),Hugging Face,于 2026 年 3 月 11 日访问
11. “MiniMax M2.7:自我进化的早期回响”,MiniMax,2026 年 3 月 18 日
12. “介绍 Mistral 3”,Mistral AI,2025 年 12 月 2 日
13. Mistral AI:模型页面(按“下载最多”排序),Hugging Face,于 2026 年 3 月 11 日访问