Un elenco di modelli linguistici di grandi dimensioni

Rendering 3D di blocchi astratti

Autori

Rina Diane Caballar

Staff Writer

IBM Think

Cole Stryker

Staff Editor, AI Models

IBM Think

Un elenco di modelli linguistici di grandi dimensioni

Il boom dell'AI generativa (gen AI) ha puntato i riflettori sulla forza trainante che la sostiene: i modelli linguistici di grandi dimensioni (LLM). Esistono già dozzine di LLM, ma con il rapido progresso della tecnologia, continuano ad emergere sempre più modelli di intelligenza artificiale (AI).

Prendiamo ad esempio il settore automobilistico. Centinaia di case automobilistiche in tutto il mondo hanno i propri modelli che soddisfano le diverse esigenze dei consumatori. Anche le auto si sono trasformate nel tempo, passando dalle automobili alimentate a gas a veicoli elettrici con molte funzioni intelligenti.

Lo stesso vale per gli LLM. Questi sistemi di AI sono nati come foundation model composti da più livelli di reti neurali addestrati su enormi volumi di set di dati .

Utilizzano tecniche di deep learning per eseguire compiti di elaborazione del linguaggio naturale (NLP) e di Natural Language Understanding (NLU). Tuttavia, le loro funzionalità sono state migliorate per includere funzioni di agentic AI e ragionamento.

Questa rapida evoluzione indica che gli LLM sono in costante cambiamento. Gli sviluppatori di AI devono aggiornare continuamente i loro modelli o addirittura crearne di nuovi per stare al passo con i rapidi progressi.

Mentre i compiti di NLP e NLU, come il riassunto di contenuti, la traduzione automatica, l'analisi del sentiment e la generazione di testo continuano a essere fondamentali, gli sviluppatori di AI stanno adattando i loro modelli a casi d'uso specifici.

Ad esempio, alcuni LLM sono progettati specificamente per la generazione di codice, mentre altri sono stati realizzati per gestire compiti di linguaggio visivo.

Sebbene sia impossibile menzionare tutti gli LLM esistenti, ecco un elenco di alcuni dei modelli linguistici più attuali e diffusi per aiutare le organizzazioni a restringere le opzioni e valutare quale modello soddisfa le loro esigenze:

Claude

Sviluppatore: Anthropic

Data di rilascio: Febbraio 2025 per Claude 3.7 Sonnet

Numero di parametri: non reso pubblico

Finestra di contesto: 200.000 token

Licenza: proprietaria

Accesso: API Anthropic, Amazon Bedrock, Google Cloud Vertex AI

Input: multimodale (immagine, testo)

Output: testo

Claude è una famiglia di LLM basata su un'architettura trasformativa. È il grande modello dietro l'omonimo assistente di AI conversazionale. Il design di Claude è basato sui principi dell'AI costituzionale, che si concentrano sulla sicurezza dell'AI per ridurre comportamenti dannosi come le distorsioni AI.

La famiglia Claude è composta da 3 modelli AI:

    ● Claude Haiku

    ● Claude Sonnet

    ● Claude Opus

Claude Haiku

Claude 3.5 Haiku è il modello più veloce. È ideale per i casi d'uso a bassa latenza, come i customer service chatbot e il completamento del codice per accelerare i workflow di sviluppo software.

Claude Sonnet

Claude 3.7 Sonnet è quello che Anthropic definisce il suo "modello più intelligente fino ad oggi". Questo modello di ragionamento ha una modalità di "pensiero esteso", che gli consente di compiere un'auto-riflessione prima di rispondere. Chi utilizza l'API di Anthropic può anche specificare per quanto tempo il modello può riflettere.

Claude 3.7 Sonnet può essere implementato per compiti più specifici come la generazione di codice, l'uso del computer (permettendo all'LLM di usare un computer come fa un essere umano), l'estrazione di informazioni dai dati visivi e la risposta alle domande.

Claude Opus

Claude 3 Opus è il modello più potente tra i tre. È in grado di gestire analisi approfondite e compiti più lunghi e complessi con più passaggi.

Command

Sviluppatore: Cohere

Data di rilascio: aprile 2024 per Command R+ e dicembre 2024 per Command R7B

Numero di parametri: fino a 104 miliardi

Finestra di contesto: 128.000 token

Licenza: proprietaria

Accesso: Cohere API, Amazon Bedrock, Microsoft Azure AI Studio, Oracle Cloud Infrastructure Generative AI

Input: testo

Output: testo

Command è il modello linguistico di punta di Cohere. Questa famiglia di LLM incentrati sulle imprese include i seguenti modelli:

    ● Command R

    ● Command R+

    ● Command R7B

Command R

Command R è un modello di generazione di testo multilingue con 32 miliardi di parametri.1 È stato addestrato per ancorare la sua capacità di retrieval-augmented generation (RAG) fornendo citazioni nelle sue risposte. Command R offre anche la possibilità di utilizzare strumenti conversazionali.

Command R+

Command R+ è una versione più potente con 104 miliardi di parametri.2 È in grado di gestire complesse funzioni RAG e l'uso di strumenti in più fasi, consentendo agli agenti AI di raccogliere le informazioni più recenti e aggiornare la propria base di conoscenza ricorrendo a strumenti esterni.

Command R7B

Command R7B è il modello più piccolo e veloce con 7 miliardi di parametri. È ideale per implementazioni su CPU, GPU di fascia bassa e altri dispositivi edge, e può essere utilizzato per l'inferenza on-device.

DeepSeek-R1

Sviluppatore: DeepSeek

Data di rilascio: gennaio 2025

Numero di parametri: 671 miliardi

Finestra di contesto: 128.000 token

Licenza: open source (licenza MIT)

Accesso: API DeepSeek, HuggingFace

Input: testo

Output: testo

DeepSeek-R1 è un modello di ragionamento open source della startup cinese di AI DeepSeek. Utilizza un'architettura Mixture of Experts (MoE) di machine learning ed è stato addestrato utilizzando un apprendimento per rinforzo su larga scala per affinare le sue capacità di ragionamento.

Le prestazioni di DeepSeek-R1 sono simili o persino migliori della serie di modelli di ragionamento o1 di OpenAI su alcuni benchmark LLM. DeepSeek-R1 ha anche utilizzato la distillazione della conoscenza per mettere a punto diversi modelli Llama e Qwen più piccoli utilizzando i dati di ragionamento generati dall'LLM molto più grande DeepSeek-R1.

I modelli distillati risultanti hanno migliorato le funzionalità di ragionamento delle loro controparti originali e hanno persino migliorato le prestazioni rispetto ad altri modelli più grandi.3

Falcon

Sviluppatore: Technology Innovation Institute

Data di rilascio: dicembre 2024 per Falcon 3

Numero di parametri: fino a 180 miliardi

Finestra di contesto: fino a 32.000 token

Licenza: open source

Accesso: Hugging Face

Input: testo

Output: testo

Falcon è un gruppo di modelli open source sviluppati dai ricercatori del Technology Innovation Institute (TII) degli Emirati Arabi Uniti. Questi modelli sono stati addestrati su RefinedWeb del TII, un enorme set di dati contenente dati web filtrati in inglese.

Falcon è composto dai seguenti LLM:

    ● Falcon 2

    ● Falcon 3

    ● Falcon Mamba 7B

Altre versioni precedenti e più grandi di Falcon includono Falcon 40B con 40 miliardi di parametri e Falcon 180B con 180 miliardi di parametri.

Falcon 2

Falcon 2 11B è un modello decoder-only causale con 11 miliardi di parametri. Offre supporto multilingue e presto includerà funzionalità di conversione vision-to-language.

Falcon 3

Falcon 3 adotta un design decoder-only ed è disponibile nelle versioni da 1, 3, 7 e 10 miliardi di parametri. Rappresenta un'evoluzione rispetto al suo predecessore, potenziando le sue capacità di ragionamento.

Falcon Mamba 7B

Falcon Mamba 7B è uno state space language model (SSLM), che si discosta dalla tipica architettura trasformativa degli LLM. I modelli transformer utilizzano un meccanismo di attenzione per "focalizzare la loro attenzione" sui token più importanti della sequenza di input. Tuttavia, con la crescita della finestra di contesto, i transformer richiedono più memoria e potenza di calcolo.

Gli SSLM aggiornano continuamente uno "stato" durante l'elaborazione e utilizzano un algoritmo di selezione per regolare i parametri dinamicamente in base all'input. Ciò consente al Falcon Mamba 7B di elaborare lunghe sequenze di testo senza bisogno di memoria aggiuntiva e di generare nuovi token nello stesso lasso di tempo, indipendentemente dalla lunghezza del contesto.

Gemini

Sviluppatore: Google DeepMind

Data di rilascio: dicembre 2024

Numero di parametri: non reso pubblico

Finestra di contesto: 1 milione di token

Licenza: proprietaria

Accesso: Gemini API, Google AI Studio, Google Cloud Vertex AI

Input: multimodale (audio, immagine, testo, video)

Output: testo

Gemini è la suite di modelli multimodali di Google. Alimenta anche l'omonimo chatbot di AI generativa (precedentemente noto come Bard).

Gemini utilizza un modello transformer, un'architettura di rete neurale originaria di Google, e si basa sui precedenti modelli linguistici di base dell'azienda, tra cui BERT (Bidirectional Encoder Representations from Transformers) e PaLM 2 (Pathways Language Model).

L'ultima versione, Gemini 2.0, è stata "creata per l'era degli agenti", secondo Google. Gemini 2.0 è disponibile in diverse varianti:

    ● Gemini 2.0 Flash

    ● Gemini 2.0 Flash-Lite

    ● Gemini 2.0 Pro

Gemini 2.0 Flash

Gemini 2.0 Flash è un modello leggero che supporta l'uso di strumenti. Le funzionalità in arrivo includono la generazione di immagini e il text to speech.

Gemini 2.0 Flash-Lite

Gemini 2.0 Flash-Lite è una versione migliorata del precedente 1.5 Flash, leggero ed economico. Mantiene la stessa velocità e lo stesso costo migliorando la qualità.

Gemini 2.0 Pro

Gemini 2.0 Pro è quello che Google definisce il suo modello più potente per la programmazione e per affrontare richieste complesse, grazie alle sue capacità di utilizzo degli strumenti e alla finestra di contesto più lunga di 2 milioni di token. È ancora in fase sperimentale.

GPT

Sviluppatore: OpenAI

Data di rilascio: maggio 2024 per GPT-4o e luglio 2024 per GPT-4o mini

Numero di parametri: non reso pubblico

Finestra di contesto: 128.000 token

Licenza: proprietaria

Accesso: API OpenAI utilizzando .NET, JavaScript, Python, TypeScript

Input: multimodale (audio, immagine, testo, video)

Output: multimodale (audio, immagine, testo)

I Generative pretrained transformer (GPT) sono una linea di modelli linguistici di grandi dimensioni sviluppati da OpenAI. GPT include i seguenti LLM:

    ● GPT-4o

    ● GPT-4o mini

GPT-4o

GPT-4o è un modello multilingue e multimodale. Essendo uno degli LLM più avanzati, GPT-4o è in grado di elaborare input audio, testuali e visivi e di produrre qualsiasi combinazione di output audio, immagini e testo.

Ha migliorato le prestazioni rispetto ai suoi predecessori GPT-4 Turbo e GPT-4. GPT-4o è l'LLM attualmente alla base del chatbot di AI generativa ChatGPT di OpenAI

.

GPT-4o mini

GPT-4o mini è un modello più piccolo e conveniente che accetta input di immagini e testo e genera output di testo. Ha superato GPT-3.5 Turbo in termini di prestazioni.

Design 3D di palline che rotolano su una pista

Le ultime notizie e insight sull'AI


Scopri notizie e insight selezionati da esperti in materia di AI, cloud e molto altro nella newsletter settimanale Think. 

Granite

Sviluppatore: IBM

Data di rilascio: febbraio 2025

Numero di parametri: fino a 34 miliardi

Finestra di contesto: 128.000 token

Licenza: open source (Apache 2.0)

Accesso: IBM® watsonx.ai, Hugging Face, LM Studio, Ollama, Replicate

Input: multimodale (immagine, testo)

Output: testo

IBM® Granite è una serie di LLM open source pensati per le aziende. Include i seguenti modelli:

    ● Granite 3.2

    ● Granite Vision

Granite 3.2

Granite 3.2 integra capacità di ragionamento avanzate e funzionalità avanzate per i compiti RAG. È disponibile nelle versioni da 2 e 8 miliardi di parametri.

I dati di addestramento di Granite 3.2 sono un mix di set di dati open source con licenza permissiva e set di dati sintetici di alta qualità raccolti internamente, progettati per risolvere problemi con contesti lunghi.

Granite Vision

Granite Vision è un modello linguistico visivo con 2 miliardi di parametri progettato per la comprensione visiva dei documenti. È pensato per l'estrazione efficiente di contenuti da grafici, diagrammi e tabelle, il che lo rende adatto per l'analisi di dati strutturati.

Gli altri LLM della serie Granite sono costituiti dai seguenti modelli specializzati:

    ● Granite Code

    ● Granite Guardian

    ● Granite Embedding

Granite Code

Questi modelli decoder-only sono progettati per attività generative di codice, tra cui la modifica del codice, la spiegazione del codice e la generazione di codice. I modelli Granite Code sono stati addestrati con codice scritto in 116 linguaggi di programmazione e sono disponibili in versioni da 3, 8, 20 e 34 miliardi di parametri.

Granite Guardian

I modelli Granite Guardian sono guardrail basati su LLM progettati per rilevare i rischi nei prompt e nelle risposte. Granite Guardian è disponibile nelle versioni da 2, 3, 5 e 8 miliardi di parametri.

Granite Embedding

I modelli Granite Embedding sono modelli di tipo sentence-transformer progettati specificamente per applicazioni basate sul recupero di informazioni, come la ricerca semantica e la RAG.

Grok

Sviluppatore: xAI

Data di rilascio: febbraio 2025 per Grok 3

Numero di parametri: 314 miliardi

Finestra di contesto: 128.000 token

Licenza: proprietaria

Accesso: API xAI

Input: multimodale (immagine, testo)

Output: testo

Grok è un modello linguistico di xAI. L'LLM di prima generazione, Grok-1, è un modello MoE con 314 miliardi di parametri. A causa delle sue enormi dimensioni, solo il 25% dei pesi dei modelli di Grok-1 è attivo su un determinato token di input.

Nel marzo 2024, xAI ha rilasciato Grok-1.5 con una finestra di contesto di 128.000 token e funzionalità di risoluzione dei problemi migliorate. Cinque mesi dopo, xAI ha lanciato le versioni beta di Grok-2 e la sua versione più piccola, Grok-2 mini. Grok-2 ha capacità di chat, programmazione e ragionamento ancora più migliorate e aggiunge il supporto per le attività basate sulla visione.

Le ultime versioni, Grok 3 e Grok 3 mini, sono dotate di funzioni avanzate di ragionamento e agenti AI.

Llama

Sviluppatore: Meta

Data di rilascio: dicembre 2024 per Llama 3.3

Numero di parametri: fino a 405 miliardi

Finestra di contesto: 128.000 token

Licenza: Open source

Accesso: Meta, Hugging Face, Kaggle

Input: multimodale (immagine, testo)

Output: testo

Llama è la raccolta di LLM di Meta AI. Questi modelli autoregressivi implementano un'architettura trasformativa ottimizzata, con versioni ottimizzate che applicano la messa a punto supervisionata e l'apprendimento per rinforzo con feedback umano (RLHF).5

La raccolta Llama 3 è l'evoluzione degli LLM Llama 2 e offre i seguenti modelli:

    ● Llama 3.1

    ● Llama 3.2

    ● Llama 3.3

Llama 3.1

Llama 3.1 ha un modello da 8 miliardi di parametri e un foundation model di punta da 405 miliardi di parametri. Entrambi sono modelli multilingue text-only.

Llama 3.2

Llama 3.2 è disponibile nelle versioni da 1 e 3 miliardi di parametri, sufficientemente compatte per dispositivi mobile e edge. Le versioni da 11 e 90 miliardi di parametri sono LLM multimodali ottimizzati per rispondere a domande generali su un'immagine, didascalie, ragionamento sulle immagini e visual recognition.6

Llama 3.3

Llama 3.3 è un modello multilingue text-only da 70 miliardi di parametri. Ha prestazioni paragonabili o persino migliorate rispetto a Llama 3.1 405B ma è più conveniente.

Mistral

Sviluppatore: Mistral AI

Data di rilascio: luglio 2024 per Mistral Large 2

Numero di parametri: fino a 124 miliardi

Finestra di contesto: fino a 256.000 token

Licenza: Mistral Research License, Mistral Commercial License, Apache 2.0

Accesso: La Plateforme, Amazon Bedrock, Microsoft Azure AI Studio, Google Cloud Vertex AI, IBM watsonx.ai

Input: multimodale (immagine, testo)

Output: testo

La società francese Mistral AI dispone di una suite di LLM che comprende i seguenti modelli:

    ● Mistral Large

    ● Mistral Small

    ● Codestral

    ● Pixtral Large

Mistral Large

Mistral Large 2 è il modello di punta di Mistral AI. Ha 123 miliardi di parametri e una finestra di contesto di 128.000 token. Ha buone prestazioni nella generazione di codice, nella matematica e nel ragionamento. Mistral Large 2 offre supporto multilingue e funzionalità di chiamata.

Mistral Small

Mistral Small 3 è una versione più compatta con 24 miliardi di parametri. Questo modello è adatto per l'AI conversazionale a risposta rapida, la chiamata di funzioni a bassa latenza e la gestione dell'inferenza in locale su macchine con risorse limitate. Mistral Small 3 è open source e rilasciato con licenza Apache 2.0.

Codestral

Codestral 25.01 è l'ultima generazione del modello di programmazione di Mistral AI. Presenta una lunghezza di contesto di 256.000 token e supporta attività come il completamento del codice, la correzione del codice, la generazione di codice e la generazione di test.

Pixtral Large

Pixtral Large è un modello multimodale da 124 miliardi di parametri. È basato su Mistral Large 2 e ne estende le funzionalità includendo la comprensione delle immagini.

o1

Sviluppatore: OpenAI

Data di rilascio: settembre 2024 per o1, gennaio 2025 per o3-mini

Numero di parametri: non reso pubblico

Finestra di contesto: fino a 200.000 token

Licenza: proprietaria

Accesso: API di OpenAI

Input: multimodale (immagine, testo)

Output: testo

La serie o1 di modelli AI include o1 e o1-mini. Rispetto ai modelli GPT di OpenAI, gli LLM o1 sono dotati di funzionalità di ragionamento più avanzate. Sia o1 che o1-mini sono stati addestrati con l'apprendimento per rinforzo su larga scala, che consente loro di "pensare" prima di rispondere. Sono in grado di generare una lunga catena di pensieri prima di rispondere.

L'LLM o1 accetta input sia di immagini che di testo, mentre o1-mini può gestire solo input di testo.7 Rispetto a o1, o1-mini è più piccolo, più veloce e più conveniente. Inoltre, eccelle nel ragionamento STEM e nella programmazione.

o3-mini, invece, è l'ultimo modello di ragionamento. Come o1-mini, la sua forza risiede nella programmazione, nella matematica e nelle scienze. Supporta la chiamata di funzioni e offre 3 opzioni di sforzo di ragionamento (basso, medio e alto) per ottimizzare scenari diversi, come problemi complessi che richiedono un maggiore sforzo di ragionamento o problemi più semplici che necessitano di risposte rapide e possono utilizzare meno ragionamento.

AI Academy

Ecco perché i foundation model rappresentano un cambio di paradigma per l'AI

Scopri una nuova classe di modelli AI flessibili e riutilizzabili che possono sbloccare nuove entrate, ridurre i costi e aumentare la produttività, consulta quindi la nostra guida per approfondire.

Qwen

Sviluppatore: Alibaba Cloud

Data di rilascio: settembre 2024 per Qwen 2.5 e gennaio 2025 per Qwen2.5-Max

Numero di parametri: fino a 72 miliardi

Finestra di contesto: fino a 1 milione di token

Licenza: open source (Apache 2.0), proprietaria per i modelli più grandi

Accesso: Alibaba Cloud, Hugging Face

Input: multimodale (audio, immagine, testo, video)

Output: testo

Qwen è una serie di LLM della società cinese di cloud computing Alibaba Cloud. Qwen include modelli linguistici e varianti ottimizzate per attività audio, di programmazione, matematiche e visive

.

Qwen offre i seguenti modelli:

    ● Qwen 2.5

    ● Qwen Audio

    ● Qwen Coder

    ● Qwen Math

    ● Qwen VL

Qwen 2.5

I modelli Qwen2.5 sono modelli decoder-only per attività di elaborazione linguistica multilingue. Sono disponibili in versioni da 0,5, 3, 7, 14, 32 e 72 miliardi di parametri. I modelli più grandi, come la variante da 72 miliardi, sono disponibili solo tramite l'accesso API sulla piattaforma cloud proprietaria di Alibaba.

Qwen2.5-Turbo presenta una lunghezza di contesto più lunga di 1 milione di token e una velocità di inferenza più rapida. Qwen2.5-Max, invece, è l'ultimo modello MoE su larga scala.

Qwen Audio

Qwen 2 Audio è stato creato appositamente per le attività basate su audio. Questo modello da 7 miliardi di parametri può essere utilizzato per trascrivere, rilevare e classificare i suoni, gestire i comandi vocali e identificare elementi musicali.

Qwen Coder

Qwen2.5 Coder è un LLM specifico per la programmazione. È disponibile nelle versioni da 1,5, 7, 14 e 32 miliardi di parametri.

Qwen Math

Qwen 2 Math è una raccolta di LLM ottimizzati per la matematica. Questi modelli sono adatti per il ragionamento matematico avanzato e per la risoluzione di problemi matematici complessi. Qwen 2 Math è disponibile nelle versioni da 1,5, 7 e 72 miliardi di parametri.

Qwen VL

Qwen 2 VL è un modello linguistico visivo che combina l'elaborazione visiva con il natural language understanding. I casi d'uso di esempio implicano l'estrazione di informazioni dai dati visivi e la generazione di didascalie e riepiloghi per immagini e video. Qwen 2 VL è disponibile nelle versioni da 2, 7 e 72 miliardi di parametri.

Stable LM

Sviluppatore: Stability AI

Data di rilascio: aprile 2024 per Stabile LM 2 12B

Numero di parametri: fino a 12 miliardi

Finestra di contesto: 4.096 token

Licenza: Stability AI Community License o Enterprise License

Accesso: Stability AI, Hugging Face

Input: testo

Output: testo

Stable LM è un gruppo di modelli linguistici ad accesso libero di Stability AI, i creatori del modello text-to-image Stable Diffusion. Stable LM 2 12B ha 12 miliardi di parametri, mentre Stable LM 2 1.6B ha 1,6 miliardi di parametri. Si tratta di LLM decoder-only addestrati su dati multilingue e su set di dati di codice. Entrambi i modelli incorporano la chiamata di funzioni e l'uso di strumenti.

Stable Code 3B è un altro LLM messo a punto su set di dati relativi alla programmazione. Essendo un modello leggero con 3 miliardi di parametri, Stable Code 3B può essere eseguito in tempo reale su dispositivi, anche quelli senza GPU.

Note a piè di pagina

Tutti i link sono esterni a ibm.com

1 Model Card di C4AI Command R 08-2024, Hugging Face, consultata il 14 febbraio 2025.

2 Model Card di C4AI Command R+ 08-2024, Hugging Face, consultata il 14 febbraio 2025.

3 DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning, GitHub, 23 gennaio 2025.

4 Access the latest 2.0 experimental models in the Gemini app, Google, 5 febbraio 2025.

5 Model Information, GitHub, 30 settembre 2024.

6 Model Information, GitHub, 30 settembre 2024.

7 o1 and o1-mini, OpenAI, consultato il 14 febbraio 2025.

Soluzioni correlate
Foundation Model

Esplora la libreria IBM di foundation model nel portfolio di watsonx per scalare in sicurezza l'AI generativa per la tua azienda.

Scopri watsonx.ai
Soluzioni di intelligenza artificiale

Metti l'AI al servizio della tua azienda grazie all'esperienza leader di settore e alla gamma di soluzioni di IBM nel campo dell'AI.

Esplora le soluzioni AI
Consulenza e servizi sull'AI

Reinventa i workflow e le operazioni critiche aggiungendo l'AI per massimizzare le esperienze, il processo decisionale in tempo reale e il valore di business.

Esplora i servizi AI
Fai il passo successivo

Esplora la libreria IBM dei foundation model nel portafoglio di IBM watsonx per scalare in sicurezza l'AI generativa per la tua azienda.

Esplora watsonx.ai Esplora le soluzioni AI