Più grande non è sempre meglio, e ciò che manca agli SLM in termini di dimensioni, lo compensano attraverso questi vantaggi:
Accessibilità: ricercatori, sviluppatori di AI e altre persone possono esplorare e sperimentare modelli linguistici senza dover investire in più GPU (unità di elaborazione grafica) o altre attrezzature.
Efficienza: la leggerezza degli SLM li rende meno dispendiosi in termini di risorse, consentendo un addestramento e una distribuzione rapidi.
Prestazioni efficaci: questa efficienza non va a scapito delle prestazioni. I modelli piccoli possono avere prestazioni paragonabili o persino migliori rispetto ai modelli equivalenti di grandi dimensioni. Ad esempio, GPT-4o mini supera GPT-3.5 Turbo nei benchmark LLM di comprensione del linguaggio, risposta alle domande, ragionamento, ragionamento matematico e generazione di codice. 10 Anche le prestazioni di GPT-4o mini sono simili a quelle del fratello maggiore GPT-4o.10
Maggiore controllo della privacy e della sicurezza: a causa delle loro dimensioni ridotte, gli SLM possono essere distribuiti in ambienti di cloud computing privati o on-premise, consentendo una migliore protezione dei dati e una migliore gestione e mitigazione delle minacce alla cybersecurity. Questo può essere particolarmente utile per settori come la finanza o la sanità, dove sia la privacy che la sicurezza sono fondamentali.
Latenza inferiore: un minor numero di parametri si traduce in una riduzione dei tempi di elaborazione, consentendo agli SLM di rispondere rapidamente. Ad esempio, Granite 3.0 1B-A400M e Granite 3.0 3B-A800M hanno un numero totale di parametri rispettivamente di 1 miliardo e 3 miliardi, mentre i loro parametri attivi durante l'inferenza sono 400 milioni per il modello 1B e 800 milioni per il modello 3B. Ciò consente a entrambi gli SLM di ridurre al minimo la latenza offrendo al contempo prestazioni di inferenza elevate.
Più sostenibili dal punto di vista ambientale: poiché richiedono meno risorse computazionali, i modelli linguistici di piccole dimensioni consumano meno energia, riducendo così la loro impronta di carbonio.
Costi ridotti: le organizzazioni possono risparmiare sui costi di sviluppo, infrastruttura e operativi, come l'acquisizione di grandi quantità di dati di addestramento di alta qualità e l'utilizzo di hardware avanzato, che altrimenti sarebbero necessari per eseguire modelli di grandi dimensioni.