Gli LLM non sono applicazioni autonome: sono modelli statistici pre-addestrati che devono essere abbinati a un'applicazione (e, in alcuni casi, a fonti di dati specifiche) per raggiungere il loro scopo.
Ad esempio, Chat-GPT non è un LLM: è un'applicazione chatbot che, a seconda della versione scelta, utilizza il modello linguistico GPT-3.5 o GPT-4. Il modello GPT interpreta l'input dell'utente e compone una risposta con il linguaggio naturale, mentre l'applicazione (tra le altre cose) fornisce un'interfaccia che consente all'utente di digitare e leggere, oltre a un design UX che controlla l'esperienza del chatbot. Anche a livello aziendale, Chat-GPT non è l'unica applicazione che utilizza il modello GPT: Microsoft utilizza GPT-4 per Bing Chat.
Inoltre, anche se i foundation model (come quelli per gli LLM) sono pre-addestrati sulla base di enormi set di dati, non sono onniscienti. Se una particolare attività richiede l'accesso a informazioni contestuali specifiche, come la documentazione interna o la competenza nell'ambito, gli LLM devono essere collegati a queste fonti di dati esterne. Anche se desideri semplicemente che il tuo modello rifletta gli eventi attuali in tempo reale, sono necessarie informazioni esterne: i dati interni di un modello sono aggiornati solo per l'arco di tempo durante il quale sono stati pre-addestrati.
Allo stesso modo, se una certa attività di AI generativa richiede l'accesso a workflow di software esterni (ad esempio se desideri che il tuo agente virtuale si integri con Slack), allora ti servirà un modo per integrare l'LLM con l'API per quel software.
Sebbene queste integrazioni possano generalmente essere realizzate con codice completamente manuale, i framework di orchestrazione come LangChain e il portfolio IBM watsonx di prodotti di intelligenza artificiale semplificano notevolmente il processo. Inoltre, rendono molto più facile sperimentare diversi LLM per confrontare i risultati, poiché i vari modelli possono essere sostituiti con modifiche minime al codice.