Claude AI (Claude) è un chatbot di intelligenza artificiale (AI) generativa, nonché una famiglia di modelli linguistici di grandi dimensioni (LLM) sviluppati dalla società di ricerca Anthropic. Claude eccelle nell'elaborazione del linguaggio naturale (PNL) ed è multimodale: accetta input di testo, audio e visivi e può rispondere a domande, riassumere documenti e generare testo in formato lungo, diagrammi, animazioni, codice di programma e molto altro.
Claude aderisce alla filosofia Constitutional AI di Anthropic, ovvero un codice di norme etiche che l'azienda ritiene differenzi Claude dai modelli AI concorrenti come ChatGPT e Gemini di Google. I principi Constitutional AI sono basati sulla sicurezza dell'AI e sono progettati per guidare Claude a fornire risposte più utili, evitando comportamenti dannosi come i pregiudizi dell'AI.
Claude 3, rilasciato nel maggio 2024, include un AI chatbot gratuito e due a pagamento.
Ognuno dei tre modelli Claude 3 ha i suoi casi d'uso specializzati. In generale, le persone possono usare Claude AI per con una vasta gamma di attività, tra cui:
A differenza di Claude 2 e 1, Claude 3 è multimodale, ovvero può elaborare immagini e contenuti audio insieme ai prompt basati su testo. Ad esempio, Claude 3 può generare descrizioni di prodotti di e-commerce basate su immagini. Sebbene Claude 3 non possa generare contenuti non testuali da solo, la sua integrazione multimodale è una delle numerose nuove caratteristiche che gli consentono di competere con GPT-4.
Come Gemini e ChatGPT di OpenAI, la famiglia di sistemi AI di Anthropic si basa sull'architettura trasformativa della rete neurale. Tuttavia, a differenza dei suoi concorrenti, Claude applica i principi Constitutional AI per governare il suo comportamento.
I transformer sono un tipo di modello AI costruito per l'elaborazione del linguaggio naturale ad alte prestazioni. Funzionano applicando complessi algoritmi matematici per prevedere statisticamente la risposta più probabile a una query dell'utente. Il workflow può essere suddiviso in quattro fasi fondamentali.
Il trasformatore suddivide la richiesta di un utente in token. Ogni token rappresenta un'intera parola o una parte di una parola. Il prezzo del modello AI è generalmente rappresentato come costo per token. La finestra di contesto di Claude Pro è di 200.000 token1, il che significa che può elaborare query utente lunghe fino a 200.000 token.
Constitutional AI2 è un insieme di principi di sicurezza ed etica dell'AI creati da Anthropic, una startup di AI. Durante la progettazione di Claude, Anthropic ha raccolto input da circa 1.000 persone, chiedendo loro di votare e suggerire regole per il funzionamento etico dell'AI generativa e l'uso responsabile dell'AI . L'assemblaggio finale delle regole costituì la base del processo di addestramento di Claude.
Le prime tre regole di Consitutional AI sono:
Laddove altri modelli fanno esaminare i loro contenuti da addestratori umani in un processo chiamato reinforcement learning from human feedback (RLHF), quello di Claude è stato addestrato tramite RLHF e da un secondo modello AI. Il reinforcement learning from AI feedback (RLAIF) ha incaricato il modello "trainer" di confrontare il comportamento di Claude con i criteri Constitutional AI e di correggerlo di conseguenza.
RLAIF automatizza la parte del processo di addestramento relativa all'aggiustamento del comportamento, rendendola più economica ed efficiente, al fine di incoraggiare un comportamento etico. Il risultato desiderato è che Claude si metta a punto da solo, imparando a evitare prompt dannosi e generando risposte utili ai prompt che ritiene fattibili di risposta.
Anthropic è una startup di AI fondata nel 2021 da diversi ex ricercatori e dirigenti di OpenAI, tra cui i fratelli Daniela e Dario Amodei. Amazon e Google hanno investito miliardi di dollari nell'azienda, mentre OpenAI continua a godere del sostegno di Microsoft.
I fratelli Amodei sono usciti da OpenAI nel 2021, l'anno prima che OpenAI rilasciasse GPT-3.5. Si tratta dello stesso modello di AI che continua a supportare lo strumento di AI gratuito ChatGPT. Insieme ad altri ex ricercatori di OpenAI, i fratelli Amodei hanno fondato Anthropic AI, iniziando a lavorare su quello che è diventato Claude AI.
La caratteristica distintiva di Anthropic è l'approccio dichiarato all'AI etica, rappresentato dal processo di addestramento a Constitutional AI.
Al momento del rilascio di Claude 3, Anthropic AI ha condotto una serie di test di benchmarking LLM per valutare i propri modelli rispetto a quelli dei due principali concorrenti: OpenAI e Google. Sia in questi test che in altri, Claude ha dimostrato diversi vantaggi chiave:
In grado di gestire prompt di fino a 200.000 token (circa 350 pagine di testo), Claude può ricordare e utilizzare più informazioni per creare risposte pertinenti. In confronto, GPT-4 Turbo e GPT-4o limitano gli utenti a 128.000 token.
La capacità di Claude di conservare più informazioni consente agli utenti di creare prompt dettagliati e ricchi di dati. Più dati sono contenuti nella sequenza di input, più pertinente può essere la risposta di un modello AI.
Quando Anthropic ha testato Claude 3 contro GPT-4 e Gemini 1.03, Claude 3 Opus è risultato il migliore in tutti i benchmark di valutazione selezionati. Gemini 1.0 Ultra è risultato il migliore in quattro dei sei test visivi, anche se la famiglia di modelli Claude ha ottenuto risultati comparabili.
Tuttavia, GPT-4o e Gemini 1.5 non sono stati inclusi nel pool di test. Quando ha presentato GPT-4o nel maggio 20244, OpenAI ha condotto un benchmarking che ha visto il suo nuovo modello di punta battere Claude 3 Opus in cinque dei sei test effettuati.
Gli utenti preoccupati per la privacy dei dati potrebbero apprezzare la politica di conservazione dei dati di Anthropic5: l'azienda afferma che tutti gli input e gli output degli utenti vengono eliminati dopo 30 giorni. La policy sui dati di Gemini for Google Cloud6 di Google afferma che l'azienda non addestrerà i suoi modelli con i prompt degli utenti.
Al contrario, OpenAI può conservare e utilizzare i dati degli utenti7 per addestrare ulteriormente i propri modelli. Le policy di Gemini Apps8di Google consentono all'azienda di conservare i dati degli utenti, a meno che l'utente non disattivi manualmente questa opzione.
Sebbene le prestazioni complessive di Claude siano forti rispetto alla concorrenza, la soluzione presenta anche alcuni punti deboli che possono ritardarne l'accettazione da parte del pubblico più vasto.
Rispetto a GPT-4o, Claude è meno in grado di creare immagini. Sebbene Claude possa produrre diagrammi di flusso interattivi, diagrammi entità-relazione e grafici, non è in grado di generare immagini complete.
Grazie all'integrazione di Microsoft con Bing, GPT-4 è in grado di effettuare ricerche su Internet quando risponde alle domande degli utenti. Sebbene Claude venga aggiornato regolarmente con nuovi dati di addestramento, la sua knowledge base è sempre indietro di diversi mesi, fino a che Anthropic non deciderà di aprire Claude a Internet nello stesso modo.
Esplora la libreria IBM di foundation model nel portfolio di watsonx per scalare in sicurezza l'AI generativa per la tua azienda.
Metti l'AI al servizio della tua azienda grazie all'esperienza leader di settore e alla gamma di soluzioni di IBM nel campo dell'AI.
Reinventa i workflow e le operazioni critiche aggiungendo l'AI per massimizzare le esperienze, il processo decisionale in tempo reale e il valore di business.
1. How large is Claude Pro's Context Window? Anthropic, 2024
2. Collective Constitutional AI: Aligning a Language Model with Public Input, Anthropic, 17 ottobre 2023
3. Introducing the next generation of Claude, Anthropic, 4 marzo 2024
4. Hello GPT-4o, OpenAI, 13 maggio 2024
5. How long do you store personal data?, Anthropic, 2024
6. How Gemini for Google Cloud uses your data, Google, 10 settembre 2024
7. How your data is used to improve model performance, OpenAI, 17 settembre 2024
8. Gemini Apps Privacy Hub, Google, 28 agosto 2024