Avvicinandoci alla metà del 2025, possiamo guardare indietro alle tendenze prevalenti dell'intelligenza artificiale dell'anno fino ad ora e guardare avanti a quello che potrebbe riservarci il resto dell'anno.
Data la portata e la profondità dello sviluppo dell'AI, nessuna panoramica delle tendenze AI può sperare di essere esaustiva. Anche questo non fa eccezione. Abbiamo ristretto il campo a un elenco di 10 innovazioni: 5 che hanno riguardato la prima metà dell'anno e altre 5 che prevediamo possano avere un ruolo importante nei mesi a venire.
Le tendenze nell'AI sono promosse non solo dai progressi nei modelli AI e negli algoritmi, ma dalla gamma sempre più ampia di casi d'uso a cui vengono applicate funzionalità di AI generativa (gen AI). Man mano che i modelli diventano più capaci, versatili ed efficienti, aumentano anche le applicazioni AI, gli strumenti AI e altri workflow basati su AI che possono abilitare. Una profonda conoscenza di come si sta evolvendo l'ecosistema AI di oggi richiede quindi una conoscenza contestuale delle cause e degli effetti delle novità dell'apprendimento automatico (ML) .
Questo articolo analizza principalmente le attuali tendenze il cui impatto nel mondo reale potrebbe concretizzarsi in un orizzonte di pochi mesi: in altre parole, tendenze con un impatto tangibile principalmente nel 2025. Esistono, naturalmente, altre iniziative di AI più consolidate e familiari. Ad esempio, sebbene recentemente vi sia stata una tendenza verso i veicoli a guida completamente autonoma in un numero ridotto di situazioni (i piloti di robotaxi sono stati lanciati in poche città degli Stati Uniti, con ulteriori prove condotte in altre città come Oslo, Ginevra e 16 città cinesi), probabilmente siamo ancora lontani anni luce dalla diffusione generalizzata.
Molte altre macro tendenze importanti nell'AI, come l'avvento degli agenti AI o gli sconvolgimenti dei comportamenti di ricerca e della SEO, sono ampie, sfaccettate e già largamente trattate altrove, per cui sono state tralasciate a favore di sviluppi più mirati che non hanno ricevuto un'attenzione mediatica così vasta.
Detto questo, proseguiamo.
Il progresso non richiede necessariamente un afflusso costante di idee completamente nuove. Molte delle più importanti tendenze dell'AI nella prima metà del 2025 riflettono i cambiamenti nel modo in cui il settore applica le idee esistenti, alcune pragmatiche e produttive, altre meno.
I modelli di oggi non sono solo significativamente migliori di quelli del passato, ma anche molto più economici da gestire. Basti prendere in considerazione questo grafico di SemiAnalysis: in meno di 2 anni, il prezzo per token per ottenere risultati equivalenti sul benchmark MMLU è diminuito di decine di volte. Questa non è certo una novità per chi ha monitorato le metriche prestazionali di ogni successiva generazione di release dei modelli. Eppure, visto nel complesso, questa velocità di miglioramento in costante accelerazione permette di comprendere meglio il clamore per l'AI generativa rispetto alle già impressionanti funzionalità dei modelli attuali.
Uno studio valuta il ritmo del miglioramento algoritmico pari a circa il 400% all'anno: in altre parole, i risultati odierni possono essere raggiunti un anno dopo utilizzando un quarto del calcolo, e questo senza tenere conto dei miglioramenti simultanei nell'informatica (vedi: Legge di Moore) o dei dati di addestramento sintetici. Il GPT-4 originale, che si dice abbia circa 1,8 bilioni di parametri,1 ha ottenuto un punteggio del 67% su HumanEval, un popolare benchmark per le prestazioni di codifica. IBM Granite 3.3 2B Instruct, rilasciato 2 anni dopo e 900 volte più piccolo, ha ottenuto un punteggio dell'80,5%.2
Questa diffusione esponenziale dell'economia modello è ciò che, più di ogni altra cosa, rafforza l'era emergente degli agenti AI. I modelli linguistici di grandi dimensioni (LLM) stanno diventando più pratici a un ritmo ancora più rapido di quanto non stiano diventando più capaci, il che consente la distribuzione di sistemi multi-agente complessi in cui un gruppo di modelli può pianificare, eseguire e coordinare attività complicate in modo autonomo, senza far lievitare i costi di inferenza.
Il rilascio di o1 di OpenAI ha presentato un nuovo modo per aumentare le prestazioni dei modelli. Il suo straordinario miglioramento, rispetto alle prestazioni precedenti dei benchmark matematici e di codifica altamente tecnici, ha dato il via a una competizione in merito ai cosiddetti "modelli di ragionamento". Le loro prestazioni migliorate su attività che richiedono un processo decisionale logico sono destinate a svolgere un ruolo importante nello sviluppo di agentic AI. Ma come spesso accade con la tecnologia AI, la frenesia iniziale per le prestazioni grezze ha recentemente lasciato il posto a una ricerca dell'implementazione più pratica.
L'intuizione alla base dei modelli di ragionamento deriva da una ricerca che dimostra che l'aumento del calcolo in tempo di test (utilizzato per generare un output) potrebbe migliorare le prestazioni del modello tanto quanto l'aumento del calcolo in tempo di addestramento (utilizzato per addestrare un modello). Questi insight si sono manifestati in tecniche per mettere a punto i modelli in modo da incentivare la generazione di "processi di pensiero" più lunghi e complessi prima di un risultato finale, una scuola di tecniche ampiamente chiamata scaling dell'inferenza.
Ma la scalabilità dell'inferenza significa anche un aumento dei costi di inferenza e della latenza. Gli utenti devono pagare (e attendere) per tutti i token generati dal modello mentre "pensano" alle risposte finali, e quei token pensanti consumano la finestra di contesto disponibile. Esistono dei casi d'uso che giustificano quel tempo e quel calcolo supplementari, ma vis sono anche numerosi scenari in cui questo rappresenta uno spreco di risorse. Tuttavia, passare costantemente da un modello di ragionamento a un modello "standard" in base a ogni singola attività e a ogni singolo prompt non è pratico.
Per ora, la soluzione sono i "modelli di ragionamento ibrido." A febbraio, IBM Granite 3.2 è diventato il primo modello LLM a offrire una modalità di "pensiero" attivabile, che consente agli utenti di utilizzare il ragionamento quando ne hanno bisogno e dare priorità all'efficienza quando non ne hanno bisogno.3 Claude 3.7 Sonnet di Anthropic ha seguito l'esempio più tardi quel mese, aggiungendo la possibilità per gli utenti delle API di avere un controllo preciso sulla durata del "pensiero" del modello.4 Google ha introdotto una funzione di modularità "pensante" simile per Gemini 2.5 Flash.5 Qwen3 di Alibaba, come IBM Granite, consente di attivare o disattivare il pensiero.
La ricerca in corso mira ad aumentare ulteriormente la nostra conoscenza di quello che accade effettivamente mentre i modelli di ragionamento "pensano", e la misura in cui le tracce di ragionamento estese della Catena del Pensiero (CoT) contribuiscono effettivamente ai risultati. Un documento pubblicato ad aprile suggerisce che per alcune attività, i modelli di ragionamento possono essere efficaci senza produrre pensieri. Nel frattempo, la ricerca Anthropic dell'inizio del mese ha affermato che i risultati della CoT mostrati all'utente potrebbero non riflettere effettivamente quello che il modello sta realmente "pensando."
Lo sviluppo dell'AI si è sempre basato molto sullo sfruttamento di repository di conoscenze open source, come Wikipedia e GitHub. La loro importanza non farà che aumentare in futuro, soprattutto dopo le rivelazioni di alto profilo secondo cui i principali sviluppatori di AI hanno addestrato modelli su torrent di libri piratati, il che presumibilmente scoraggerà l'uso costante di tali fonti alternative. Per le organizzazioni che gestiscono risorse open source di inestimabile valore, la situazione sta già causando gravi difficoltà.
Sebbene una serie di cause legali abbiano portato alla consapevolezza dei danni causati dalla raccolta di dati - sia essa legale, illegale o ambigua - sulla proprietà intellettuale, è stata prestata un'attenzione minore al modo in cui la fame di dati dei sistemi di AI danneggia i repository di conoscenza. Come ha affermato la Wikimedia Foundation in un annuncio di aprile sul traffico dei bot, "i [loro] contenuti sono gratuiti, la [loro] infrastruttura no". Wikimedia, in particolare, ha subito un assalto potenzialmente insostenibile di traffico web da parte di bot di scraping che raccolgono dati per addestrare modelli di AI generativa. Da gennaio 2024, la larghezza di banda utilizzata per scaricare i contenuti multimediali di Wikimedia è cresciuta del 50%.
L'aumento del volume di traffico è di per sé preoccupante, ma è la natura di questo traffico a esercitare una pressione sproporzionata su risorse limitate. Il comportamento umano in fatto di navigazione è prevedibile: il nostro traffico si concentra sulle pagine più popolari e segue cluster logici, consentendo strategie di automazione e di caching che allocano in modo efficiente la larghezza di banda. A differenza degli esseri umani, i bot esplorano indiscriminatamente pagine nascoste, costringendo spesso i data center a servirli direttamente. Questo non solo è costoso e inefficiente in circostanze ordinarie, ma potenzialmente disastroso in situazioni in cui l'infrastruttura deve rispondere a picchi di utilizzo reali.
Come Ars Technica fa notare, questo problema è diffuso ed esacerbato da quello che molti considerano un comportamento deliberatamente predatorio da parte dei bot crawler e delle società che li gestiscono. Diversi, come Perplexity, sono stati accusati di aggirare surrettiziamente robots.txt e persino di aggirare i paywall per raccogliere i dati. Quando i siti web cercano di limitare la velocità di accesso ai bot, i bot passano a IP diversi; quando il loro ID viene bloccato direttamente, passano a stringhe ID alternative. Un responsabile dell'infrastruttura open source, che ha scoperto che quasi il 25% del traffico della sua rete proveniva da bot ChatGPT, lo ha descritto come "letteralmente un DDoS (Distributed Denial-of-Service) su tutto Internet".
In risposta, numerosi progetti stanno perseguendo attivamente misure difensive. Un progetto open source, Anubis, obbliga i bot a risolvere enigmi computazionali prima di ottenere l'accesso. Un altro, Nepenthes, invia i crawler AI in un "labirinto infinito." Cloudflare, un importante fornitore di infrastrutture web, di recente ha lanciato una caratteristiche chiamata "AI Labyrinth", che utilizza un approccio simile (anche se meno aggressivo). Wikimedia sta organizzando una nuova iniziativa, WE5: Uso responsabile dell'infrastruttura, che mira a una soluzione strutturale.
La capacità dello sviluppo commerciale dell'AI e dei repository di conoscenza aperti di sviluppare in modo collaborativo un protocollo reciprocamente adatto avrà un enorme impatto non solo sul futuro dell'AI, ma anche sul futuro di Internet stesso.
Sebbene il concetto alla base dei modelli Mixture of Experts (MoE) risalga al 1991, non è entrato nel mainstream dell'elaborazione del linguaggio naturale (NLP) o dell'AI generativa fino a quando alla fine del 2023 Mixtral AI non ha rilasciato il proprio modello Mixtral .6 Sebbene il modello e la sua architettura abbiano ricevuto particolare attenzione e si diceva (anche se mai confermato) che il GPT-4 di OpenAI fosse un MoE al momento del rilascio, in gran parte non ha spinto il settore a distogliere l'attenzione dai modelli LLM "densi" convenzionali.
Questo obiettivo sembra essere cambiato dopo DeepSeek-R1. DeepSeek-R1 e il modello base DeepSeek-V3 da cui è stato ottimizzato hanno dimostrato definitivamente che i modelli MoE erano perfettamente in grado di fornire prestazioni edge per completare la loro già comprovata efficienza computazionale.
Il ridestato interesse per i modelli MoE sparsi è evidente nell'attuale ondata di modelli di nuova generazione, tra cui (ma non solo) Meta Llama 4, Qwen3 di Alibaba e IBM Granite 4.0, che utilizzano questa architettura. È inoltre possibile che alcuni modelli chiusi leader del settore, come OpenAI, Anthropic o Google, siano dei MoE, anche se queste informazioni sull'architettura dei modelli chiusi vengono divulgate raramente.
Poiché nei prossimi anni la capacità e le prestazioni straordinarie diventeranno sempre più comuni, è probabile che la velocità di inferenza e l'efficienza offerte dai modelli sparsi diventino una priorità maggiore.
Il futuro è sempre difficile da prevedere. La vertiginosa velocità di miglioramento delle precedenti generazioni di modelli AI ha indotto molti ad aspettarsi che quella che verrà rilasciata nel 2025 avrebbe compiuto passi significativi verso l'intelligenza artificiale generale(AGI). Sebbene gli ultimi modelli di OpenAI, Meta e gli altri attori più finanziati nel settore dell'AI siano senza dubbio impressionanti, sono sicuramente a corto di innovazioni rivoluzionarie.
Per quanto riguarda l'attuazione pratica, i progressi sono stati disomogenei. Molti dirigenti aziendali, che alla fine del 2023 si sono mostrati ottimisti sulle previsioni di adozione dell'AI da parte della loro organizzazione, nel 2024 si sono resi conto di non possedere un'infrastruttura IT pronta per scalare l'AI.
Un ritornello diffuso tra gli analisti dell'AI è che l'AI si occuperà di compiti banali e ripetitivi e libererà tempo per gli esseri umani, che potranno quindi concentrarsi sul pensiero creativo e di ampio respiro. Ma finora, i dati sull'adozione dell'AI non lo riflettono necessariamente nella realtà. Uno studio condotto dall'IBM Institute for Business Value (IBV) ha rilevato che era vero il contrario, almeno nella supply chain del settore del retail: l'88% dei rivenditori ha riferito di utilizzare la gen AI per "ideazione/concepting creativo" e il 74% ha riferito di utilizzarla per "creazione e modifica di contenuti". Nel frattempo, la maggior parte del lavoro banale è ancora territorio umano: solo il 23% dei rivenditori utilizza la gen AI per generare variazioni di contenuto per canale e solo il 10% lo utilizza per generare variazioni di contenuto per area geografica.
Tutto sommato, non è che le organizzazioni non stiano perseguendo attivamente l'adozione dell'AI, un nuovo report IBV dimostra che sicuramente lo sono, in particolare per quanto riguarda gli agenti AI, ma piuttosto che non sta avvenendo a un ritmo semplice e lineare. La transizione dalla sperimentazione all'operatività formale raramente non presenta ostacoli.
Entro la seconda metà del 2025 (e fino all'inizio del prossimo anno), saranno pronti i provvedimenti per un'interruzione significativa di alcuni aspetti dello status quo in vigore sin dai primi giorni dell'era dell'AI generativa attualmente in corso.
Sostanzialmente, non esiste un benchmark (o set di benchmark) perfetto per le prestazioni dell'AI. Ogni benchmark è soggetto alla legge di Goodhart: "Quando una misura diventa un obiettivo, cessa di essere una buona misura". Tuttavia, rappresenta un vantaggio per lo sviluppo dei modelli, e anche per i dirigenti aziendali incaricati di scegliere soluzioni e modelli AI specifici, disporre di misure di prestazioni standardizzate e gestite in modo trasparente per facilitare i confronti diretti.
Il primo set di benchmark "standard" attorno al quale si è riunito il settore è stato quello utilizzato dalla Open LLM Leaderboard su Hugging Face. Quando i suoi benchmark si sono saturati, in altre parole, quando la maggior parte dei modelli raggiungeva punteggi di valutazione così alti che era difficile differenziarli, la classifica ha adottato nuove valutazioni significativamente più impegnative nel giugno 2024. Ancora una volta, sia i modelli open source sia quelli chiusi si sono uniti per valutare le prestazioni utilizzando i benchmark di valutazione della classifica "V2". Ma nel marzo 2025, Hugging Face ha ritirato del tutto la classifica Open LLM.
Il ritiro della classifica e l'allontanamento dalla serie standard di benchmark da essa sostenuta hanno causato, ed è stato causato, una diversificazione del modo in cui utilizziamo i modelli e ne valutiamo le prestazioni.
C'è stato un certo slancio nell'uso di metodi di confronto dei modelli più qualitativi, come la popolare Chatbot Arena, rispetto alle valutazioni quantitative. Ma anche questi sono imperfetti. Un recente articolo pubblicato da una serie di rispettati ricercatori accademici e open source ha ipotizzato diverse pratiche problematiche di Chatbot Arena che favoriscono fortemente i maggiori fornitori di modelli. Quel documento seguiva le accuse secondo cui Meta avrebbe giocato con Chatbot Arena durante l'uscita di Llama 4.
La realtà è che non esiste un benchmark migliore. La best practice probabilmente vuole che le organizzazioni sviluppino il proprio benchmark che meglio riflette le prestazioni nelle attività a cui tengono. Un'azienda non assumerebbe un dipendente basandosi esclusivamente su un test del QI e non dovrebbe nemmeno scegliere un modello basato solo su test standardizzati.
Introdotti per la prima volta nel 2017, i modelli di trasformatori sono in gran parte responsabili dell'era dell'AI generativa e continuano a rappresentare la spina dorsale di tutto, dalla generazione di immagini ai modelli di serie temporali ai modelli LLM. Anche se i trasformatori non andranno da nessuna parte per il momento, stanno per avere un po' di compagnia.
I trasformatori presentano un punto debole fondamentale: le loro esigenze di elaborazione aumentano in modo quadratico in base al contesto. In altre parole, ogni volta che la lunghezza del contesto raddoppia, l' auto-attenzione non si limita a utilizzare il doppio delle risorse, ma ne utilizza il quadruplo . Questo "collo di bottiglia quadratico" limita intrinsecamente la velocità e l’efficienza degli LLM convenzionali, soprattutto nelle sequenze più lunghe o quando si incorporano informazioni da una fase precedente di uno scambio esteso. L'ottimizzazione costante dell'architettura trasformativa continua a produrre modelli di frontiera più solidi, che però stanno diventando estremamente costosi.
Mamba, introdotto per la prima volta nel 2023, è un tipo di architettura del modello completamente diverso, precisamente un modello nello spazio degli stati, ed è pronto a dare ai trasformatori la loro prima seria concorrenza nel mondo degli LLM. L'architettura si è dimostrata in grado di abbinare i trasformatori nella maggior parte delle attività di modellazione linguistica (ad eccezione delle attività di apprendimento contestuale come la generazione di prompt few-shot) e le sue esigenze computazionali scalano in modo lineare con la lunghezza del contesto. In parole povere, il modo in cui Mamba comprende il contesto è intrinsecamente più efficiente: il meccanismo di autoattenzione del trasformatore deve esaminare ogni singolo token e decidere ripetutamente a quale prestare attenzione; il meccanismo di selettività di Mamba conserva solo i token che ritiene importanti.
Quando si tratta di trasformatori o mamba, il futuro dell'AI non è probabilmente una situazione "o l'uno o l'altro": infatti, la ricerca suggerisce che un ibrido dei due è migliore di uno dei due da solo. Nell'ultimo anno sono stati rilasciati numerosi modelli mamba o ibridi mamba/transformer. La maggior parte sono stati modelli destinati esclusivamente alla ricerca accademica, con notevoli eccezioni tra cui Codestral Mamba di Mistral AI e la serie ibrida Jamba di AI2I. Più recentemente, la prossima serie IBM Granite 4.0 utilizzerà un ibrido trasformativo di architetture trasformative e Mamba-2.
Soprattutto, i requisiti hardware ridotti di Mamba e dei modelli ibridi ridurranno significativamente i costi hardware, il che a sua volta contribuirà a continuare il processo di democratizzazione dell'accesso all'AI.
L'avvento dei modelli AI multimodali ha segnato l'espansione dei modelli LLM oltre il testo, ma la prossima frontiera dello sviluppo dell'AI mira a portare queste capacità multimodali nel mondo fisico.
Questo campo emergente rientra in gran parte nella definizione di "AI incorporata". Le società di venture capital stanno investendo sempre più fondi in startup che si occupano di robotica avanzata basata sull'AI, come Skild AI, Physical Intelligence e 1X Technologies.
Un altro filone di ricerca si sta concentrando sui «modelli mondiali» che mirano a modellare le interazioni del mondo reale direttamente e olisticamente, piuttosto che indirettamente e singolarmente attraverso il linguaggio, le immagini e i dati video. World Labs, una startup guidata da Fei-Fei Li di Stanford, famosa, tra le altre cose, per il set di dati ImageNet che ha contribuito ad aprire la strada alla moderna computer vision, ha raccolto 230 milioni di dollari alla fine dello scorso anno.
Alcuni laboratori di questo settore stanno conducendo esperimenti in «mondi virtuali», come i videogiochi: Genie 2 di Google DeepMind, ad esempio, è «un modello mondiale di base in grado di generare una varietà infinita di ambienti 3D giocabili e controllabili dall'azione. Il settore dei videogiochi potrebbe, in modo naturale, essere il primo beneficiario diretto del potenziale economico dei modelli mondiali.
Molti (ma non tutti) dei principali esperti di AI, tra cui Yann LeCun, capo scienziato dell'AI di Meta e uno dei tre "padrini del deep learning", "7, ritengono che i modelli del mondo reale, non gli LLM, siano la vera strada verso l'AGI. Nei commenti pubblici, LeCun allude spesso al paradosso di Moravec, il concetto controintuitivo secondo cui nell'AI, le capacità di ragionamento complesso sono semplici e possono essere svolte anche da un bambino, mentre le attività sensomotorie e percettive no.8
In questo senso, alcune interessanti attività di ricerca mirano a insegnare all'AI a comprendere concetti, piuttosto che semplici parole, incarnando quell'AI in un robot e insegnandole nel modo in cui insegniamo le cose ai bambini.
La promessa a lungo termine degli agenti AI è che utilizzeranno l'AI per svolgere attività complesse e specifiche del contesto in modo autonomo con un intervento umano minimo o addirittura assente. Per essere in grado di personalizzare il proprio processo decisionale in base alle esigenze specifiche e contestualmente complesse di un determinato posto di lavoro o situazione, esattamente come farebbe un dipendente o un assistente competente, un agente AI deve imparare sul posto di lavoro. In altre parole, deve conservare una solida cronologia di ogni interazione generata dall'AI e di come è andata.
Ma raccogliere e conservare quella memoria permanente di ogni interazione può essere in contrasto con le nozioni fondamentali di privacy digitale nell'AI, soprattutto quando si lavora con modelli chiusi implementati sul cloud (al contrario dell'implementazione di modelli open source a livello locale).
Ad esempio, ad aprile, OpenAI ha annunciato che ChatGPT ricorderà automaticamente ogni conversazione che intratteniamo con esso, a sostegno dell'obiettivo di OpenAI di sviluppare «sistemi AI che imparano a conoscerti nel corso della tua vita». Questa funzione, peró, non è stata resa disponibile nell'UE, nel Regno Unito, in Svizzera, Norvegia, Islanda o Liechtenstein, presumibilmente perché viola le leggi sulla privacy e le normative sull'AI esistenti.9
Resta da vedere se il concetto di modello che non solo salva tutte le sue interazioni personalizzate con te, ma anche le utilizza anche per un'ulteriore formazione e ottimizzazione del modello, sia fondamentalmente compatibile con i concetti fondamentali del GDPR come il "diritto all'oblio."
In effetti, il futuro dell'AI, e soprattutto degli agenti AI, sarà sempre più personale, in una misura che potrebbe portare l'impatto dell'AI a trascendere le considerazioni tecnologiche o economiche e a sconfinare nel territorio psicologico.
Alla fine del 2024, il CEO di Microsoft AI Mustafa Suleyman ha scritto un post sul blog in cui dichiarava l'obiettivo della sua azienda di "creare un compagno di AI per tutti." In una recente intervista in un podcast, il CEO di Meta Mark Zuckerberg ha proposto "amici AI" come soluzione all'epidemia di solitudine nella nazione.10 Una serie crescente di startup sta reclutando colleghi AI.
C'è un pericolo intrinseco in tutto ciò, che deriva principalmente dalla predisposizione storica dell'uomo ad affezionarsi emotivamente anche ai primi e rudimentali chatbot. Con milioni di persone che interagiscono con chatbot personalizzati ogni giorno, i rischi di attaccamento emotivo ai colleghi AI saranno complessi, consequenziali e difficili da evitare.
Mentre procediamo in un anno cruciale nell'intelligenza artificiale, comprendere e adattarsi alle tendenze emergenti è essenziale per massimizzare il potenziale, ridurre al minimo i rischi e scalare in modo responsabile l'adozione dell'AI generativa.
¹ "GPT-4 architecture, datasets, costs and more leaked," The Decoder, 11 July 2023
² "IBM Granite 3.3 2B model card", Hugging Face, 16 April 2025
³ "Bringing reasoning to Granite," IBM, 7 February 2025
⁴ "Claude 3.7 Sonnet and Claude Code," Anthropic, 24 February 2025
⁵ "Gemini Thinking," Google, 2025.
⁶ "Adaptive Mixtures of Local Experts," Neural Computation, 1 March 1991
⁷ "Turing Award 2018: Novel Prize of computing given to 'godfathers of AI'," The Verge, 27 March 2019
⁸ @YLeCun on X (formerly Twitter), via XCancel, 20 February 2024
⁹ "ChatGPT will now remember your old conversations," The Verge, 11 April 2025
¹⁰ "Meta CEO Mark Zuckerberg Envisions a Future Where Your Friends Are AI Chatbots—But Not Everyone Is Convinced," Entrepreneur, 8 May 2025