Un anno nel settore tecnologico può sembrare un decennio in qualsiasi altro campo.
Riflettiamoci: un anno fa stavamo discutendo di come ChatGPT non fosse in grado di contare il numero di "r" in "strawberry". I modelli di ragionamento dei laboratori all'avanguardia cinesi (come DeepSeek-R1) avevano avuto un successo strepitoso, così come gli agenti di ragionamento open source.
L'agente di codifica dedicato di Claude non esisteva ancora. Granite 3.0 di IBM era appena arrivato. E la conversazione sugli agenti era appena iniziata: MCP aveva appena guadagnato terreno in primavera, con un notevole sostegno da parte di Sam Altman.
Nel frattempo, nel mondo delle infrastrutture, i chip e le risorse di calcolo stavano scarseggiando, dando ai nuovi territori un vantaggio competitivo.
Nelle ultime settimane, IBM Think ha parlato con una dozzina di esperti di tecnologia (ricercatori, fondatori e leader di IBM e non solo) per ottenere i loro insight su cosa aspettarsi l'anno a venire. Ognuno di loro ha condiviso una convinzione comune per l'anno a venire: il ritmo dell'innovazione non rallenterà nel 2026.
"È un periodo davvero folle", ha dichiarato in un'intervista a IBM Think Peter Staar, membro principale dello staff di ricerca presso l'IBM Research Zurich Laboratory. "E la situazione sta solo accelerando."
Le nuove funzionalità daranno spazio a nuove possibilità sia per le aziende che per gli individui. "Vedo davvero dei parallelismi tra la produzione musicale in stile Rick Rubin e la creazione tramite intelligenza artificiale", ha dichiarato Chris Hay, Distinguished Engineer di IBM, a IBM Think. "Non parlo solo della creazione di codice. Penso che diventeremo tutti compositori di AI, che tu sia responsabile marketing, programmatore o PM.
Molti credono che l'efficienza sarà la nuova frontiera. "Le GPU continueranno a dominare la scena, ma si svilupperanno anche acceleratori basati su ASIC, design chiplet, l'inferenza analogica e persino ottimizzatori assistiti dalla tecnologia quantistica", ha dichiarato Kaoutar El Maghraoui, Principal Research Scientist presso IBM, durante la puntata di Mixture of Experts di questa settimana. "Forse emergerà una nuova classe di chip per workload agentici."
Dopo tanto scetticismo sul ROI dell'AI, le funzionalità dell'AI apriranno nuovi modi di fare business in azienda. E i modelli di ragionamento e gli agenti open source continueranno a superare i confini per conquistare l'AI aziendale.
Allo stesso tempo, la fiducia e la sicurezza diventeranno priorità fondamentali, in quanto molte aziende si concentreranno sulla sovranità dell'AI.
Questa è solo l'apertura di ciò che accadrà nel campo della tecnologia aziendale nei prossimi giorni. Continua a leggere per scoprire 18 previsioni di esperti da tenere d'occhio nel 2026.
Newsletter di settore
Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.
L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.
IBM ha dichiarato pubblicamente che il 2026 segnerà la prima volta che un computer quantistico sarà in grado di superare un computer classico, vale a dire il punto in cui un computer quantistico è in grado di risolvere un problema meglio di tutti i metodi classici.
Secondo IBM, questo traguardo sbloccherà scoperte nello sviluppo di farmaci, nella scienza dei materiali, nell'ottimizzazione finanziaria e in settori più complessi che affrontano sfide incredibilmente complesse.
"Abbiamo superato la teoria", ha dichiarato a IBM Think Jamie Garcia, Director, Strategic Growth and Quantum Partnerships presso IBM. "Oggi stiamo utilizzando i migliori computer quantistici del settore per casi d'uso reali. Anche se non si tratta di problemi su scala di produzione, sono segnali in cui ci aspettiamo che il valore aumenti man mano che la quantistica continua ad evolversi. E stiamo assistendo a progressi incredibili nella ricerca per lo sviluppo di farmaci, la scoperta di materiali e l'ottimizzazione per la finanza e la logistica".
Garcia sottolinea anche la convergenza con AI: strumenti come Qiskit Code Assistant stanno già aiutando gli sviluppatori a generare automaticamente codice quantum. IBM sta sviluppando un'architettura di supercalcolo quantistica che combina il calcolo quantistico con potenti infrastrutture di calcolo ad alte prestazioni e AI, supportate da CPU, GPU e altri motori di calcolo, ha spiegato.
Per spingere questo obiettivo al futuro, AMD e IBM stanno cercando di integrare CPU, GPU e FPGA AMD con computer quantistici IBM per accelerare in modo efficiente una nuova classe di algoritmi emergenti, che sono fuori dalla portata attuale di entrambi i paradigmi e funzionano in modo indipendente.
"Il 2026 sarà l'anno della frontiera tra classi di modelli efficienti", ha affermato Kaoutar El Maghraoui, Principal Research Scientist presso IBM, durante una recente puntata di Mixture of Experts. Accanto a modelli enormi con miliardi di parametri, appariranno modelli efficienti e consapevoli dell'hardware che girano su acceleratori modesti. "Non possiamo continuare a scalare il calcolo, quindi i settori devono scalare l'efficienza."
Nel 2025, la domanda ha superato la supply chain, costringendo le aziende a ottimizzare in base alla disponibilità di calcolo. Quella pressione ha diviso le strategie per l'hardware: scalare con superchip come H200, B200, GB200 oppure scalare con ottimizzazioni edge , scoperte di quantizzazione e piccoli LLM, ha detto.
Questo significherà anche che l'edge AI diventerà realtà. E la corsa all'hardware non sarà più solo una questione di GPU. "Le GPU continueranno a dominare, ma si evolveranno anche acceleratori basati su ASIC, design chiplet, l'inferenza analogica e persino ottimizzatori assistiti dalla tecnologia quantistica", ha detto El Maghraoui. "Forse emergerà una nuova classe di chip per i workload agentici."
Nel 2026 la competizione non si concentrerà sui modelli AI, ma sui sistemi.
"Raggiungeremo un punto di svolta", ha affermato Gabe Goodhart, Chief Architect, AI Open Innovation presso IBM, in un'intervista con IBM Think. "È un mercato per gli acquirenti. Puoi scegliere il modello più adatto al tuo caso d'uso e iniziare. Il modello in sé non sarà il principale elemento di differenziazione."
Ciò che conta ora è l'orchestrazione: combinare modelli, strumenti e workflow. "Se vai su ChatGPT, non stai parlando con un modello AI", ha spiegato. "Stai parlando con un sistema software che include strumenti per cercare sul web, svolgere vari tipi di attività programmatiche individuali personalizzate, e molto probabilmente un ciclo agentico."
"Nel 2026, penso che vedremo più un tipo di instradamento dei modelli cooperativo," ha detto Goodhart. "Ci saranno modelli più piccoli che possono fare molte cose e delegare al modello più grande quando necessario. Chiunque riuscirà a realizzare questa integrazione a livello di sistema plasmerà il mercato."
Nel 2026, l'elaborazione dei documenti non sarà più un lavoro mono-modello. Invece di forzare un singolo sistema a interpretare un intero file, le pipeline di analisi sintetica suddividono i documenti nelle loro parti (titoli, paragrafi, tabelle, immagini) e li indirizzano al modello che li comprende meglio.
"Questo ci permette di ridurre i costi computazionali migliorando la fedeltà perché ogni elemento viene interpretato dalla classe modello che lo comprende meglio," ha dichiarato a IBM Think, fondatore e CEO di Brian Raymond, fondatore e CEO di Unstructured. Unstructured trasforma dati non strutturati in dati puliti pronti per l'AI.
"Il risultato è uno strato di ricostruzione flessibile che sintetizza una rappresentazione precisa della fonte originale, mantenendo al contempo solide garanzie su struttura, discendenza e significato", ha affermato Raymond. Unstructured ha recentemente integrato le funzionalità di rilevamento oggetti di IBM Research per raggiungere questo obiettivo, aumentando l'accuratezza complessiva.
Poi arriva l'analisi agentica. Dobbiamo immaginarla come un team di esperti di settore (solo che sono agenti di intelligenza artificiale) che analizzano continuamente il corpus, creando profili semantici approfonditi e indicizzando tutto su un grafico multidimensionale. "Ciò fornisce una ricerca in grado di operare contemporaneamente su intenti, strutture, contenuti e metadati e rende disponibili in tempo reale conoscenze interne precedentemente inaccessibili", ha affermato Raymond.
Insieme, questi progressi indicano sistemi dati aziendali auto-consapevoli, una base per decisioni più rapide e workflow più intelligenti nel 2026.
"Siamo andati oltre l'era degli agenti monouso", ha detto Chris Hay, Distinguished Engineer di IBM, durante un recente episodio di Mixture of Experts . Nel 2024, gli agenti erano piccoli e specializzati: chi scriveva e-mail, chi aiutava nella ricerca. Ma ora, con le funzionalità di ragionamento, gli agenti possono pianificare, chiamare strumenti e completare attività complesse.
"Stiamo assistendo all'ascesa di quello che chiamo il 'super agente'", ha detto Hay.
"Nel 2026, vedo i piani di controllo degli agenti e le dashboard multi-agente diventare realtà. Sarà possibile avviare i task da un solo posto, e quegli agenti opereranno su più ambienti—il browser, l'editor, la casella di posta—senza che sia necessario gestire una decina di strumenti separati," ha detto Hay. Il software statico nell'esperienza utente e nell'interfaccia utente sarà solo un ricordo del passato. Hay prevede che ci saranno interfacce e app in grado di adattarsi a qualsiasi scenario, trasformando ogni utente in un compositore AI.
"Chiunque possieda quella porta d'ingresso del super agente plasmerà il mercato."
Il 2026 sarà caratterizzato da tre tendenze che fanno progredire l'AI oltre la produttività personale, afferma Kevin Chung, Chief Strategy Officer di Writer, una piattaforma di AI aziendale per il lavoro agentico.
"In primo luogo, l'AI si sta spostando dall'uso individuale a team e orchestrazione del workflow", ha detto Chung a IBM Think. Ciò significa coordinare workflow, collegare i dati tra i vari reparti e portare i progetti dall'idea al completamento.
In secondo luogo, man mano che le funzionalità di ragionamento migliorano, i sistemi non si limiteranno a seguire le istruzioni: anticiperanno i bisogni. "Questa evoluzione trasforma l'AI da assistente passivo in un collaboratore attivo in grado di risolvere problemi e prendere decisioni in modo significativo", ha detto.
Infine, Chung vede il cambiamento più entusiasmante: la democratizzazione della creazione di agenti AI. "La capacità di progettare e distribuire agenti intelligenti sta passando dalle mani degli sviluppatori a quelle degli utenti business di tutti i giorni", ha spiegato. "Abbassando le barriere tecniche, le organizzazioni vedranno un'ondata di innovazione guidata dalle persone più vicine ai problemi reali."
I sistemi agentici hanno trasformato gli LLM e gli assistenti di codifica in qualcosa di più dinamico nel 2025. E questo è solo l'inizio, secondo Ismael Faro, vicepresidente di Quantum e AI presso IBM Research. Egli vede il software passare da interazioni informali a un approccio strutturato in cui gli utenti fissano obiettivi e convalidano i progressi mentre gli agenti autonomi eseguono compiti e richiedono l'approvazione umana.
"La pratica software evolverà dal vibe coding al protocollo di validazione ", ha affermato Faro in un'intervista con IBM Think. Gli utenti definiranno gli obiettivi e li convalideranno mentre gruppi di agenti opereranno in modo autonomo, estendendo il concetto di human-in-the-loop, richiedendo l'approvazione umana nei punti di controllo critici.
Questo cambiamento permetterà l'emergere di runtime agentici per eseguire workflow complessi con un meccanismo di controllo, e trasformerà il comportamento degli agenti da output statico e codificato a adattamento dinamico, grazie a schemi guidati da policy che bilanciano flessibilità e controllo.
Questo sarà la base per un "Sistema Operativo Agentico (AOS, Agentic Operating System)", ha spiegato Faro, che standardizzerà orchestrazione, sicurezza, conformità e governance delle risorse tra gli sciami di agenti.
“Con un'attenzione rigorosa alla sicurezza, alla gestione delle risorse, alla conformità e all'eccellenza operativa, le aziende possono avvalersi di agenti di sistemi esperti per riconquistare la leadership nell'informatica mission-critical”, ha affermato.
I modelli generativi devono essere multisensoriali per poter interpretare il mondo come gli esseri umani e persino rilevare segnali che potremmo perdere, ha detto Aaron Baughman, IBM Fellow e Master Inventor, in un recente episodio di Mixture of Experts.
Baughman ha lavorato con l'AI multimodale nello sport e guida alcune delle collaborazioni IBM con US Open, ESPN Fantasy Football e the Masters, in particolare. Per lui, l'AI multimodale è una tendenza che si aspetta di vedere sempre di più nel 2026.
"Questi modelli saranno in grado di percepire e agire in un mondo molto più simile a quello umano. Saranno in grado di unire linguaggio, visione e azione, il tutto insieme", ha affermato. "Nel prossimo futuro inizieremo a vedere questi digital worker in grado di completare autonomamente diverse attività per interpretare le cose, forse anche casi sanitari complessi."
Ma l'autonomia non significherà rimuovere la supervisione umana. "È importante anche in futuro avere questa AI con intervento umano”, ha affermato Baughman, “in modo che l’uomo possa mettere a punto e modificare le competenze".
È passato solo un anno da quando Anthropic ha lanciato MCP, insieme a ACP di IBM e A2A di Google. Se il 2025 è stato l'anno degli agenti, il 2026 dovrebbe essere l'anno in cui tutti i sistemi multi-agente saranno spostati in produzione, ha dichiarato Kate Blair di IBM in un'intervista con IBM Think. Questo cambiamento dipende dalla maturità e convergenza dei protocolli.
"Il 2026 è il periodo in cui questi schemi usciranno dal laboratorio e arriveranno nella vita reale", ha detto Blair, che guida le iniziative BeeAI e Agent Stack di IBM. Entrambi i progetti sono stati donati alla Linux Foundation.
La Linux Foundation ha recentemente annunciato la formazione dell'Agentic AI Foundation e il contributo di Anthropic al MCP. "Siamo entusiasti che MCP sia passata sotto una governance aperta", ha affermato Blair. “Gli standard comunitari, governati in modo aperto, sbloccheranno più creatività, più innovazione e più soluzioni”.
Il progetto A2A sta per arrivare alla sua prima importante release. "Stiamo già vedendo una collaborazione tra A2A e MCP per standardizzare su una singola scheda per descrivere un'entità, che sia uno strumento o una risorsa in MCP o un agente in A2A," ha detto.
Blair vede questa scheda unificata come un catalizzatore per l'interoperabilità e l'opportunità di condividere registri, scoperte e utilizzo tra agenti e sistemi agentici.
"Sono entusiasta di passare al livello successivo, dove parliamo di casi d'uso di produzione diffusi, di agenti che parlano con altri agenti".
Atolio fornisce una piattaforma AI sicura e privata per le aziende. La sfida che osservano tra i loro clienti è la necessità di essere veloci e di sperimentare nuove tecnologie, mitigando al contempo il rischio di perdere il controllo dei loro dati AI.
"La tendenza più significativa che vedremo emergere il prossimo anno è il passaggio dalla sperimentazione e dall'entusiasmo per l'AI alla distribuzione/implementazione privata e sicura, con aspettative reali di ROI all'interno delle aziende", ha dichiarato David Lanstein, cofondatore e CEO di Atolio, in un'intervista a IBM Think.
"Le fughe di dati continuano a erodere la fiducia delle imprese", ha affermato. "La sfida irrisolta degli attacchi prompt injection negli ambienti di produzione rende la sovranità dei dati e i requisiti di permesso di prima classe non negoziabili."
La soluzione non sono modelli più grandi, ma dati più intelligenti. Come afferma Lanstein: "Il vero valore deriverà dall'alimentazione dei modelli con dati strutturati di alta qualità e abilitati, per generare risposte intelligenti, pertinenti e affidabili".
"Ciò che mi entusiasma di più è la convergenza necessaria affinché ciò accada", ha affermato, indicando "un rinnovato impegno per la sicurezza, i progressi e le soluzioni che comprendano più profondamente il contesto e le esigenze degli utenti e la continua evoluzione dell'ecosistema MCP."
Fondata nel 2020, AuthMind sta affrontando uno dei problemi più difficili della cybersecurity: offrire alle aziende una visione chiara e quasi in tempo reale dell'accesso e delle attività di ogni identità, così da poter fermare gli attacchi prima che inizino.
"Nei prossimi anni, gli AI agenti e altre identità non umane supereranno significativamente gli utenti umani nell'organizzazione," ha dichiarato Shlomi Yanai, CEO e cofondatore di AuthMind, in un'intervista a IBM Think.
Questo cambiamento ridefinirà la sicurezza aziendale e la governance. “Ora garantire che ogni agente sia responsabile e agisca nel modo previsto, aumentando sia la produttività che la sicurezza, è una questione che riguarda il consiglio di amministrazione”, ha affermato Yanai. Man mano che le organizzazioni scalano l'adozione dell'AI, la sfida non è più solo la distribuzione dei modelli, ma la gestione dell'identità con i nuovi utenti: agenti autonomi che operano attraverso i sistemi.
Per le aziende, ottenere il vantaggio in questo contesto significa rispondere a tre domande critiche: conosciamo tutti gli agenti AI esistenti? Riusciamo a capire a cosa hanno accesso? E siamo sicuri di ciò che fanno quando accedono a un sistema?
Scoprire, osservare e proteggere non solo ogni essere umano ma anche ogni agente AI sta diventando essenziale per garantire un'adozione responsabile e sicura dell'AI. "Sono davvero entusiasta di seguire le aziende che padroneggiano questa visibilità, responsabilità e fiducia in tutte le identità degli agenti AI", ha affermato Yanai.
"La tendenza più forte che vedo per il prossimo anno è l'AI che affronta i workflow aziendali complessi", ha affermato Steven Aberle, fondatore di Rohirrim, una startup AI-native incentrata su ecosistemi di approvvigionamento complete, in un'intervista con IBM Think. "Non come un proof of concept, ma come un sistema affidabile in grado di eseguire attività approfondite, end-to-end."
I sistemi generativi e agentici interpreteranno l'intento, cercheranno attraverso vaste reti, sceglieranno gli strumenti giusti e continueranno fino a raggiungere i risultati. "Questo cambiamento crea categorie completamente nuove di piattaforme e persino nuovi mercati, perché non siamo più limitati da ciò che un singolo essere umano o una singola applicazione possono tenere a mente", ha spiegato. "È una vera automazione delle macchine."
Transformers ha reso questo possibile. "Ci hanno fornito sistemi in grado di assorbire enormi corpi di testo, codice e cronologie, per poi rispondere con sfumature e precisione con efficaci barriere di sicurezza", ha detto Aberle. "Stiamo entrando in un'era in cui l'AI passa dal semplice rispondere alle domande a spostare direttamente i risultati."
Nell'approvvigionamento, ciò significa monitorare i requisiti, individuare tempestivamente le lacune e suggerire correzioni, offrendo ai professionisti chiarezza e velocità per prendere decisioni più eque e rapide.
Un anno fa, Matt White, direttore esecutivo della PyTorch Foundation, ha previsto che i modelli più piccoli spingeranno l'AI verso l'edge.
"Il settore ha convalidato la tesi secondo cui i modelli più piccoli e ottimizzati per il dominio sarebbero diventati centrali", ha recentemente dichiarato White a IBM Think. “I progressi nella distillazione, quantizzazione e nei tempi di esecuzione efficienti in termini di memoria hanno spinto l'inferenza verso cluster edge e dispositivi integrati, guidati da esigenze di costo, latenza e sovranità dei dati.”
Secondo White, tre forze definiranno l'AI open-source nel 2026: la diversificazione globale dei modelli, guidata da versioni cinesi multilingue e con ragionamento ottimizzato; l'interoperabilità come asse competitivo, poiché framework e tempi di esecuzione si allineano a standard condivisi; e una governance rafforzata, con release sottoposte a audit di sicurezza e pipeline di dati trasparenti.
"Man mano che emergono i sistemi agentici, il ruolo di PyTorch come substrato comune per l'addestramento, la simulazione e l'orchestrazione si approfondirà ulteriormente," ha detto White. "Gli sviluppatori hanno bisogno di strumenti flessibili per il ragionamento multimodale, la valutazione dei componenti della memoria e la sicurezza, ed è lì che l'open source prospera."
Peter Staar di IBM prevede che il 2026 segnerà un cambiamento nelle priorità della ricerca sull'AI, che favorirà l'aspetto tangibile. "La robotica e l'AI fisica sono sicuramente destinate a crescere", ha affermato. Sebbene i grandi modelli linguistici rimangono dominanti, Staar osserva che il settore sta registrando rendimenti decrescenti a causa dello scaling. "Le persone si stanno stancando della sola crescita e sono alla ricerca di nuove idee", ha spiegato.
Staar vede molto interesse per l'AI in grado di percepire, agire e apprendere in ambienti reali; è qui che risiederà la sfida tecnica: potrebbe essere la prossima frontiera dell'innovazione.
Allo stesso tempo, Staar ritiene che l'AI open source continuerà a plasmare il panorama competitivo. "Quelli in testa vogliono tenerla chiusa, mentre quelli che stanno recuperando il ritardo scelgono l'open source", ha detto.
Con NVIDIA che sta emergendo come uno dei principali driver degli ecosistemi aperti, in gran parte perché la sua attività dipende dall'adozione diffusa delle GPU piuttosto che dai modelli proprietari, Staar prevede che la collaborazione accelererà man mano che l'AI si sposterà oltre gli schermi e approderà nel mondo fisico.
Il 2024 si è concluso in modo positivo per l'AI open-source, con i modelli Llama di Meta che hanno guadagnato terreno. Da allora, l'ecosistema open source dell'AI è cresciuto molto, con modelli più piccoli e specifici per dominio che hanno ottenuto risultati impressionanti—è il caso di Granite di IBM, Olmo 3 di Ai2 e, naturalmente, dei modelli DeepSeek. Anthony Annunziata, direttore di Open Source AI presso IBM e AI Alliance, prevede che questa tendenza accelererà nel 2026.
"Vedremo modelli di ragionamento più piccoli, multimodali e più facili da adattare per domini specifici", ha affermato durante un'intervista con IBM Think.
I progressi nella messa a punto e nell'apprendimento per rinforzo significano anche che le imprese possono adottare un'AI open source, alimentando la voglia di modelli più piccoli ed efficienti. "Invece di un modello gigante per tutto, si avranno modelli più piccoli ed efficienti che sono altrettanto precisi, forse di più, se ottimizzati per il caso d'uso giusto", ha affermato.
L'agentic AI open source accelererà questa tendenza. "Gli agenti generici non sono sufficienti per il settore legale, sanitario o manifatturiero", ha affermato Annunziata. "Servono modelli e architetture arricchiti di domini che riflettano i workflow degli esperti."
L'AI open source è una necessità. "Se crediamo che ci stiamo dirigendo verso un'economia in cui le funzionalità di AI automatizzata svolgono una parte notevole di lavoro, allora gli standard di interazione devono essere aperti", ha affermato. "Altrimenti, ci ritroveremo con silos frammentati, o una piattaforma in cui il vincitore si prende tutto".
"La parte centrale della classica curva di Rogers delle imprese inizia a passare dalla fase di sperimentazione a quella dei sistemi di produzione", ha affermato Tomás Hernando Kofman, cofondatore di Not Diamond, una piattaforma di infrastruttura AI multi-modello, in un'intervista con IBM Think.
Non sarà una transazione facile: "I team di AI dovranno investire molto in valutazione, affidabilità, ottimizzazione, efficienza, scalabilità e manutenibilità", ha affermato.
Ciò richiederà un serio coordinamento e risorse. Se le aziende non investono, finiranno bloccate: non avere le funzionalità giuste significa che i sistemi non sono utili, e questa mancanza di utilità non fa che rafforzare il problema.
Alla frontiera, le sfide sono diverse. "Credo che il settore dovrà affrontare tre ostacoli principali: apprendimento continuo, memoria e scalabilità", ha affermato Kofman.
Il lavoro verrà svolto sia a livello di architettura del modello sia nei sistemi agenti.
"Cominceremo a vedere reti decentralizzate di agenti che potranno imparare le une dalle altre, condividere informazioni e conservare conoscenze importanti per lunghi periodi: settimane, mesi, persino anni", ha affermato. "Questi sistemi miglioreranno il dinamismo e il miglioramento continuo, consentendo al contempo ad agenti e modelli di specializzarsi in funzionalità efficienti e mirate."
Nessuna entità può risolvere la crisi dei deepfake e dell'AI armata, soprattutto perché nuovi vettori di minaccia, come gli agenti AI armati, sono emersi alla fine di quest'anno, ha affermato Ben Colman, CEO e cofondatore di Reality Defender, una società di cybersecurity che offre strumenti di rilevamento dei deepfake . La rapida evoluzione dell'AI generativa richiede un ecosistema collaborativo.
"Le partnership strategiche sono essenziali, non solo per rafforzare la difesa, ma per anticipare la prossima ondata di modelli sofisticati e vulnerabilità specifiche del settore", ha detto a IBM Think.
Vedo queste collaborazioni nel nostro settore nascere tra noi, altre che lavorano su aspetti diversi di un problema simile e così via, con la stessa rapidità con cui avanzano le tecnologie AI, se non addirittura più velocemente.
Colman osserva uno spostamento verso un modello di sicurezza stratificato. "Impilando difese diverse, le lacune in uno strato vengono coperte da un altro per creare uno scudo impenetrabile," ha affermato.
L'integrazione definirà la fase successiva. "Quando queste tecnologie emergenti si uniscono a piattaforme di rilevamento come la nostra, il risultato è una strategia completa di 'difesa in profondità'", ha affermato. "Ciò garantisce che le organizzazioni siano protette in tutti i formati multimediali e punti di ingresso, per tutti i casi d'uso e in tutti i set di strumenti, anziché fare affidamento su un unico elemento di criticità".
Le organizzazioni non possono permettersi che i loro progetti di AI vengano interrotti, ma i leader aziendali possono controllare solo alcune cose. La sovranità dell'AI — la capacità di governare sistemi, dati e infrastrutture AI senza dipendere da entità esterne — è diventata mission-critical, ha dichiarato Anthony Marshall, direttore senior e vicepresidente dell'IBM Institute for Business Value (IBV).
Per il 93% dei dirigenti intervistati dall'IBV, tenere conto della sovranità dell'AI nella strategia aziendale sarà indispensabile nel 2026. "Non si tratta semplicemente di spuntare una casella", ha affermato Marshall.
La metà dei dirigenti teme una dipendenza eccessiva dalle risorse di calcolo in alcune regioni (una preoccupazione particolarmente alta tra i leader aziendali in Medio Oriente e APAC), e molti credono che affidarsi a tali risorse possa introdurre una vasta gamma di rischi. Si pensi alle violazioni dei dati, alla perdita di accesso ai dati e al furto di proprietà intellettuale.
Anche la trasparenza e la fiducia rimarranno priorità. "Sia le autorità di regolamentazione che i consumatori chiedono alle organizzazioni di spiegare come gli agenti AI prendono decisioni specifiche. Le organizzazioni devono progettare agenti in grado di mostrare il lavoro svolto, anche per gli output più complessi", ha affermato Marshall.
Ciò significa costruire la sovranità attraverso la modularità, progettando ambienti AI in modo che workload, dati e agenti possano spostarsi tra regioni e fornitori affidabili.
"Il monitoraggio continuo è essenziale per rilevare e risolvere la deriva dei modelli prima che comprometta le prestazioni o introduca bias," ha detto Marshall.