Un gateway AI è una piattaforma middleware specializzata che facilita l'integrazione, l'implementazione e la gestione di strumenti di AI, inclusi modelli linguistici di grandi dimensioni (LLM) e altri servizi di AI, in un ambiente aziendale.
Che i servizi di AI siano strumenti proprietari costruiti internamente o implementati come modelli di terze parti a cui si accede attraverso cloud, i gateway offrono un livello unificato e leggero che collega applicazioni e modelli AI e applica le policy di governance e sicurezza in modo coerente su tutti gli strumenti di AI dell'ecosistema.
Mentre i tradizionali gateway di application programming interface (API) consentono lo scambio di dati tra clienti e servizi di backend, i gateway di AI sono progettati per affrontare le sfide uniche dei workload di AI. Aumentano le funzionalità dei gateway delle API standard per includere l'accesso e l'integrazione multimodello, il routing intelligente dei workload con AI, il bilanciamento dinamico del carico, il monitoraggio del consumo di token e la limitazione della velocità, l'applicazione delle policy di sicurezza e altro ancora.
I workload aziendali di AI possono, ad esempio, richiedere sofisticate infrastrutture AI in grado di supportare enormi carichi computazionali, in particolare per il deep learning e l'addestramento di modelli di grandi dimensioni. I sistemi aziendali esistenti possono avere difficoltà a fornire l'elevata larghezza di banda e l'accesso a bassa latenza di cui le aziende hanno bisogno per gestire modelli AI su scala di produzione.
I gateway AI aiutano i team di sviluppo a gestire più facilmente architetture complesse basate su AI. Forniscono un punto di ingresso unificato per tutte le interazioni con i modelli AI, utilizzando API basate su AI per orchestrare il flusso di dati, le istruzioni e le policy tra applicazioni e sistemi AI. Questa caratteristica consente ai team di controllare il modo in cui i diversi modelli e workflow di AI vengono utilizzati e sono accessibili da un unico pannello di controllo, invece di affidarsi a un'interfaccia separata per ogni modello.
Per questo motivo, i gateway AI possono aiutare a semplificare l'accesso agli ecosistemi di modelli AI. Aiutano a ridurre gli attriti che possono accompagnare l'integrazione e a creare una struttura di governance centralizzata per l'adozione dell'AI su scala aziendale.
I gateway AI hanno funzione di ponte tra i sistemi AI e le applicazioni degli utenti finali, centralizzando l'implementazione e la governance dei modelli AI.
Immagina uno strumento di supporto clienti su una piattaforma di e-commerce. Lo strumento utilizza un modello linguistico di grandi dimensioni (per rispondere alle domande degli utenti), un modello di analisi del sentiment (per determinare gli stati d'animo degli utenti) e un modello di riconoscimento delle immagini (per analizzare tutti gli allegati fotografici inviati dagli utenti durante le interazioni). Un gateway API si può collocare tra i modelli e la piattaforma per orchestrare e semplificare il completamento delle attività di backend.
Ad esempio, quando un utente invia una richiesta di acquisto con una schermata come prova d'acquisto, l'applicazione inoltra il messaggio e la foto all'endpoint dell'AI gateway. Il gateway indirizzerà la parte di testo al modello LLM e la schermata al modello di riconoscimento delle immagini per una risposta. Invia inoltre il messaggio al modello di analisi del sentiment per stabilire se l'utente sembra frustrato o arrabbiato.
Inoltre, il gateway AI aiuta a garantire che tutte le richieste siano autenticate e che non vengano rivelati dati sensibili o privati. In definitiva, il gateway unisce i risultati di ciascun modello in un formato standardizzato prima che i risultati vengano restituiti al client.
Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.
I gateway AI hanno funzione di ponte tra i sistemi e le applicazioni AI, centralizzando la governance dei modelli AI e aiutando i team a eliminare l'applicazione di guardrail frammentati e incoerenti. Per fornire queste caratteristiche, tuttavia, i gateway AI devono eseguire una serie di funzioni chiave.
Eccone alcune:
I gateway API impongono un formato API unificato e tradizionale per consentire una perfetta integrazione tra più modelli AI e le applicazioni che li utilizzano. Fondamentalmente, i gateway aiutano a semplificare l'integrazione di diversi modelli di vari fornitori di AI. Le definizioni tradizionali consentono alle API di AI di mappare a più fornitori, in modo che le applicazioni funzionino sempre con una superficie API coerente, indipendentemente dal modello AI utilizzato.
I gateway AI creano un piano di controllo centrale che raccoglie le richieste di applicazione in arrivo, automatizzano le conversioni di protocollo e mascherano le differenze tra le API dei fornitori di modelli in modo che gli sviluppatori non debbano riformattare manualmente le query. Centralizzano i controlli di accesso, l'observability e i protocolli di conformità, il monitoraggio dell'utilizzo e altre pratiche di gestione dei modelli.
La gestione e l'orchestrazione dei modelli si riferiscono al monitoraggio sistematico, al coordinamento e all'implementazione di più modelli AI che coesistono nello stesso ambiente. Questi processi, che includono la gestione end-to-end del ciclo di vita (comprese attività come il controllo delle versioni, l'implementazione, il rollback e gli aggiornamenti), l'allocazione delle risorse, la gestione degli errori e la scalabilità, tra gli altri, aiutano a garantire che i modelli funzionino insieme perfettamente come parte di un sistema di AI unificato.
I gateway facilitano la distribuzione e le operazioni dei modelli AI, quindi gli sviluppatori non devono più preoccuparsi delle implementazioni manuali o dei modelli obsoleti. I gateway AI hanno anche funzione di punti di accesso centrale che indirizzano le richieste di dati, gestiscono l'autenticazione e applicano le politiche tra modelli, fonti di dati e applicazioni.
Ad esempio, i gateway consentono la selezione dinamica del modello in cui il gateway seleziona e indirizza automaticamente le richieste di AI al modello migliore in base al caso d'uso o alle condizioni del sistema.
I gateway AI tracciano costantemente il rendimento, l'utilizzo e lo stato di salute dei modelli AI e del traffico AI che gestiscono, consentendo una visibilità in tempo reale. I gateway monitorano le metriche, come il volume delle richieste, i tempi di risposta, i tassi di errore e l'accumulo dei costi a livelli granulari (per utente o per applicazione, ad esempio).
Dal momento che hanno funzione di hub del traffico AI, i gateway possono unificare il monitoraggio su più servizi e modelli AI, offrendo una visione olistica delle prestazioni del sistema in una posizione centralizzata (spesso, una dashboard). Aiutano inoltre gli sviluppatori a mantenere registri dettagliati di ogni richiesta e risposta di AI, inclusi prompt, output, durata e conteggi di utilizzo dei token, per una risoluzione più rapida dei problemi, audit di conformità più approfonditi e misure di responsabilità più solide.
Inoltre, i gateway AI possono integrarsi con strumenti di observability (come OpenTelemetry) e piattaforme di orchestrazione, automazione e risposta della sicurezza per automatizzare i workflow di avviso e rilevamento degli incidenti quando si verificano problemi.
L'integrazione dei dati comporta l'estrazione, la trasformazione e il caricamento dei dati da una serie di fonti di dati (come database, piattaforme cloud, applicazioni e altri sistemi) in data warehouse o lake centralizzati per standardizzare i formati e rimuovere i silos.
Con i gateway AI, gli sviluppatori possono collegare le fonti di dati e unirle in pipeline unificate per un'analytics predittiva e una business intelligence. I gateway consentono di preparare e inserire dati strutturati e dati non strutturati in modelli AI, preelaborare le richieste in arrivo e normalizzare i formati di dati per un addestramento dei modelli e una generazione di inferenze più accurati.
Possono inoltre utilizzare le funzionalità di apprendimento automatico (ML) per ottimizzare il flusso di dati, rilevare anomalie e adattare la pipeline ai mutevoli modelli di dati.
Gli strumenti di AI possono comportare notevoli rischi per la sicurezza e la conformità. I gateway AI aiutano a contrastare questi rischi offrendo controlli di accesso centralizzati e policy di sicurezza automatizzate per tutto il traffico di dati tra utenti, applicazioni e modelli AI.
Utilizzando strumenti come le chiavi API, i gateway AI gestiscono in modo rigoroso chi può accedere e a quali dati o modello AI accedere, limitando così l'accesso in base ai profili utente e all'attività di rete; e tutto il traffico relativo all'AI deve passare attraverso il gateway.
Applicano protocolli di crittografia forti per i dati sia in transito sia a riposo, riducendo al minimo il rischio di accessi non autorizzati e usi impropri. I gateway AI monitorano anche l'attività di rete in tempo reale, utilizzando caratteristiche come l'ispezione approfondita dei pacchetti e il rilevamento per identificare e bloccare attività dannose.
I gateway AI comprendono anche diverse funzioni che aiutano le aziende a mantenere la conformità agli standard normativi. I gateway possono eliminare le informazioni di identificazione personale (PII) e i dati riservati prima che raggiungano i modelli o lascino l'organizzazione. E grazie al filtraggio basato su regole e alla valutazione dei contenuti, i gateway contribuiscono a garantire che solo i dati appropriati vengano elaborati dai modelli AI.
L'inferenza nell'AI e nell' apprendimento automatico (ML) è la capacità dei modelli AI addestrati di riconoscere modelli e trarre conclusioni da informazioni che non hanno mai visto prima. Servire è il processo di implementare modelli AI addestrati e di esporli (utilizzando API di AI e altre interfacce), in modo che possano elaborare le richieste di inferenza in un ambiente di produzione.
I gateway AI usano il routing model-aware per indirizzare le richieste di inferenza all'istanza del modello appropriata. Questa funzionalità consente l'inferenza in tempo reale e in batch e aiuta i modelli a dare priorità alle attività in base alla criticità.
Per facilitare un servizio scalabile, i gateway offrono un bilanciamento del carico personalizzato su misura per i workload di AI, che può essere particolarmente utile per le applicazioni sensibili alla latenza o ad alto rendimento. Gestiscono anche le implementazioni incrementali di nuove versioni del modello, mappando i modelli ottimizzati ai servizi sottostanti per semplificare gli aggiornamenti e i rollback.
Queste caratteristiche aiutano gli sviluppatori a fornire output di AI affidabili e a bassa latenza per una serie di funzioni dell'app, dai chatbot al supporto decisionale.
I gateway API e i gateway AI sono entrambi livelli middleware che gestiscono il traffico tra clienti e servizi di backend, ma differiscono in modo significativo per scopo, funzionalità e tipi di workload che gestiscono.
I tradizionali gateway API sono strumenti di gestione che hanno funzione di punto di ingresso unico per la gestione e la protezione del traffico API tradizionale. Consentono funzionalità trasversali vitali come la gestione del traffico, la registrazione, l'applicazione della sicurezza e il versioning, rendendo le API più facili da gestire e da scalare.
I gateway API indirizzano le richieste di dati e gestiscono tutti i processi di autenticazione, autorizzazione, limitazione della velocità, caching, bilanciamento del carico, gestione prompt e processi di sicurezza di base per le API web o microservizi standard. Inoltre, eliminano le responsabilità di integrazione dei servizi, in modo che gli sviluppatori possano esporre API e microservizi senza dover gestire la rete o l'infrastruttura di sicurezza sottostante.
I gateway AI sono, fondamentalmente, gateway API specializzati per modelli AI e servizi AI. Gestiscono i flussi di richieste di AI e orchestrano le interazioni dei servizi di AI (come i nuovi tentativi di richiesta e i fallback dei modelli). Forniscono un livello di controllo progettato specificamente per workload di AI e interazioni con LLM, AI generativa (gen AI), agenti AI e altri sistemi di AI.
Oltre alle funzioni di routing e sicurezza di base, i gateway AI offrono caratteristiche come l'ispezione semantica di prompt e risposte, la gestione del traffico multimodale (testo, voce, immagini), adeguamenti dinamici delle politiche e servizi di gestione dei costi e mascheramento dei dati (per la conformità alla privacy).
Numerosi ambienti informatici moderni utilizzano sia gateway API sia AI. Tuttavia, a differenza dei gateway API, i gateway AI sono progettati appositamente per soddisfare le esigenze uniche di gestione dei dati, sicurezza, observability e controllo dei costi delle applicazioni basate su AI, dei workflow e degli ambienti.
I modelli di implementazione si riferiscono ai vari modi in cui i gateway AI gestiscono i modelli AI e i servizi AI in diverse configurazioni di infrastruttura. Influenzano il luogo in cui vengono eseguiti i gateway AI e il modo in cui gestiscono il routing del traffico, la sicurezza, il ridimensionamento e la governance per i workload di AI.
Esempi di modelli di implementazione includono:
Con un'implementazione globale, il gateway utilizza l'infrastruttura globale del provider di cloud per indirizzare in modo dinamico le richieste di dati ai data center o agli endpoint con la migliore disponibilità e la latenza più bassa.
I gateway AI sono distribuiti in zone di dati specifiche o aree geografiche per garantire che il trattamento dei dati avvenga entro i confini regionali e sia conforme alle normative locali sulla residenza e sulla privacy dei dati.
I gateway funzionano con una capacità di elaborazione riservata, che consente un throughput elevato e prevedibile per le richieste di inferenza dei modelli AI. Questo approccio di implementazione è adatto per workload con una domanda elevata e costante.
I gateway AI astraggono le complessità di implementazione sottostanti instradando, bilanciando il carico e trasformando le richieste al backend dei modelli AI appropriati, consentendo un accesso unificato ai modelli AI ospitati su cloud diversi o da fornitori diversi.
I gateway AI piccoli e leggeri vengono implementati insieme ad applicazioni o servizi specifici, creando un modello di implementazione decentralizzato che riduce i salti di rete e consente politiche di personalizzazione per servizio. I microgateway sono spesso utilizzati nelle architetture di microservizi.
Con un'implementazione di gateway a due livelli, un gateway centrale primario funziona con microgateway aggiuntivi più vicini a servizi o team specifici. Questo approccio migliora la scalabilità e localizza il traffico, ma fornisce comunque un controllo centralizzato delle policy e l'observability dal gateway principale.
I gateway AI vengono implementati come proxy sidecar insieme ai servizi di modelli AI all'interno dello stesso container o pod (negli ambienti Kubernetes). Le implementazioni sidecar accoppiano strettamente i gateway con i servizi AI per un controllo granulare, per servizio, su routing, sicurezza e monitoraggio.
Affidarsi a strumenti e servizi di AI comporta alcuni rischi significativi.
Gli strumenti AI si basano fortemente sulle API per accedere ai dati da fonti esterne, implementare workflow e interagire con applicazioni e servizi. E ogni integrazione API rappresenta un potenziale punto di entrata per gli utenti malintenzionati. Dal momento che non sempre seguono modelli prevedibili di utilizzo delle API, le funzioni basate su AI possono inavvertitamente esporre dati proprietari o sensibili ed espandere significativamente la superficie di attacco.
In effetti, un singolo endpoint API compromesso o configurato non correttamente può concedere l'accesso a più sistemi di backend e set di dati sensibili, consentendo così ai criminali informatici di spostarsi lateralmente all'interno dell'architettura e aumentare i propri privilegi.
Inoltre, la maggior parte degli strumenti AI funziona su LLM (ad esempio i modelli GPT di OpenAI o i modelli Claude di Anthropic), quindi possono ereditare le vulnerabilità dal fornitore di LLM. Se un utente malintenzionato incorpora istruzioni dannose in prompt o fonti di dati affidabili (come file di configurazione, documentazione o biglietti di supporto), lo strumento potrebbe eseguire azioni dannose quando elabora il prompt.
I gateway AI aiutano i team di sviluppo ad affrontare questi rischi e sfide. Questi consentono:
I gateway AI sono essi stessi una tecnologia più recente e gli sviluppatori stanno trovando nuovi modi per massimizzarne l'efficacia.
Ad esempio, per supportare workload sensibili alla latenza e localizzati nei dati (come quelli utilizzati per veicoli autonomi e dispositivi sanitari), gli sviluppatori scelgono sempre più spesso di implementare gateway AI al perimetro della rete. Le implementazioni periferiche si basano su strumenti AI leggeri e ottimizzati per perimetri che consentono la generazione di inferenze locali, aiutando i team a trasferire servizi cloud ai server edge mantenendo la reattività del sistema.
Il caching semantico sta migliorando i gateway AI riducendo la latenza, tagliando i costi e scalando la capacità nelle applicazioni basate su LLM. A differenza del caching tradizionale, che riutilizza solo risposte precedenti esatte, gli strumenti di caching semantico utilizzano vettori incorporati per comprendere il significato dietro le query. I vettori integrati aiutano i gateway AI a riconoscere e riutilizzare le risposte per domande semanticamente simili (anche se sono formulate in modo diverso), aiutandoli a evitare chiamate ridondanti alle API LLM e a fornire risposte più rapide.
Il failover del modello aiuta inoltre i team a massimizzare i benefici dei gateway AI. Le configurazioni di failover del modello creano ridondanza in modo che, anche se un modello è inattivo o funziona lentamente, il gateway possa continuare a instradare efficacemente le richieste di AI.
Se il modello AI principale non è disponibile o restituisce errori, il gateway AI può utilizzare meccanismi di failover per passare automaticamente il traffico a un modello backup o secondario. Questo processo aiuta a garantire che un problema con un modello non interrompa l'esperienza dell'utente finale.
Con la retrieval-augmented generation (RAG), i gateway AI forniscono un livello di orchestrazione che aiuta a connettere gli LLM alle attuali fonti di informazioni esterne. Invece di affidarsi esclusivamente ai dati di formazione fissi del modello LLM, RAG consente al modello di recuperare prima il contesto pertinente da basi di conoscenza, documenti e database esterni e quindi di aumentare il prompt del modello LLM con questi dati prima di generare una risposta. Pertanto, i gateway AI abilitati al RAG aiutano i modelli a colmare il divario tra dati di formazione statici e conoscenze dinamiche e a generare risposte più accurate e pertinenti.
Inoltre, i gateway AI possono contribuire ad attenuare i rischi associati all'implementazione di strumenti di agentic AI.
Gli agenti AI utilizzano LLM, l'elaborazione del linguaggio naturale (NLP) e l'apprendimento automatico (ML) per progettare autonomamente i propri workflow, eseguire attività ed eseguire processi per conto degli utenti e di altri sistemi. Consentono pratiche di sviluppo "human-in-the-loop", in cui gli agenti collaborano con ingegneri e team DevOps per aiutare gli esseri umani a raggiungere gli obiettivi più velocemente. Tuttavia, l'agentic AI può anche contribuire allo "shadow AI" attraverso azioni non autorizzate e potenzialmente dannose da parte dell'agente, ed espandere significativamente la superficie di attacco per i criminali informatici.
I gateway AI possono applicare protocolli di sicurezza, restrizioni sulla privacy dei dati e conformità normativa in implementazioni complesse e distribuite e aiutano a controllare i processi di accesso, autenticazione e autorizzazione alle API per gli agenti AI. E dal momento che i gateway AI rendono l'agentic AI più osservabile, aiutano anche le aziende a mitigare i problemi di shadow AI e i costi incontrollati che l'implementazione dell'agentic AI può creare.
Addestra, convalida, adatta e implementa le funzionalità di AI generativa, foundation model e machine learning con IBM watsonx.ai, uno studio aziendale di nuova generazione per builder AI. Crea applicazioni AI in tempi ridotti e con una minima quantità di dati.
Metti l'AI al servizio della tua azienda grazie all'esperienza leader di settore e alla gamma di soluzioni di IBM nel campo dell'AI.
Reinventa i flussi di lavoro e le operazioni critiche aggiungendo l'AI per massimizzare le esperienze, il processo decisionale in tempo reale e il valore di business.