Questa è l'ottava puntata di una serie di blog sull'edge computing e in uno dei post precedenti abbiamo parlato della modellazione del machine learning all'edge. In esso, abbiamo menzionato come i modelli di machine learning (ML) sono stati implementati e distribuiti nei nodi edge. Ma che dire dei feed video e degli altri dati non strutturati generati da tutti quei dispositivi di tipo Internet of Things (IoT)? Tutti questi dati possono essere analizzati e i risultati possono essere prodotti in tempo reale? Come si fa? Se non possono essere analizzati all'edge in tempo reale, dove vengono inviati i dati, qual è il formato di quei dati e quanto velocemente possono essere analizzati? Infine, questi dati devono essere memorizzati e, in caso affermativo, dove vengono memorizzati e perché? Questo post sul blog tenta di rispondere a tali domande. Alcuni usano i termini "edge analytics" o "AI all'edge".
Assicurati di leggere tutti gli articoli di questa serie di post sul blog sull'edge computing:
Newsletter di settore
Resta al passo con le tendenze più importanti e interessanti del settore relative ad AI, automazione, dati e oltre con la newsletter Think. Leggi l' Informativa sulla privacy IBM.
L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.
La definizione di edge analytics è semplicemente il processo di raccolta, analisi e creazione di insight fruibili in tempo reale, direttamente dai dispositivi IoT che generano i dati. Alcuni potrebbero sostenere che si tratta di edge computing; di fatto, l'edge analytics porta le cose al livello successivo, in cui vengono acquisiti più dati e vengono eseguite analisi complesse prima di intraprendere azioni rapide. L'edge computing è simile al costrutto if/then nella programmazione software; L'edge analytics adotta l'approccio what if.
I puristi dell'intelligenza artificiale (AI) direbbero che l'edge analytics si occupa di prevedere (inferenza), ovvero di applicare le conoscenze ottenute da un modello di reti neurali addestrato e di utilizzarle per dedurre un risultato.
Il fatto è che la generazione di dati sta superando la capacità della rete. Quindi, dobbiamo essere intelligenti su quali dati analizzare, quali dati inviare al cloud per lo storage e, soprattutto, dove devono essere analizzati i dati. Sebbene la risposta più semplice a queste domande sia "dipende", esistono ragioni e raccomandazioni di natura commerciale e tecnica.
Due fattori determinano questa risposta: quanto è critico analizzare i dati in tempo reale e se è necessario eseguire ulteriori analisi con tali dati. Poi, c'è quel requisito di storage (o meno) per soddisfare i requisiti di conformità aziendale e giurisdizionale.
Alcuni sostengono che il cloud non sia il luogo ideale per la real-time analytics. Quindi inviare tutti i dati nel cloud non è la risposta, perché la maggior parte dei dati memorizzati nel cloud non viene mai analizzata, bensì finisce in un database o in un bit bucket e rimane lì.
Prendendo l'esempio di una telecamera remota che riprende video, alcuni dei pro e contro degli analytics all'edge rispetto agli analytics sul server sono illustrati nella tabella seguente:
La consapevolezza situazionale è la percezione degli elementi e degli eventi ambientali rispetto al tempo o allo spazio, la comprensione del loro significato e la proiezione del loro stato futuro. Questa definizione è presa in prestito da Wikipedia e i tre livelli di consapevolezza situazionale sono mostrati nel grafico seguente. Dato che il tempo è l'aspetto più importante della consapevolezza situazionale, per estensione, possiamo dire che il tempo è una forza trainante per gli analytics, in particolare gli analytics all'edge:
Figura 1: Tre livelli di consapevolezza situazionale.
Gli eventi all'edge comporterebbero l'analisi di ciò che la telecamera vede o di ciò che il sensore rileva in tempo reale in modo da poter prendere decisioni rapidamente e intraprendere azioni immediate. Quando due auto sono sulla traiettoria di collisione, non c'è tempo per inviare le informazioni al cloud o avvisare qualcuno; si possono prevedere le conseguenze della permanenza sulla traiettoria attuale e si può evitare una collisione intraprendendo azioni immediate. Quando la telecamera intelligente che guarda un robot di verniciatura in un impianto di produzione automobilistica vede la quantità sbagliata di vernice applicata su una parte della carrozzeria dell'auto, è necessaria un'azione correttiva. Tutto ciò è possibile solo con modelli precostituiti implementati su tali dispositivi o sistemi.
Ma che dire di situazioni nuove o finora inimmaginabili? Nei cantieri edili, le telecamere possono essere addestrate a rilevare qualcuno che non indossa il casco protettivo ed emettere un allarme oppure avvisare il supervisore del cantiere. I sensori di ingresso possono rilevare se le persone indossano un badge o portano armi, ecc. In un disastro naturale come una pandemia, vorremmo che quegli stessi dispositivi rilevassero articoli relativi alla salute come mascherine, guanti, ecc.
I modelli esistenti dovrebbero essere migliorati oppure dovrebbero essere implementati nuovi modelli di machine learning (ML) in modo che i dispositivi edge rilevino e analizzino tali situazioni e intraprendano le azioni necessarie. L'azione risultante è programmabile e dipende dalla situazione specifica. Gli allarmi potrebbero essere attivati, o potrebbe essere avvisato il personale pertinente, oppure potrebbe essere impedito l'ingresso alle persone. Questo è il potere dell'edge analytics.
Emettere un avviso quando un dispositivo raggiunge una certa soglia è piuttosto semplice, ma il vero valore sta nel produrre un'analisi visiva di più variabili di dati in tempo reale e trovare un significato predittivo nel flusso di dati. Questo può aiutare le aziende a identificare potenziali outlier o problemi da approfondire, eseguendo ulteriori analisi.
L'edge analytics non è sempre visiva: ci sono molte altre sfaccettature che producono dati come l'analisi di urti e vibrazioni, il rilevamento del rumore, il rilevamento della temperatura, i manometri, i misuratori di flusso e l'analisi audio e del tono. I sistemi anticollisione nelle auto lo fanno tramite sensori e non tramite telecamere. Sebbene le applicazioni edge debbano funzionare su dispositivi edge che possono avere limiti di memoria, potenza di elaborazione o comunicazione, questi dispositivi sarebbero collegati a un edge server/gateway in cui vengono eseguite le applicazioni basate su container.
Per trasmettere i dati dai dispositivi al server o al gateway (il cosiddetto "primo miglio") vengono utilizzati protocolli diversi. Questi sono alcuni dei protocolli più comuni, sebbene l'elenco non sia esaustivo:
Lo stack software varierà a seconda del caso d'uso per un particolare settore, ma in generale, le topologie di edge analytics di solito implicano una combinazione di prodotti. All'edge ci sarebbero dispositivi visivi, audio o sensoriali, alcuni in grado di eseguire un modello di inferenza containerizzato. Invierebbero i dati a un server di inferenza, possibilmente con IBM Visual Insights e IBM Edge Application Manager. I dati non visivi verrebbero inviati a un backbone di eventi utilizzando IBM Event Streams o Apache Kafka. E prodotti software come IBM Watson che addestrano e riqualificano i modelli, oltre a middleware come IBM Cloud Pak for Data e AI potrebbero aggregare, pulire e analizzare i dati nel livello successivo.
Tieni presente il grafico della consapevolezza situazionale mostrato sopra; dalla percezione all'azione, gli edge analytics devono operare in tempo reale. Il diagramma dell'architettura a blocchi mostra i vari componenti in gioco, con i tempi di latenza indicati in millisecondi tra i diversi livelli:
Figura 2: architettura dei componenti di edge analytics.
Si scopre che gli esseri umani sono molto sintonizzati e, a livello cognitivo, operiamo nell'intervallo dei millisecondi (e talvolta in microsecondi). Quindi, le risposte e le decisioni di macchine e dispositivi devono avvicinarsi a questo e non richiedere 100 o 500 millisecondi per l'invio di dati al cloud.
Uno dei requisiti chiave dell'edge analytics è migliorare le esperienze informatiche riducendo la latenza delle risposte. L'altro aspetto è la scalabilità. Il numero sempre crescente di sensori e dispositivi di rete genererà sempre più dati. Ciò aumenterà la pressione sulle risorse centrali di analytics. L'edge analytics consente alle organizzazioni di scalare le proprie funzionalità di analytics decentralizzandosi nei luoghi in cui i dati vengono effettivamente raccolti.
Infine, gli edge analytics non sono un sostituto degli analytics centralizzati dei dati. Entrambe le opzioni possono integrarsi a vicenda nel fornire insight sui dati. In precedenza, abbiamo accennato al fatto che ci sono alcuni scenari in cui gli edge analytics sono preferibili e ci sono alcuni scenari in cui il data modeling e gli analytics centralizzati sono la risposta migliore perché la latenza è accettata in quanto sono richiesti analytics dettagliati. L'obiettivo principale degli edge analytics è fornire insight aziendali in tempo reale (o il più vicino possibile al tempo reale).
Il centro architetturale IBM Cloud offre molte architetture di riferimento ibride e multicloud, inclusa l'architettura di riferimento per l'edge computing. È inoltre possibile visualizzare l'architettura di riferimento automobilistica appena pubblicata, correlata all'edge.
Dai un'occhiata a tutte le puntate di questa serie di blog post sull'edge computing e alle risorse aggiuntive:
Grazie a David Booz per la revisione dell'articolo e ad Andy Gibbs per avere fornito l'ispirazione per il diagramma dell'architettura a blocchi.
IBM Power è una famiglia di server basati su processori IBM Power in grado di eseguire IBM AIX, IBM i e Linux.
Automatizza le operazioni, migliora le esperienze e potenzia le misure di sicurezza con le soluzioni di edge computing di IBM.
La consulenza sulla strategia cloud di IBM offre servizi di trasformazione per il multicloud ibrido finalizzati ad accelerare il percorso verso il cloud e a ottimizzare gli ambienti tecnologici.