L’Edge computing rappresenta un cambiamento significativo nella modalità di gestione dei dati che provengono dai sempre più numerosi dispositivi connessi presenti nell’ambiente che ci circonda: la crescita esplosiva di dispositivi IoT e di nuove applicazioni che richiedono una potenza computazione in tempo reale sono alla base della crescita di un fenomeno che da tempo è ormai al centro dell’attenzione delle più importanti società di analisi e ricerca come IDC – che li definisce una rete mesh di micro data center, capace di elaborare e memorizzare localmente i dati critici, per poi trasmetterli a un data center centrale o a un repository di cloud storage – o Gartner – che lo scorso anno aveva indicato il “Cloud to The Edge”, come il quinto dei dieci trend tecnologici da tenere in considerazione – ed è oggetto di studi e attività di standardizzazione da parte di consorzi quali l’OpenFog Consortium e il Princeton University Edge Laboratory dell’ateneo americano.
Di fatto, i sistemi di edge computing consentono, anche grazie a tecnologie di rete più veloci, non ultimo il 5G wireless, di accelerare la creazione di applicazioni real time, dal video processing agli analytics in tempo reale, dalle auto a guida autonoma all’intelligenza artificiale o la robotica.
Cos’è l’Edge computing e come funziona
Ma cos’è l’Edge computing e come funziona?
Inizialmente pensata come strumento per ridurre i costi di banda associati al trasporto di dati, la tecnologia edge ha trovato nella necessità di gestire applicazioni in tempo reale il suo vero ambito di applicazione.
Gartner lo definisce come parte di una topologia distribuita, nella quale la componente elaborativa si trova vicino al punto in cui gli oggetti o le persone producono e utilizzano le informazioni.
Stiamo parlando di una architettura IT distribuita e decentralizzata che dunque non fa affidamento a un sistema centrale, magari distante centinaia di chilometri, per la gestione dei dati raccolti, e che dunque consente di evitare problemi di latenza che potrebbero avere un impatto negativo sulle performance di una applicazione, riducendo nel contempo anche il quantitativo di dati che devono essere processati centralmente o in cloud.
Non solo.
L’edge computing ben si colloca anche in scenari nei quali la copertura delle reti fisse e mobili è limitata e dunque la connettività tra centro e periferia e viceversa non garantisce adeguate performance.
In ambito produttivo, invece, pensiamo alle macchine connesse presenti su una linea di produzione: un conto è raccogliere i dati da un’unica fonte, un unico oggetto connesso; altro – ben altro – è avere a che fare con un numero importante di oggetti che trasmettono dati simultaneamente. Non è solo un problema di connettività o di latenza: c’è un tema di costi di banda che possono diventare effettivamente ingenti.
L‘hardware e i servizi di edge computing diventano di fatto una fonte locale di elaborazione e archiviazione: un edge gateway, ad esempio, può elaborare i dati da un dispositivo edge e inviare al cloud storage solo i dati rilevanti, riducendo le esigenze di larghezza di banda, oppure li può inviare al dispositivo di partenza in caso di esigenze applicative in tempo reale.
L’edge computing rappresenta dunque un gateway attraverso il quale virtualmente qualsiasi macchina industriale può connettersi e creare un continuum di elaborazione completo a partire da dispositivi alla periferia del sistema, fino al cloud, consentendo l’analisi e il calcolo “cloud-like” per l’esecuzione sulla macchina stessa.
Per capire dunque come funziona un edge computer, dobbiamo pensarlo come un sistema computazionale che elabora i dati provenienti dai sensori e dagli oggetti connessi, lontano dai nodi centralizzati e in prossimità del bordo logico della rete.
L’architettura IT dell’edge computing
Come sottolineava Gartner nel proprio report, proprio in considerazione della crescente diffusione di IoT e Industrial Internet of Things, è il momento che nelle imprese si comincino a utilizzare architetture infrastrutturali basate sui paradigmi dell’edge computing, dunque un’architettura di rete IT distribuita che abilita il mobile computing per i dati prodotti localmente. Invece di inviare i dati ai data center cloud, l’edge computing decentralizza la potenza di elaborazione per garantire l’elaborazione in tempo reale senza latenza, riducendo al contempo i requisiti di larghezza di banda e archiviazione sulla rete.
È opportuno pensare l’infrastruttura ideale per l’edge computing come un mini datacenter, di fatto la scelta tecnologica ottimale per gestire le esigenze informatiche degli ambienti periferici, caratterizzato non solo da una particolare flessibilità, ma anche dalla capacità di supportare una ampia varietà di applicazioni: il mini datacenter è dunque una risposta, o forse “la” risposta, in tutte quelle situazioni in cui servono implementazioni rapide e facilmente ripetibili, e soprattutto laddove serve un’elaborazione locale senza dover necessariamente prevedere uno specifico supporto IT locale. Con mini o micro datacenter si intendono soluzioni preconfigurate, preintegrate e pretestate complete di capacità di calcolo, software, strumenti di monitoraggio e di sicurezza, alimentazione e protezione.
Sul come implementare l’Edge computing, di fatto due sono le possibili opzioni: implementare e gestire l’intero stack di edge computing negli ambienti IT esistenti, poggiandosi sull’infrastruttura esistente e utilizzando servizi come Microsoft Azure IoT che consente di estendere l’intelligenza e la capacità di elaborazione nei dispositivi installati nell’ambiente IT locale, oppure scegliere un ‘cloud edge’ gestito e manutenuto da un public cloud provider, come ad esempio il servizio AWS Lambda@Edge di Amazon Web Services, che consente di eseguire il codice applicativo in una location AWS in prossimità dell’utente finale.
Non è un caso che recentemente Cisco abbia annunciato una serie di novità per il mondo Data Center, a partire dall’espansione di ACI (Application Centric Infrastructure) nel cloud con gli ambienti AWS e Microsoft Azure, o l’estensione di HyperFlex nelle filiali e nelle postazioni remote per potenziare le applicazioni nell’edge, nonché gli ampliamenti a CloudCenter per permettere ai clienti di gestire il ciclo di vita delle applicazioni attraverso diversi ambienti cloud.
Differenze tra cloud ed edge computing
Un errore da non fare quando si parla di edge computing è quello di considerarlo una tecnologia alternativa se non addirittura contrapposta al cloud.
In realtà, proprio in virtù delle differenze tra cloud ed edge computing, siamo in presenza di due tecnologie complementari tra loro.
Quando si parla di digital transformation o di applicazioni IoT o IIoT, uno dei temi centrali è l’analisi e la discussione sul dove verranno ospitate le applicazioni. Un approccio al cloud viene considerato un’opzione sicura, fosse solo per il fatto che le aziende ne hanno sicuramente una conoscenza maggiore. L’idea è che sia sufficiente delocalizzare, con la tranquillità di poter sfruttare la capacità illimitata di hardware e software propria degli ambienti cloud.
In realtà, ciascuno dei due approcci ha punti di forza e di debolezza che è importante prendere nella giusta considerazione.
L’Edge computing rappresenta l’opzione migliore in tutti quei casi in cui:
– l’ampiezza di banda non è sufficiente o la qualità della rete stessa non è adeguata a sostenere l’invio dei dati in cloud.
– l’azienda ha un focus particolarmente elevato sui temi della security e della privacy e dunque ha timori a trasmettere dati attraverso reti pubbliche o a memorizzarli in cloud.
– La connessione della rete di comunicazione al cloud non è abbastanza solida stabile per essere affidabile.
– Le applicazioni richiedono un rapido campionamento dei dati o devono calcolare i risultati con un ritardo minimo.
Di converso, il cloud potrebbe essere un’opzione migliore nei casi in cui:
– Serva una potenza di elaborazione particolarmente elevata e vi sia la necessità di implementare, in qualunque momento, ulteriori strumenti di analisi.
– Il form factor e i limiti ambientali di alcune applicazioni impattino negativamente sui costi dell’edge computing, rendendo di fatto il cloud più conveniente.
– I data set siano di dimensioni particolarmente significative. Disporre di un numero elevato di applicazioni in cloud e poter acquisire ulteriori dati è una delle condizioni di partenza per abilitare attività di machine learning o di autoapprendimento, particolarmente utili per perfezionare la qualità dei risultati.
– Quando serve che i dati siano distribuiti e visualizzati su una varietà di piattaforme e dispositivi.
Differenze tra fog computing e edge computing
Importante è poi sottolineare quali siano le differenze tra edge computing e fog computing: come abbiamo avuto già modo di precisare in questo articolo, riprendendo la distinzione fatta da Cisco sul proprio sito, nonostante i due termini siano spesso utilizzati come sinonimi, in particolare per quanto attiene a tutte le applicazioni legate ai mondi dell’Internet of Things e dell’Impresa 4.0, si tratta di due cose sostanzialmente diverse. Se l’edge è di fatto la tecnologia che consente di portare il processing il più vicino possibile alle fonti dati, eliminando le distanze le latenze inevitabili quando si trasferiscono i dati alle fonti centralizzate, migliorando di conseguenza velocità e performance, il Fog Computing è lo standard che definisce il funzionamento dell’edge computing, facilitando dunque l’operatività dei servizi di compute, storage e networking tra i dispositivi e gli oggetti e il cloud.
Vantaggi dell’edge computing per le aziende
Come abbiamo più volte sottolineato, l’edge computing ottimizza le attività data driven di un’impresa, portando le fasi di raccolta, processo e reporting dei dati il più vicino possibile agli utenti finali. Trova dunque applicazioni nei datacenter di classe enterprise, nella gestione degli edifici, in ambito sanitario, nelle smart city, nel mondo del manufacturing.
Cinque sono di fatto i vantaggi dell’edge computing nelle aziende.
Vediamoli insieme.
– Velocità e latenza
Più tempo ci si impiega per elaborare i dati, meno rilevante è il risultato. Pensiamo ad esempio al segmento dei veicoli autonomi, considerati una delle applicazioni d’eccellenza dell’edge computing: il tempo è essenziale e la maggior parte dei dati che vengono raccolti e richiesti diventano inutili già dopo pochi millisecondi. Parimenti, anche in un impianto di produzione industriale servono analisi istantanee dei dati per evidenziare guasti o situazioni di potenziale pericolo per il macchinario, il prodotto e finanche l’operatore umano. Solo eliminando le possibili latenze o i ritardi dovuti a basse performance di rete i dati restano pertinenti, utili e “actionable”.
Un ulteriore vantaggio correlato all’edge, è che questa tecnologia riduce i carichi di traffico complessivi, migliorando le prestazioni di tutte le applicazioni e servizi.
– Sicurezza
Quando tutti i dati devono essere inviati ad un cloud analyzer, è innegabile che aumentino le vulnerabilità relative ai processi di business e operativi critici. Un singolo attacco DDoS può interrompere tutte le operation: quando si distribuiscono gli strumenti di analisi dei dati, si distribuisce anche il rischio. Con l’edge computing, è vero che la superficie di attacco potenziale si amplia, ma di converso diminuisce l’impatto sull’intera organizzazione. Un’altra verità intrinseca è che meno dati si trasferiscono, ci sono meno dati intercettabili. Quando i dati vengono analizzati localmente, rimangono protetti dalla coperta di sicurezza dell’azienda locale. Nel contempo, ed è questo un innegabile vantaggio, l’edge computing si possono superare le problematiche della conformità locale e delle normative sulla privacy, nonché la questione della sovranità dei dati.
– Risparmio
Dal momento che non tutti i dati sono uguali e non hanno lo stesso valore, non si giustifica il fatto di spendere la stessa cifra per trasportarli, gestirli e proteggerli. Alcuni dati sono fondamentali per l’operatività di un’impresa, altri sono pressoché sacrificabili. L’edge computing consente di classificare i dati da una prospettiva di gestione. Conservando la maggior parte dei dati all’interno dell’edge, si riduce la necessità di banda con effetto diretto sulla riduzione dei costi.
Tutto questo sempre tenendo presente che passare all’edge non significa fare a meno del cloud, ma nell’ottimizzare il flusso dei dati al fine di massimizzare i costi operativi.
– Affidabilità
Quando si parla di IoT, non sempre si parla di ambienti operativi ottimali dal punto di vista della connettività Internet. È possibile migliorare l’affidabilità complessiva del sistema quando i dispositivi periferici possono archiviare ed elaborare localmente i dati. Torniamo dunque a parlare di micro datacenter, in grado di funzionare praticamente in qualsiasi ambiente, senza che le interruzioni temporanee della connettività abbiano un impatto negativo sull’operatività.
– Scalabilità
Anche se può sembrare un controsenso, anche l’edge computing offre vantaggi in termini di scalabilità, soprattutto per evitare di richiedere espansioni o modifiche ai datacenter centrali in cloud.
Esempi di edge computing in Italia
Va detto che anche nel nostro Paese, con la crescita delle progettualità legate a Industria 4.0 e Internet of Things, gli esempi di applicazione dell’edge computing si stanno facendo più numerose nei più diversi settori industriali: dai sistemi di monitoraggio della produzione ai droni utilizzati nella sorveglianza nei progetti in ambito smart city, fino alle applicazioni per la gestione dell’operatività dei datacenter.