Tutti gli sviluppi e i vantaggi dell’Edge Computing

A cura del WG Software Industriale di ANIE Automazione

Il concetto di Edge Computing si è ampliato molto, definendo una vera e propria tecnologia abilitante dell’IIoT, integrando anche capacità di intelligenza artificiale, verso l’emergente AI di prossimità.

Sistemi per ambientazione “edge”

Tempo fa erano state annunciate nuove tipologie di controller industriali accomunate dall’avere, nella loro denominazione di mercato, il tag “edge”, da cui, per esempio, Edge Programmable Industrial Controllers, Edge Computer, Edge Server. Questi sistemi, al di là della loro specifica sofisticazione funzionale, erano proposti per l’ambientazione “edge”, termine che si può, seppure ingenuamente, tradurre come “bordo”, ma meglio precisabile considerando in una schematizzazione grafica di una rete un punto (endpoint) in cui il traffico dati entra o esce. Tale endpoint, o meglio edge, è anche il punto in cui un protocollo di trasporto dati può cambiare per rendere i dati omogenei con la fruizione: per esempio si fa uso di un protocollo a bassa latenza quale può essere MQTT per trasmettere dati a un message broker che, localizzato all’inizio di una rete, utilizza poi per esempio HTTP per trasferire i dati dal sensore verso un server remoto, comportandosi in sostanza come un classico middleware.

Edge: tecnologia abilitante dell’IIoT

Ma il concetto di Edge si è molto ampliato, diventando una vera e propria tecnologia abilitante dell’IIoT, integrando anche capacità di intelligenza artificiale, da cui la sempre più diffusa AI at the Edge. Tornando ai sistemi prima citati, la loro destinazione d’uso è nell’ambito di un’informatica di periferia caratterizzata da un’architettura IT distribuita in cui i dati “client”, e qui il riferimento all’IIoT è evidente, sono elaborati da dispositivi/sistemi intelligenti alla periferia della rete, quindi il più vicino possibile alla sorgente che li ha originati, per ridurre il traffico di rete e per potenziare le tempistiche di reazione riducendo i tempi di latenza per una maggior aderenza alle esigenze di realtime, obiettivi non ottenibili basandosi esclusivamente su soluzioni Cloud Computing, anche considerando la sempre più grande quantità di dati generati dai dispositivi di campo. Questo è invece possibile con un approccio oramai definito come Edge Computing, o elaborazione di prossimità.

Un vero e proprio ecosistema

Tale concetto può essere ulteriormente completato grazie a piattaforme che semplificano la distribuzione delle applicazioni con relativo aggiornamento della gestione corrispondente dei dispositivi. L’Edge Computing, pertanto, non è semplicemente un prodotto o un dispositivo hardware, ma un vero e proprio ecosistema composto da hardware, software e servizi che interconnette ed integra tra loro applicazioni di automazione, di supervisione e controllo, cloud computing, fino ai sistemi ERP, MES, CRM. Un tale livello di complessità richiede necessariamente un ambiente di sviluppo e test evoluto, in cui sviluppare applicazioni con tecnologia low coding, che permette di realizzare e distribuire applicazioni professionali anche a chi non è un esperto di IT, in modo rapido ed efficiente.

L’importanza dell’Edge Computing

Cresce la quantità di dati generati dai dispositivi di campo e un processo di elaborazione e memorizzazione in Cloud sta diventando troppo lento per le esigenze dell’utente finale: per applicazioni IIoT che richiedono risposte anche solo near realtime, i tempi di attesa imposti dal Cloud non sono più accettabili. E c’è anche un fattore costo: filtraggio ed elaborazione prima dell’invio dei dati al Cloud, riduce i costi di trasmissione in rete. Altro aspetto importante riguarda la possibilità di integrare algoritmi di analytics e modelli Machine Learning a livello Edge. La transizione verso l’Edge Computing è motivata certamente dall’aumento del numero di dispositivi collegati in rete in ambito IIoT, ma anche dalla crescita del mobile e dalla riduzione del costo dei componenti dei sistemi dedicati alle elaborazioni alla periferia della rete. L’Edge Computing, poi, non sostituirà completamente il Cloud Computing, anche perché va visto come funzionalità inserita in un end point logico di una rete nell’ambito di una più ampia architettura Cloud. Inoltre, se le funzioni Cloud sono erogate in modo centralizzato tramite datacenter che possono distare centinaia se non migliaia di km dall’utenza, l’Edge è una tecnologia caratterizzata dalla “prossimità”, con erogazione di servizi a distanze ben inferiori.

Edge Server

Da considerare anche la tipologia dei dati che guidano un’implementazione efficiente di rete che potrebbe essere così concepita: i dati “deperibili”, cioè sensibili al fattore tempo, sono elaborati nel punto di origine da un dispositivo intelligente o inviati a un server intermedio (Edge Server), installato vicino al client, mentre i dati meno deperibili sono inviati al Cloud per analisi storiche e archiviazione a lungo termine. La realizzabilità di architetture di questo genere è resa possibile dalla disponibilità di Edge Server, noti anche come micro-datacenter, specificatamente concepiti per queste ambientazioni, con alloggiamenti resistenti agli urti, all’acqua e alla polvere, destinati a raccogliere dati anche nei luoghi di produzione più estremi. Se, come previsto, il campo sarà entro il 2022 il luogo in cui il 75% dei dati verrà prodotto, questi sistemi sempre più saranno parte della catena di elaborazione dei dati, nello stesso modo in cui lo sono i datacenter delle sedi centrali e del Cloud, tranne che i server situati sul campo devono avere vincoli speciali, come larghezza di banda limitata e struttura adeguata ad ambienti difficili.

Gli sviluppi tecnologici

Lo sviluppo che sta maggiormente attirando l’attenzione sull’Edge Computing riguarda probabilmente l’innesto dell’intelligenza artificiale proprio a livello Edge, da cui la “AI at the Edge”. Questa evoluzione è diretta conseguenza del fatto che parlando di Edge e di IoT, all’inizio il riferimento era genericamente a dispositivi sensori con focus essenzialmente sulla connessione, ma oggi la situazione è cambiata perché un IoT device può essere qualcosa di più: può essere un veicolo, una macchina industriale, un sistema produttivo, un’apparecchiatura medicale, e in tutti questi casi è certamente presente connettività, e anche integrata capacità elaborativa e intelligenza, da cui la possibilità di ospitare anche potenzialità Edge Analytics. Il concetto di elaborazione, archiviazione, calcolo e analisi dei dati locali non è recente, ma sta assumendo una nuova dimensione con il dispiegamento dell’intelligenza artificiale che ha un forte impatto sui Big Data e sull’Internet of Things, creando un potente mix che apporta qualcosa di nuovo nell’Information Technology: l’intelligenza distribuita.

Il digital twin

Nato come complemento evolutivo dell’industria 4.0, strettamente legato all’outcome dell’Internet of Things – IoT-, dove la sempre crescente mole di dati disponibili permette l’implementazione di strategie basate sulle data sciences e l’analisi dei big data, il Digital Twin è un approccio che si applica ai settori più diversi, dall’analisi dei processi nel settore manifatturiero, alla manutenzione predittiva, dalla simulazione di funzionamento di una macchina, allo smart building, all’energy saving.
La diffusione di sensori e oggetti connessi, l’Internet of Things, infatti, genera una grande quantità di dati, indispensabili per il monitoraggio costante dei processi, se si parla di industria, ma anche a fini predittivi, laddove la simulazione del gemello digitale di una linea di produzione permette, ad esempio, di analizzare il livello di usura di un pezzo, intervenendo prima del cedimento e ottimizzando così i processi in modo da ridurre drasticamente i tempi di fermo della produzione.
In ambito sperimentale, invece, lo sviluppo di un Digital Twin permette di analizzare il comportamento di un prototipo prima della sua entrata in produzione vera e propria, anche nella sola fase di mockup, correggendo errori di progettazione e giungendo quindi allo sviluppo di un oggetto fisico dove il margine di errore è ridotto al massimo.

Una sintesi dei vantaggi dell’Edge Computing

Siamo di fronte a un’esplosione della quantità di dati generati dai dispositivi digitali e il tradizionale processo di elaborazione e memorizzazione in Cloud sta diventando troppo costoso oltre che troppo lento per le esigenze dell’utente finale. Questo sta motivando uno spostamento verso l’approccio Edge Computing che semplifica e ottimizza l’elaborazione dei dati più vicino alla sorgente che li ha generati. Tramite l’approccio Edge si supera il problema della latenza di rete: per applicazioni IoT che richiedono risposte anche solo near real time, i tempi di attesa imposti dal Cloud non sono accettabili. Anche il fattore costo sta spingendo verso l’Edge, che consente filtraggio ed elaborazione preventiva prima dell’invio dei dati al Cloud, riducendo i costi di trasmissione dati in rete.
La possibilità di integrare algoritmi di analytics e modelli machine learning a livello Edge rende possibile limitare l’elaborazione a data set di minori dimensioni, da cui maggior efficienza. L’IoT, infine, sta introducendo un numero praticamente infinito di endpoint nelle reti sia industriali che commerciali, e l’Edge Computing oggi è in grado di abilitare tecnologie e standard che possano mettere a disposizione di utenti IoT e di fornitori di tecnologia più opzioni di architetture ottimizzate di sistema.
L’uso di standard come Docker, tecnologia “open source” pilastro su cui si basa l’Edge Computing a livello industriale che permette di sviluppare con qualsiasi linguaggio di alto livello, aiuta nella riduzione dei costi di sviluppo offrendo così una protezione dell’investimento e una notevole facilità nell’implementazione iniziale.
Grazie a tutti questi vantaggi, l’Edge Computing riesce a portare l’IT in ambito produttivo, in modo semplice, flessibile e sicuro.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here