Home » News » Edge Computing e intelligenza artificiale danno vita all’Edge AI
Digital solutions News

Edge Computing e intelligenza artificiale danno vita all’Edge AI

edge ai

Le stime elaborate da Gartner garantiscono che entro il 2022 il 75% dei dati generati dalle aziende sarà elaborato fuori dal Data Center. Nell’Edge AI, che consente di far funzionare l’AI a livello locale, le aziende riscontrano la preziosa opportunità di fruire della possibilità di effettuare l’analisi avanzata dei dati, sviluppando al contempo soluzioni proprio dove i dati stessi sono prodotti

Edge Computing o Intelligent Edge sono termini che indicano il medesimo paradigma tecnologico. La società di analisi di mercato IDC ne parla come di “una rete mesh di micro data center, in grado di elaborare e memorizzare dati critici localmente, e di trasmettere tutti i dati ricevuti e/o elaborati a un data center centrale o a un repository di cloud storage”. Con parole più semplici, un’architettura di Edge Computing si presenta come un’architettura IT distribuita e decentralizzata.

Sfruttando la disponibilità sul mercato di componenti e sistemi elettronici SFF (small form factor) di costo decrescente, questa tipologia di rete porta i componenti base di elaborazione, storage e networking più vicino alle fonti che generano i dati.

Se per Peter Levine, general partner della società di venture capital Andreessen Horowitz, l’Edge Computing è destinato a far tramontare il Cloud Computing, altri si limitano a sottolineare come decentralizzi la nuvola, liberando certe applicazioni ‘time-sensitive’ dalla stretta dipendenza con i Data Center remoti, dotandole della capacità di elaborare i dati direttamente sul campo.

Edge Computing e Intelligenza Artificiale: nasce l’Edge AI

Per comprendere bene cosa sia Edge Computing, bisogna pensare che i dati sono generati ormai sempre più spesso fuori dal Cloud. Sensori, telecamere, point of sale, misuratori ambientali e di consumi e tutti i dispositivi IoT in genere producono un cumulo di informazioni utili fuori dai Data Center.

Dalla combinazione tra Edge Computing e Intelligenza Artificiale nasce l’Edge AI, che riduce la latenza, i costi e i rischi di sicurezza, promuovendo l’efficienza dell’impresa. Si tratta di decentralizzare il Cloud, attraverso l’utilizzo di risorse computazionali locali, slegate dall’infrastruttura cloud e fisicamente più vicine fisicamente al dato generato. I tempi di inattività connessi all’esecuzione di processi di AI sulla base del Cloud risultano ridotti, mentre gli utenti possono intervenire con dispositivi intelligenti, che reagiscono rapidamente agli input senza trasmettere dati altrove.

Sul “Peak of Inflated Expectation” dell’Artificial Intelligence Hype (“ciclo dell’esagerazione”, metodologia sviluppata da Gartner), alla fase dell’Innovation Trigger raggiunta nel 2019, ha fatto seguito quella discendente del “picco”. Compiacendo sia gli entusiasti di questa tecnologia sia chi investe per introdurla nell’impresa, Gartner prevede che nel giro di 5 anni, lasciandosi alle spalle errori e imprecisioni, l’Edge AI raggiungerà il Plateau of Productivity.

L’Edge AI e tutti i suoi vantaggi

Secondo Tim Driscoll, direttore dei risultati della gestione delle informazioni presso la società di tecnologia per la gestione delle risorse energetiche e idriche Itron, “il settore delle utility è particolarmente interessato all’intelligenza distribuita. I contatori all’estremità della rete di distribuzione dei servizi hanno una piattaforma app simile al modello di smartphone comune”.

Questi misuratori utilizzano il Machine Learning per rispondere alle variazioni di tensione e alle condizioni di carico, permettendo ai contatori di fornire consigli proattivi e in tempo reale per il controllo della rete. Ma il vero vantaggio è che i contatori possono lavorare insieme, imparando dal comportamento, dalle prestazioni e dall’affidabilità della propria rete di comunicazione, semplificando la gestione della rete ed eliminando la necessità di un’analisi centralizzata.

Oltre a una migliore latenza e a costi inferiori, portare l’Intelligenza Artificiale e il Machine Learning all’edge può anche incrementare le rapidità dell’AI, dato che l’Edge AI decentralizzata massimizza la frequenza con cui i modelli vengono calibrati, il che non solo riduce i costi e le pianificazioni di sviluppo del modello, ma aumenta anche le prestazioni del modello.

I vantaggi già attribuiti all’Edge Computing si ritrovano anche nell’Edge AI che, grazie ad esso, permette di eseguire algoritmi di Intelligenza Artificiale su dispositivi periferici. Eccoli uno per uno:

  • Netta riduzione della latenza. i processi di AI più all’avanguardia richiedono una grande quantità di potenza di calcolo e perciò sono prevalentemente eseguiti in Cloud, riscontrando spesso problemi legati ai tempi di inattività. Con l’Edge AI gli algoritmi di deep learning possono operare direttamente sul dispositivo che raccogli, elabora e analizza i dati, implementando rapidamente le soluzioni.
  • Cloud decongestionato. È costoso e complesso inviare le grandi quantità di dati generati dai dispositivi IoT al Cloud per l’archiviazione e l’analisi. Se sono dotati di processori con capacità di Intelligenza Artificiale, i dispositivi diventano più efficienti, alleviano i carichi di lavoro del Cloud, sollecitano meno le reti riducendo significativamente l’utilizzo di CPU, GPU e memoria.
  • Consumo energetico. Grazie ai chip di apprendimento automatico a bassa potenza, ai dispositivi periferici intelligenti serve di meno energia per eseguire i calcoli di AI. In questa prospettiva, ha senso aspettarsi anche la riduzione delle dimensioni dei dispositivi, ampliando il campo di azione dell’Edge AI.
  • Contrazione dei costi. Mantenendo l’elaborazione AI su un device locale, i costi dei dati, legati all’utilizzo della larghezza di banda si riducono, evitando la trasmissione di informazioni ad un altro dispositivo per l’analisi.
  • Privacy incrementata. Raccolta, archiviazione e spostamento dei dati nel Cloud sono operazioni rischiose sotto il profilo della sicurezza informatica e della privacy. L’Edge AI, mediante l’elaborazione locale di grandi quantità di dati, riduce il rischio di intercettazione, perdita o uso improprio dei dati durante la trasmissione.

Edge AI: tutti i casi d’uso

Premesso che quando l’elaborazione dei dati è eseguita direttamente su un dispositivo locale e non tramite Cloud, i tempi si contraggono e l’efficienza cresce, il tipico caso d’uso dell’Edge AI è costituito dalle implementazioni e dai dispositivi IoT, molto frequentemente alle prese con problemi di latenza, mancanza di banda, affidabilità, non indirizzabili attraverso il modello Cloud convenzionale.

L’architettura di Edge Computing riduce la mole di dati da inviare nel Cloud, elabora i dati critici, sensibili alla latenza, nel punto di origine, tramite uno smart device. Oppure li invia a un server intermedio, localizzato in prossimità. Per elaborazioni più complesse, i dati meno ‘time-sensitive’ sono trasmessi all’infrastruttura Cloud o al Data Center dell’impresa. È quello che accade con l’analisi di Big Data, con le attività di training per affinare l’apprendimento degli algoritmi di Machine Learning (ML), con lo storage di lungo periodo e con l’analisi di dati storici.

La panoramiche delle casistiche dell’applicazione dell’Edge AI è comunque molto ampia, come vedremo.

  • Self Driving Car. La sicurezza dei passeggeri dipende dall’elaborazione immediata dei dati rilevati nell’ambiente, dal riconoscimento dei veicoli in arrivo all’identificazione dei segnali stradali e all’attenzione a pedoni e ad altri pericoli della strada. Nei veicoli di livello 3 e di livello 4 (completamente autonomi), i sistemi di Edge AI sono irrinunciabili.
  • Droni autonomi. Esattamente come per le auto a guida autonoma, l’assenza del pilota implica l’elaborazione dei dati in tempo reale e quando vengono raggiunte zone distanti dalla portata di un punto di accesso Internet, è la funzionalità Edge AI a garantire la prosecuzione del volo.
  • Videosorveglianza. Per elaborare localmente immagini e video catturati dalle telecamere, trasmettendo dati a un server Cloud solo quando necessario, i sistemi di riconoscimento facciale utilizzano algoritmi di apprendimento automatico. A fronte di un primo screening delle immagini ottenuto anche in assenza di connessione internet, elaborazione remota e consumo di memoria risultano ridotti.
  • Smart City. Risparmio energetico e salvaguardia dell’ambiente sono affidati a nuova generazione di telecamere intelligenti, capaci di regolare l’illuminazione con il passaggio delle persone o i semafori con le auto in coda.
  • IIoT (Industrial IoT). Accelerando fortemente l’automazione dei processi produttivi e operativi e aumentando la produttività, questi dispositivi utilizzano l’Edge AI e questo permette per effettuare ispezioni visive ed eseguire il controllo robotico più velocemente e a costi inferiori.

Edge AI: il ruolo dell’IoT e del 5G

Con le app mobili, la Realtà Aumentata (AR), il ‘geotagging’, le applicazioni ‘context-aware’, i servizi e advertising ‘location-based’, gli algoritmi di riconoscimento facciale, i ‘Digital Twin’ che abilitano la manutenzione predittiva di impianti e macchinari, i veicoli a guida autonoma, le reti radiomobili, la rete è ormai compenetrata nel nostro mondo fisico.

Viviamo una transizione che è anche fonte di un’enormità di dati nella periferia della rete. In molti degli scenari e casi d’uso accennati, dove le informazioni sono elaborate in ‘near real-time’, se non in tempo reale, è anacronistico pensare che ad ognuno di questi edge device possa sempre corrispondere un canale stabile di connessione e comunicazione dati costante con il Cloud.

Garantendo velocità ben più elevate (20Gbps contro 1Gbps), più connessioni simultanee (1 milione per kmq contro 100.000) e una migliore velocità di latenza (1ms contro 10ms), il 5G è imprescindibile per lo sviluppo dell’Internet of Things e anche dell’Edge AI perché permette più interazioni tra una gamma più ampia di dispositivi anche dotati di chip intelligenti. Ogni dispositivo IoT genera dati utilizzabili dai sistemi Edge AI, che non potranno quindi che beneficiare della loro maggiore diffusione.

Non stupisce la rapida espansione del mercato dei dispositivi IoT (in Italia nel 2020 si è arrivato a toccare i 6,2 miliardi di euro), ritmato, secondo la ricerca dell’Osservatorio Internet of Things della School of Management del Politecnico di Milano, da una crescita del 24% rispetto all’anno precedente. In aggiunta, va detto che – soprattutto nei settori automotive e manifatturiero, dove la capacità di autonomia delle macchine è fondamentale, il 5G ne amplificherebbe ulteriormente i vantaggi, dando concretezza a un momento di svolta dell’Industry 4.0.

Edge AI: mercato e prospettive

Il ricorso alla tecnologia Intelligent Edge aumenta l’efficienza dell’azienda, che non invia dati a un Data Center o a terzi, ma li analizza là dove vengono generati. Questo consente analisi più rapide; maggiore tutela dei dati e autonomia da connessioni di rete potenzialmente difettose. Il significativo costo per l’attivazione è ampiamente giustificato dal garantito aumento dei profitti e, nel lungo termine, a un concreto risparmio di denaro.

Per le aziende sarebbe opportuno cominciare a introdurre nelle proprie architetture infrastrutturali, specie se contraddistinte da una rilevante presenza di componenti IoT, schemi di progettazione improntati sui paradigmi dell’Edge Computing. Nello specifico, Gartner stima che entro il 2022 il 75% delle grandi organizzazioni avrà integrato questa tecnologia nei propri progetti.

Un buon contributo al settore è arrivato nel 2020 da Covid che, soprattutto in ambito sanitario, ha messo in luce il potenziale dell’Edge AI nel combattere l’impatto della pandemia attirando finanziamenti e potenziando la ricerca.

In ogni caso, MarketsandMarkets stima che la dimensione del mercato globale del software Edge AI arriverà entro il 2026 a 1.835 milioni di dollari, con un tasso di crescita annuale composto (CAGR) del 20,8%, principalmente per via dell’aumento dei carichi di lavoro aziendali sul Cloud e del numero di device connessi e di applicazioni intelligenti.

Anche grazie alla crescita nell’uso di wearable che necessitano di software Edge AI dovendo contare su computing on-the-go per non dipendere da servizi Cloud lontani, nel post Covid-19 ci si aspetta dunque un rimbalzo positivo del mercato, una curva crescente che, senza determinare la fine del Cloud, vedrà l’introduzione di nuovi modelli operativi per l’AI misti, utilizzati esclusivamente per calcoli più intensivi o approfonditi e che non esigano risposte tempestive.

Edge AI e le sfide future

Sul fronte della privacy si evidenzia la prima e più consistente criticità. Da un lato, l’Edge AI minimizza il rischio di intercettazioni durante la trasmissione, ma dall’altro, prevedendo l’utilizzo di una serie di nodi edge che interagiscono tra loro e condividono dati in tempo reale, amplia notevolmente la superficie di attacco. Memorizzati nei micro data center, i dati si fanno vulnerabili rispetto a cyber attacchi come il Distributed Denial of Service (DdoS) e tale aspetto sta in parte frenando l’adozione dell’Edge AI.

Con il numero di dispositivi periferici implementati, la superficie di attacco aumenta in misura consistente. I dispositivi IoT proliferano e diventano più intelligenti, ma in parallelo aumentano anche i rischi connessi al loro utilizzo e gli aggressori sono perfettamente in grado di sfruttare dispositivi IoT non sicuri.

Un ulteriore aspetto problematico si ritrova nei possibili bias nelle risposte. Il rischio è condiviso da tutte tutte le applicazioni AI, ma nell’Edge AI si amplifica perché affidare il controllo delle performance al singolo utente significa rinunciare alla certezza che siano presenti capacità o interesse per contrastare possibili polarizzazioni nei risultati prodotti dal sistema.

Nel corposo elenco dei rischi e delle sfide, figura infine la mancanza di standard. Esiste una gran varietà di dispositivi hardware edge, chipset di processori, sensori, formati di dati e protocolli che di solito sono incompatibili. Sarebbe urgente concentrarsi sullo sviluppo di architetture aperte comuni. Troppo spesso invece si opta ancora per soluzioni “una tantum”, non scalabili o interoperabili o basate su modelli di distribuzione del software tradizionali.

Commenta

Clicca qui per inserire un commento


Iscriviti

per ricevere aggiornamenti sui trend e le opportunità IOT per il tuo business

Podcast & Smartspeaker

IOTtoday su Spotify IOTtoday su Google Podcast IOTtoday su Apple Podcast IOTtoday su Amazon Alexa IOTtoday su Google Home