Superare i problemi di applicazioni IoT

26th June 2019
Posted By : Alex Lynn
Superare i problemi di applicazioni IoT

Gli incontri organizzati dagli ‘Hardware Pioneers’ sono divenuti una fonte di informazione e di conoscenza di vitale importanza per tutti coloro che a vario titolo sono coinvolti nel settore dell'Internet of Things (IoT). 

Di Mark Patrick, Mouser Electronics

‘Realizzare dispositivi IoT più smart alla periferia della rete’ è stato il tema del più recente seminario di questa community che si è tenuto nel mese di maggio nel centro di Londra.

Si è trattato di un evento ricco di spunti interessanti e di approfondimenti, dove alcuni esperti in ambito industriale hanno espresso la loro opinione sul ruolo che avrà l'intelligenza artificiale negli anni a venire e le sue implicazioni a livello di semiconduttori, schede e software di supporto.

La relazione di apertura dei lavori è stata tenuta da Matthieu Chevrier di Texas Instruments. Negli anni '50 e '60, ha spiegato, l'aggiunta di sensori, oltre all'accesso ai dati contestuali da loro acquisiti, ha senza dubbio contribuito a trasformare apparati sostanzialmente "stupidi" in robot più consapevoli del contesto in cui si trovavano a operare. Al giorno d'oggi la robotica si trova in una fase che Chevrier ha definito, prendendo a prestito il termine che definisce un noto evento paleontologico, una vera e propria "esplosione cambriana".

In sintesi, una moltitudine di nuove applicazioni potenziali (dalle consegna alla logistica fino ad arrivare alla cura degli anziani) stanno iniziando ad affacciarsi alle luci della ribalta, unitamente a nuovi modelli di robot e di piattaforme di sviluppo per robot.

La gamma di sensori disponibili e il loro livello di complessità sono decisamente superiori rispetto a che equipaggiavano i robot delle precedenti generazioni. In ogni caso, ha sottolineato Chevrier, è necessario elaborare una strategia migliore per implementare azioni più efficaci sulla base dei dati acquisiti da questi sensori. Per sfruttare nel migliore dei modi le potenzialità dei robot, essi devono interagire in modo più sinergico con gli esseri umani. In un ambiente di produzione, ad esempio, invece di operare in modo isolato, dovrebbero poter lavorando a fianco degli operatori, collaborando direttamente con essi nell'esecuzione dei compiti assegnati.

Per il corretto funzionamento di questi "cobot" (robot collaborativi) è indispensabile determinare in modo preciso la vicinanza con i lavoratori umani. Nel corso della sua presentazione Chevrier ha fornito parecchi dettagli circa la pluralità di differenti meccanismi di rilevamento che potrebbero essere impiegati per raggiungere questo obiettivo - ToF (Time of Flight), LiDAR, onde millimetriche e altri ancora.

In modo del tutto analogo i droni impiegati per le consegne potrebbero richiedere questo tipo di tecnologie di rilevamento per individuare potenziali ostacoli, come ad esempio i cavi dell'alta tensione, in modo da poterli evitare durante il volo (un ostacolo come quello appena descritto molto probabilmente non sarebbe distinguibile utilizzando i tradizionali sensori di immagine).

Per "assimilare" tutti questi dati e sfruttarli in modo corretto ed efficace è necessario l'intervento dell'intelligenza artificiale (AI - Artificial Intelligence). Sebbene finora le risorse di elaborazione richieste dall'intelligenza artificiale erano disponibili solamente su server basati su cloud, la situazione è destinata a mutare.

In un futuro abbastanza prossimo gran parte dell'attività di elaborazione legata all'intelligenza artificiale dovrà essere eseguita "in situ" (sia che si tratti di cobot, droni o nodi IoT). Questo è stato appunto il tema ricorrente degli interventi dei tre relatori che si sono succeduti nel corso della serata, ciascuno dei quali ha focalizzato l'attenzione su un aspetto differente.

Indipendentemente dal tipo di applicazione - robotica, veicolo a guida autonoma o monitoraggio industriale - l'invio al cloud della gran mole di dati acquisiti è semplicemente un processo troppo lungo perchè possa risultare efficace. Al contrario è indispensabile garantire una latenza ridotta in modo da poter sfruttare i vantaggi intrinseci delle risposta in tempo reale. Per poter affrontare in modo efficace il problema del sovraccarico (overhead) di elaborazione sarà necessario ricorrere a dispositivi hardware ottimizzati.

Un esempio è rappresentato dal SoC (System-on-Chip) AM5749 di Texas Instruments. Questo dispositivo è in grado di ricevere modelli di reti neurali addestrate create utilizzando infrastrutture basate su cloud e farle girare in contesti applicativi con risorse limitate alla periferia della rete.

Procedendo nell'analogia dell'"esplosione cambriana" di Chevrier il relatore di ARM, Chris Shore, ha sottolineato il fatto che questa società, in 26 anni di vita, ha consegnato (con la collaborazione dei suoi partner operanti nel settore dei semiconduttori) un numero impressionante, pari a 100 miliardi, di chip in tutto il mondo.

A questo dato Shore ne ha aggiunto un altro ancora più sorprendente: grazie alla proliferazione dell'intelligenza artificiale ARM si aspetta di consegnare altri 100 miliardi di chip ma questa volta nel giro di soli quattro anni.

Così come aveva fatto Chevrier, anche Shore ha messo in discussione la validità della configurazione attuale, in cui l'intelligenza dei sistemi è ospitata nel cloud. Sebbene questo tipo di approccio abbia il vantaggio di concentrare tutti i dati, dà comunque adito ad alcuni problemi. Oltre a quello già evidenziato che riguarda la latenza, sussistono problemi legati alla sicurezza e ai consumi.

La strategia delineata da Shore prevede l'allocazione di risorse di elaborazione dimensionate in modo adeguato in punti opportuni della rete in quanto, ha sottolineato, affidarsi al cloud non sempre rappresenta la soluzione migliore. L'approccio più efficace è invece quello che si basa sul concetto di "think local", che prevede di trasferire laddove possibile il processo decisionale alla periferia e inviare al cloud la minore quantità di dati possibile quando richiesto (e in quella sede estrarre valore dai dati, che rappresenta il vero "oro nero" per le aziende).

Gran parte dell'intelligenza che verrà implementata, almeno questa è l'opinione di Shore, dipenderà dalla possibilità di accedere a librerie software ottimizzate, che possono occuparsi di funzione come elaborazione digitale dei segnali (DSP - Digital Signal Processing) e accelerazione di reti neurali.

Shore ha quindi spiegato al pubblico le caratteristiche specifiche dei core ARM di ultima generazione (come ad esempio il core Cortex-M4, con funzionalità DSP integrate) che li rendono particolarmente adatti per le operazioni di calcolo a bordo dei dispositivi e permettono loro non solo di soddisfare i vincoli, sempre più stringenti, in termini di consumi di potenza, ingombri e costi, ma anche di integrare le avanzate funzionalità di sicurezza richieste.

Grazie alla Platform Security Architecture (PSA), un framework sviluppato dalla società i cui principi ispiratori sono la sicurezza "by design" e la protezione del firmware dei dispositivi IoT, è possibile eseguire analisi approfondite per scoprire eventuali vulnerabilità e affrontare le minacce alla sicurezza che possono presentarsi sotto forma di malware, violazioni delle comunicazioni e danni di natura fisica. Ciò inoltre rappresenta un valido ausilio nella progettazione/implementazione di sistemi caratterizzati da livelli di sicurezza molto più elevati.

L'intervento conclusivo è stato tenuto da Greg Holland che lavora presso Swim.ai, una società in cui recentemente ARM ha effettuato un investimento finanziario. Questa start up, con sede a San Jose, ha sviluppato una piattaforma open source per applicazioni di streaming alla periferia della rete (come ad esempio la visione di contenuti video provenienti da telecamere remote) che sta già trovando applicazione nelle smart city (ad esempio per la gestione del traffico) e nel comparto dell'automazione di fabbrica.

A causa del sempre più elevato numero di dispositivi che formano una rete IoT, è necessario tenere in considerazione la scalabilità per poter gestire in modo adeguato un traffico un continuo aumento. Finora il software dei dispositivi posti alla periferia della rete era di natura prevalentemente statica (capace cioè di fornire un insieme fisso di risposte al verificarsi di qualsiasi circostanza) ma sono in corso numerose ricerche il cui obiettivo è renderlo più adattativo (ovvero in grado di fornire risposte di tipo dinamico).

Molto spesso i dataset che vengono compilati dai nodi sensore IoT sono di grandi dimensioni (si pensi ad esempio che i filmati generati da un singolo incrocio generano 40 Gb di dati al giorno), ma non bisogna dimenticare che la densità di informazione effettiva è in confronto molto bassa (in quanto solo una piccola frazione di questi dati potrebbe rivelarsi importante).

Poichè molto spesso è richiesto un riscontro immediato è necessario adottare una metodologia più razionale in grado di adattarsi a centinaia di migliaia (meglio ancora se a milioni) di dispositivi e di evitare il verificarsi di ritardi operativi.

L'approccio messo a punto da Swim.ai si può così riassumere: invece di avere servizi di tipo stateless (senza stato, ovvero che non tengono traccia dello stato) ubicati alla periferia supportati da grandi risorse di memorizzazione e di elaborazione centralizzate, risulta più efficiente disporre di agent (programmi "intelligenti") di tipo stateful (con stato), ciascuno dei quali descrive uno stato utile specifico. Questi agent sono connessi in una rete di tipo punto-punto (peer-to-peer).

Attraverso l'applicazione di un'aggregazione gerarchica, è possibile acquisire informazioni che consentono di avere una migliore comprensione delle "sfumature" delle varie situazioni, anche le più complesse. Con un approccio di questo tipo, inoltre, vengono impiegate infrastrutture (e risorse di elaborazione spesso sottoutilizzate) che sono già installate.

In definitiva, l'intelligenza disponibile localmente (a differenza dell'approccio basato su cloud) può garantire periodi di latenza più brevi e il sistema, nel suo complesso, potrà a sua volta assicurare la rapidità di risposta richiesta per poter prendere decisioni critiche dal punto di vista temporale.

Poichè le installazioni alla periferia della rete devono soddisfare severi vincoli in termini di ingombri e di consumi, il lavoro di elaborazione deve essere svolto nella maniera più efficiente possibile e il tempo di calcolo ridotto al minimo. Ciò sicuramente favorirà lo sviluppo di un gran numero di innovazioni sia dal punto di vista dell'hardware sia da quello del software.


È necessario aver eseguito l’accesso per commentare

Lascia un commento

Nessun commento




Sign up to view our publications

Sign up

Sign up to view our downloads

Sign up

Hotspots Specials 2019
24th October 2019
Germany Böblingen, Germany
IoT Solutions World Congress 2019
29th October 2019
Spain Barcelona
Maintec 2019
30th October 2019
United Kingdom NEC, Birmingham
NOAH Conference 2019
30th October 2019
United Kingdom Old Billingsgate, London
productronica 2019
12th November 2019
Germany Messe München