Opportunità e sfide dell'intelligenza artificiale

17th December 2018
Posted By : Alex Lynn
Opportunità e sfide dell'intelligenza artificiale

Fino a non molto tempo fa appannaggio esclusivo di laboratori di ricerca e supercomputer, l'intelligenza artificiale (AI) è divenuta un componente chiave di prodotti e servizi orientati al mercato consumer, compresi dispositivi economici, di piccole dimensioni e a basso consumo e prodotti per applicazioni IoT.

Mark Patrick, Mouser Electronics

Anche se è vero che la locuzione Intelligenza artificiale è in alcuni casi utilizzata come una sorta di "specchietto per le allodole", non si può negare che spesso può consentire l'implementazione di caratteristiche e funzionalità nuove e innovative.

La CPU che equipaggia la più recente generazione di iPhone introdotta da Apple, denominata A11, prevede un "neural engine" formato da due core di elaborazione espressamente progettato per far girare algoritmi di apprendimento automatico e fornire il livello di intelligenza richiesto per supportare caratteristiche quali Face ID, la tecnologia utilizzata per lo sblocco dello smartphone tramite riconoscimento facciale. LG, invece, ha annunciato lo sviluppo di alcuni apparecchi domestici, tra cui un robot aspirapolvere, un frigorifero, un condizionatore d'aria e una lavatrice, che sfruttano l'intelligenza artificiale. Buoy, una start-up statunitense, ha reso noto che la sua prossima pompa per l'acqua utilizzerà algoritmi di apprendimento automatico per ottimizzare il flusso dell'acqua e rilevare situazioni anomale, come ad esempio perdite, al fine di consentire l'arresto dell'erogazione dell'acqua in modo automatico o da remoto nei casi di emergenza.

Apple, Google, Amazon e Microsoft sono solo alcune tra le numerose aziende che stanno sviluppando una vasta gamma di assistenti - sotto forma sia di hardware dedicato sia di app - che sfruttano l'intelligenza artificiale per meglio comprendere le richieste degli utenti e fornire risposte in un modo (e in un linguaggio) più naturale. Non sembra molto lontano il giorno in cui le funzionalità di un gran numero di dispositivi di uso quotidiano - dalle valvole ai dispositivi di monitoraggio per i neonati, dalle telecamere alle cuffie - sfrutterà in larga misura le moderne tecniche di intelligenza artificiale che permetteranno loro di reagire agli eventi ed elaborare i dati in modo più efficace e articolato rispetto alle loro controparti "stupide".

A questo punto è utile analizzare modalità e motivazioni che hanno consentito all'intelligenza artificiale di uscire dal chiuso dei laboratori e trasformarsi in una tecnologia di uso comune. Questo cambiamento, indubbiamente di vasta portata, è imputabile a una combinazione di diverse tendenze.

Internet, videogame e ricerca scientifica: i motori della rivoluzione AI
Nel corso degli ultimi due lustri si sono affacciate alla ribalta numerose soluzioni pratiche mutuate dalla ricerca scientifica che hanno contribuito a migliorare sensibilmente l'efficacia del software per applicazioni di intelligenza artificiale. L'utilizzo di tecniche di apprendimento profondo (deep learning) per l'addestramento delle reti neurali ha trasformato queste ultime da una sorta di interessante "giocattolo" in uno strumento potente in grado di superare, almeno in qualche occasione, le capacità degli esseri umani.

L'impatto di queste innovazioni è stato amplificato da altri due sviluppi relativamente recenti: l'enorme quantità di dati reali per l'addestamento disponibili grazie a Internet e la possibilità di utilizzare soluzioni hardware a basso costo per l'elaborazione parallela, sviluppate in origine per la grafica dei video game 3D, che si sono rivelate ideali per le applicazioni di intelligenza artificiale.

Nel momento in cui le implementazioni pratiche di questo nuove ricerche nel campo dell'intelligenza artificiale (e i relativi vantaggi) sono state trasferite dai laboratori al mondo industriale, è stato possibile sviluppare tool software di uso più semplice e migliorare il livello sia della documentazione sia dei programmi didattici e di addestramento. Sviluppatori, progettisti e ingegneri hanno quindi a disposizione tutto ciò che serve per una migliore comprensione delle tecniche di intelligenza artificiale e delle sue modalità di implementazione.

Nel momento in cui è stata riconosciuta l'utilità di far ricorso alle GPU (Graphics Processor Unit) per le applicazioni di intelligenza artificiale, i produttori di questi processori grafici hanno iniziato a sviluppare funzionalità e tool software espressamente destinati al mondo AI. Nella fase iniziale è stata sfruttata la caratteristica intrinseca delle GPU, ovvero la capacità di elaborazione parallela. Ora, invece alle GPU vengono affiancate processori di tipo general purpose che fanno girare software per applicazioni AI e chip sviluppati "ad hoc".

Il "neural engine" di tipo dual core presente nelle CPU dei nuovi iPhone rappresenta un ottimo esempio, mentre la stessa Apple e Qualcomm stanno lavorando allo sviluppo di core di processori e processori per applicazioni di intelligenza artificiale. Questi chip dedicati alle applicazioni di intelligenza artificiale sono più compatti ed efficienti in termini energetici e quindi particolarmente adatti all'uso in dispositivi embedded, mobili e per applicazioni IoT.

AI: meglio "a bordo" o nel cloud?
La tendenza più ovvia è integrare le funzionalità tipiche dell'intelligenza artificiale "a bordo" della soluzione, in quanto un approccio di questo tipo permette di eliminare tutte le problematiche legate alla connettività, ai tempi di latenza e alla privacy (quest'ultimo aspetto è particolarmente importante in quanto l'intelligenza artificiale viene spesso utilizzata per elaborare dati personali o privati, come quelli acquisiti mediante un ingresso audio o una telecamera).

Comunque, nei casi in cui non sia possibile integrare l'intelligenza artificiale all'interno di un dispositivo, la disponibilità praticamente universale di connessioni Internet ad ampia banda e a bassa latenza consente a qualsiasi dispositivo di sfruttare le risorse di intelligenza artificiale centralizzate nei data center. Le app per le traduzioni dei telefoni cellulari (come Google Translate) possono trasferire l'elaborazione a server centralizzati, i dispositivi e le app per l'assistenza personale di solito effettuano parte delle loro elaborazioni nel cloud mentre le app per la navigazione possono utilizzare un approccio del tutto analogo per la ricerca avanzata dei percorsi.

I fornitori di servizi di cloud computing, come Amazon Web Server sfruttano le potenzialità delle istanze di una GPU virtualizzata per far girare applicazioni di apprendimento profondo. Al momento l'utente ha ancora l'onere di fornire il software che gira su questi servizi cloud e, in forma più generalizzata, una tendenza di questo tipo potrebbe essere ribattezzata "AI as a service". In uno scenario di questo tipo un dispositivo potrebbe inviare dati a servizi di elaborazione standard basati sull'intelligenza artificiale che richiederebbero una potenza di elaborazione troppo elevata per girare localmente e ricevere i risultati in frazioni di secondo.

Le sfide dell'intelligenza artificiale universale
Le aziende che intendono utilizzare tecniche di intelligenza artificiale nei loro prodotti sono spesso ostacolate dalle limitata disponibilità di progettisti e sviluppatori software che possano vantare una certa esperienza in un settore in rapida e costante evoluzione. Ma, come accennato in precedenza, questa carenza di competenze appare un problema in via di risoluzione in quanto le conoscenze in questo settore si stanno diffondendo rapidamente e contemporaneamente migliorano le risorse didattiche disponibili. In ogni caso, almeno nel breve termine i costi legati all'assunzione di sviluppatori specializzati nel settore dell'intelligenza artificiale possono essere superiori alla media, mentre molti sviluppatori potrebbero non avere ancora acquisito l'esperienza pratica richiesta.

Un altro problema da tenere nella massima considerazione è legato al fatto che nonostante possa garantire risultati di notevole portata (quasi "magici" sotto un certi punti di vista), l'intelligenza artificiale introduce modifiche di notevole entità nel processo di debug, genera esiti imprevedibili e potrebbe non consentire ai produttori di garantire che i loro dispositivi funzionino sempre come previsto. Anche se è un fatto risaputo che qualsiasi programma software potrebbe non funzionare in modo corretto, con l'intelligenza artificiale il rischio che le prestazioni differiscano in modo netto da quelle previste aumenta considerevolmente.

Per alcuni sviluppatori l'intelligenza artificiale avanzata è una sorta di "scatola nera", che accetta dati in ingresso e produce decisioni in uscita: il problema è rappresentato dal fatto che anche i progettisti non sono in grado di comprendere appieno in che modo vengono prese queste decisioni e cosa accada realmente all'interno della scatola.

Uno sguardo all'interno della "scatola nera"
In una recente intervista con IEEE Spectrum, Sameep Tandon, co-fondatore e CEO di Drive.ai, azienda specializzata nello sviluppo di software per auto a guida autonoma, nonostante abbia riconosciuto che quello della "black box" un problema serio, ha delineato alcune tecniche per controllare i rischi, esaminare il contenuto della "black box" ed eseguire il debug dei sistemi basati sull'intelligenza artificiale. I sistemi di guida sviluppati da Drive.ai, non prevedono un'intelligenza artificiale "centralizzata, bensì sono formati da parti separate, o moduli, ciascuna delle quali assolve funzioni specifiche - alcune delle quali potrebbero non far ricorso all'intelligenza artificiale. Un approccio di tipo modulare aiuta gli sviluppatori a isolare ed effettuare il debug di componenti che danno origine a problemi.

Oltre a ciò l'azienda spesso esegue il collaudo dei propri sistemi utilizzando un insieme molto limitato di dati. Alcuni collaudi relativi al riconoscimento della immagini, ad esempio, potrebbero "congelare" la maggior parte di una scena per focalizzarsi sulla reazione del sistema a un particolare dettaglio: si tratta di un approccio basato sull'isolamento che ha qualche similitudine con il debug di tipo tradizionale. Drive.ai, infine, abbina questa tecnica a un uso estensivo della simulazione al fine di verificare un'ampia gamma di variazioni minime degli scenari di guida che hanno generato problemi al sistema di intelligenza artificiale: in questo modo è stato possibile individuare comportamenti insoliti e addestrare il sistema stesso a reagire in modo ottimale.

Sebbene esistano ampi margini di miglioramento, a causa della natura intrinseca dell'intelligenza artificiale - dove le applicazioni possono essere "addestrate" o "ampliate" grazie a un processo di apprendimento, piuttosto che essere "scritte" o "costruite" come accade nel programmi tradizionali - il problema legato all'insorgere di comportamenti imprevisti potrebbe risultare sempre di difficile soluzione. Nelle applicazioni di tipo "safety-critical" potrebbe essere necessario aggiungere un certo grado di ridondanza, implementabile mediante due o più programmi (o dispositivi) separati che decidono tramite votazione qual è la migliore azione di intraprendere, o perlomeno effettuano il monitoraggio del reciproco comportamento e inviano avvertimenti o innescano modalità di arresto controllato (shut-down) nel momento in cui vengono rilevati comportamenti particolari.

Come sempre accade quando di verificano mutamenti radicali a livello tecnologico, anche l'intelligenza artificiale promette cambiamento rivoluzionari ma, per sfruttare al massimo le sue potenzialità, progettisti e ingegneri devono seguire un percorso di apprendimento e modificare il loro approccio allo sviluppo dei prodotti. Anche gli utenti finali potranno sfruttare al meglio i nuovi tool messi a disposizione dall'intelligenza artificiale nel momento in cui impareranno ad adeguarsi a questa nuova tecnologia, invece di considerare (e utilizzare) i nuovi prodotti che sfruttano l'intelligenza artificiale alla stregua dei prodotti tradizionali. Questa modifica della percezione richiederà, oltre a uno studio accurato in fase di progettazione e di marketing, una formazione approfondita per gli utenti finali.


È necessario aver eseguito l’accesso per commentare

Lascia un commento

Nessun commento




Sign up to view our publications

Sign up

Sign up to view our downloads

Sign up

Vietnam International Defense & Security Exhibition 2020
4th March 2020
Vietnam National Convention Center, Hanoi