Il futuro dell'intelligenza artificiale

1st November 2018
Posted By : Alex Lynn
Il futuro dell'intelligenza artificiale

Il 2017 è stato, come previsto da molti analisti che si occupano del settore industriale e da esperti del mondo dei media, un anno significativo per l'intelligenza artificiale (AI - Artificial Intelligence).

Di Mark Patrick, Mouser Electronics

Forbes, Deloitte, Gartner, Accenture, Digital Trends e TechRadar erano stati concordi nell'includere l'intelligenza artificiale e l'apprendimento automatico tra le tendenze tecnologiche da "tenere d'occhio" nel 2017. 

Articoli pubblicati in prestigiose riviste, da Fortune a The Guardian hanno indicato quello trascorso come l'anno dell'intelligenza artificiale, mentre il New York Times asseriva in un articolo che "...l'apprendimento automatico è destinato a reinventare il concetto stesso di elaborazione". 

Poichè l'intelligenza artificiale non è certamente un concetto nuovo in quanto risale a circa mezzo secolo fa e l'uso delle macchine per svolgere mansioni al posto di un essere umano è una prassi ormai ben consolidata, è abbastanza spontaneo domandarsi i motivi di questo rinnovato interesse per l'intelligenza artificiale.

Al contrario di quello che può essere una percezione comune, l'intelligenza artificiale non è divenuta un trend tecnologico emergente da un giorno all'altro. In realtà, la concomitanza di alcuni fattori quali il miglioramento delle conoscenze a livello teorico e la disponibilità di una vasta quantità di dati e di potenze di elaborazione sempre maggiori, unitamente alla focalizzazione sulla risoluzione di problemi specifici, hanno contribuito al riaccendersi dell'interesse verso le tecniche di intelligenza artificiale. In ogni caso è utile sottolineare che l'intelligenza artificiale ha iniziato a svilupparsi, evolvere ed entrare a far parte della vita quotidiana fin dall'inizio di questo secolo, sebbene negli ultimi anni un "mix perfetto" di fattori ha contribuito ad accelerare la sua diffusione e popolarità.

Dall'AI "forte" a quella "debole"

Intorno alla metà degli anni '50, i primi pionieri che si sono occupati di queste tematiche erano convinti che l'intelligenza artificiale generale (ovvero caratterizzata da intelligenza e capacità cognitive simili a quelle umane, conosciuta come AI forte o AI completa) sarebbe stato un traguardo raggiungibile nell'arco di pochi decenni. Tuttavia è emerso chiaramente che i ricercatori avevano grossolanamente sottovalutato le difficoltà del compito chiamati ad assolvere.

Recentemente sono stati conseguiti alcuni risultati positivi nell'affrontare e risolvere problemi specifici. Questi sistemi di intelligenza artificiale "debole" o "applicata" che utilizzano tecniche quali reti neurali, visione artificiale e apprendimento automatico, sono già stati adottati su larga scala.

Le prime implementazioni dell'intelligenza artificiale molto spesso prevedevano l'uso di computer in grado di competere in giochi di strategia, come la dama e gli scacchi, erano basate sull'ipotesi che solo una macchina estremamente intelligente fosse in grado di battere un giocatore umano particolarmente abile. Col passare del tempo, grazie all'aumento della potenza di elaborazione e al perfezionamento delle tecniche di intelligenza artificiale, quest'ultima si è dimostrata in grado di competere con successo in questi giochi.

Nel 1994 Chinook (un software sviluppato "ad hoc") ha vinto una partita a dama contro la più volte campionessa del mondo Marion Tinsley. Nel 2007, una volta messo a punto il software integrando tutte le possibili commbinazioni del gioco della dama, Chinook risultava praticamente imbattibile e il miglior risultato che un giocatore umano poteva sperare di ottenere era un pareggio.

Nel 1996, il computer Deep Blue messo a punto da IBM era riuscito a sconfiggere il campione del mondo in carica Garry Kasparov in una partita a scacchi giocata in condizioni standard.

AlphaGO - abbinare reti neurali e apprendimento profondo

A seguito di questi successi, i ricercatori attivi nel campo dell'intelligenza artificiale hanno iniziato a focalizzare la loro attenzione su Go. Questo gioco da tavolo strategico, nato in Cina circa 3.000 anni fa, si distingue per la sua complessità, in quanto prevede un numero veramente enorme (10170) di possibili configurazioni delle pedine. Per dare un'idea, questo numero supera quello degli atomi presenti nell'universo conosciuto. Il suo fattore di diramazione (branching factor) molto più grande rende di fatto proibitivo l'uso dei precedenti metodi di "forza bruta" (che prevedono la realizzazioni di alberi di ricerca in grado di coprire tutte le possibili posizioni). 

Deepmind Technologies, azienda acquisita da Google nel 2014, aveva avviato un progetto di ricerca il cui scopo era verificare il grado di competitività che potevano raggiungere le reti neurali addestrate utilizzando metodi di "deep learning" (apprendimento profondo) in una competizione di Go. I ricercatori hanno fatto giocare ad AlphaGo un gran numero di partite in modo che questo software potesse sviluppare una comprensione del gioco in tutte le sue sfumature. Successivamente hanno fatto giocare AlphaGo contro se stesso migliaia di volte in modo da migliorare l'apprendimento mediante la comprensione degli errori commessi sfruttando un processo noto come apprendimento rinforzato. 

Nel 2015 AlphaGo è stato il primo computer a battere un campione di Go professionista (il tre volte campione europeo Fan Hui) senza ricorrere ad handicap. Successivamente AlphaGo ha sconfitto il leggendario 18 volte campione del mondo Lee Sedol, guadagnandosi la massima valutazione prevista per questo gioco, ovvero il nono dan.

L'effetto AI

Quelle che per un lungo periodo sono state considerate le tappe fondamentali che potevano significare l'implementazione di una vera intelligenza artificiale, una volta raggiunte, sono state declassate a "puro calcolo" e quindi non riconosciute come frutto di reale intelligenza. Questo fenomeno, descritto da Pamela McCorduck (autrice di numerosi libri sulla storia dell'intelligenza artificiale) e da Kevin Kelly (fondatore e responsabile della rivista Wired) è noto come "effetto AI" e tende a dare una percezione negativa dell'intelligenza artificiale.

Quando computer come Deep Blue hanno sì sconfitto campioni di scacchi ma non sono in grado di fare altro, è difficile riconoscere in essi un'entità artificiale estremamente intelligente. Come succede nel caso dei trucchi di prestigiatori e illusionisti, una volta scoperto il meccanismo, si tende a ignorare l'abilità e il lavoro fatto per la loro realizzazione e a sottovalutare i risultati raggiunti.

Nel contempo, le tecniche sviluppate e messe a punto nel corso delle ricerche nell'ambito dell'intelligenza artificiale, come ad esempio il riconoscimento ottico dei caratteri (OCR - Optical Character Recognition), l'elaborazione del linguaggio naturale (NLP - Natural Language Processing) o il riconoscimento delle immagini sono state integrate nelle applicazioni quotidiane senza che per esse sia stato scomodato il termine intelligenza artificiale. Come osservano i ricercatori operanti nel campo dell'intelligenza artificiale la "vera AI" deve essere ripensata per indicare "qualcosa che non è stato ancora fatto".

Visto sotto una diversa angolazione, ciò che in precedenza si pensava richiedesse l'intelligenza artificiale "forte" è ora realizzabile ricorrendo all'intelligenza artificiale "debole". Di conseguenza è difficile rendersi conto che l'intelligenza artificiale è presente in maniera sempre più massiccia nella vita quotidiana, dal riconoscimento facciale delle app per foto e degli smartphone ai "recommendation engine" che forniscono consigli agli utenti e sono presenti nelle reti che erogano contenuti come Netflix, YouTube, iTunes o Amazon fino ad arrivare alle chatbot (il software che simula il comportamento umano e la conversazione intelligente tra due persone) dei servizi di assistenza clienti e agli assistenti virtuali come Siri e Alexa.

L'intelligenza artificiale prossima ventura

Nel suo articolo del 2017 scritto in occasione del World Economic Forum, Sandhya Venkatachalam, imprenditrice e investitrice nel campo delle tecnologie, affermava che ci troviamo alle soglie di un'era caratterizzata da un modello di elaborazione completamente nuovo, in cui le macchine iniziano a comprendere e anticipare ciò che vogliamo fare e, in futuro, lo faranno per noi.

Attualmente l'intelligenza artificiale non assomiglia molto all'intelligenza artificiale forte in quanto il suo utilizzo è limitato a casi d'uso ristretti e ben definiti. Si pensi ad esempio agli assistenti virtuali che sono in grado di comprendere il linguaggio umano, accedere ed effettuare ricerche su grandi volumi di dati e fornire risposte ed eseguire azioni pertinenti. In ogni caso, non sono in grado di pulire l'abitazione o guidare la macchina. Allo stesso modo, le auto a guida autonoma non possono imparare a giocare a scacchi o cucinare un pasto. 

In definitiva, un'intelligenza artificiale di questo tipo è in grado di espletare compiti che gli esseri umani sono già in in grado di assolvere ma permettono di risparmiare tempo e, in definitiva, potrebbero eseguire tali compiti in modo migliore degli esseri umani.

Nel suo articolo Venkatachalam sottolinea i presupposti che hanno favorito la diffusione dell'intelligenza artificiale negli ultimi cinque anni. L'aggiunta di sensori, processori e funzioni di connettività a qualsiasi oggetto permette di acquisire una mole sempre più ampia di dati di varia natura che di fatto rappresentano il "nuovo carburante". Alimentato da questi dati, l'apprendimento automatico si è trasformato in una sorta di motore a combustione che, partendo da dati "grezzi" e non elaborati e applicando modelli matematici e algoritmi, cerca di scoprire modelli impliciti presenti al loro interno. 

A partire da questi modelli, esso cerca di comprendere se i nuovi data point (ovvero le singole unità di informazioni) sono in linea con i risultati futuri previsti.

La guida autonoma passa attraverso i sistemi ADAS

Una delle applicazioni di maggior rilievo per l'intelligenza artificiale è quello dei sistemi ADAS (Advanced Driver Assistance System), la cui evoluzione permetterà alle auto a guida autonoma di circolare sulle strade. Per la realizzazione di molti sistemi ADAS sono stati utilizzati i tradizionali sistemi di visione. 

Questi svolgono compiti semplici e indipendenti tra di loro, come ad esempio l'avviso di superamento della corsia di marcia o di pericolo di collisione ma, nel momento in cui aumentano le funzionalità dei sistemi ADAS,il rilevamento e l'interpretazione simultanee dell'ambiente circostante diventano più complesso. In un contesto di questo tipo entra in gioco un approccio di tipo scalabile come quello che prevede l'uso dell'intelligenza artificiale e dell'apprendimento profondo. 

I metodi di apprendimento profondo si basano sui dati forniti durante l'addestramento, nel corso del quale vengono apprese le caratteristiche comportamentali e visive e, soprattutto, l'intelligenza artificiale può effettuare generalizzazioni in modo molto migliore rispetto ai classici algoritmi, incrementando in tal modo l'affidabilità. L'apprendimento profondo emula le modalità di apprendimento del cervello umano, riconosce modelli e correlazioni, comprende il linguaggio e cerca di gestire le ambiguità.

AI e sicurezza

Un altro settore che può trarre notevoli vantaggi dall'uso dell'intelligenza artificiale è quello della sicurezza, dove le aziende utilizzano l'apprendimento automatico per incrementare l'efficienza di team che hanno problemi di risorse al fine di individuare in modo più preciso violazioni o rischi per la sicurezza e reagire in maniera più rapida ed efficace. 

Nell'ambito della sicurezza informatica, ciò può tradursi in un'attività di scansione del traffico di rete al fine di identificare accessi o comportamenti insoliti, potenzialmente pericolosi o non autorizzati. L'intelligenza artificiale risulta particolarmente utile nel riconoscimento di pattern e di anomalie in situazioni di questo tipo, proponendosi quindi come uno strumento particolarmente efficiente per rilevare eventuali minacce.

Anche le tecnologie di sorveglianza e di sicurezza fisica stanno adottando in misura sempre maggiore l'analisi video basata sull'apprendimento automatico. Telecamere "intelligenti" sono in grado di effettuare il monitoraggio di edifici e abitazioni, rilevando tentativi di accesso inusuali o eseguire operazioni di riconoscimento facciale che prevedono l'abbinamento con elenchi di persone considerate o meno "sicure". 

I sistemi "intelligenti" possono sfruttare una vasta gamma di tecnologie di rilevamento per rilevare e reagire in modo appropriato sulla base dei dati pervenuti in tempo reale. Sistemi di questo tipo, ad esempio, potrebbero rilevare la presenza del fuoco a partire da una mappa termica e non solo identificare eventuali persone presenti all'interno di un'abitazione, ma anche segnalare in modo automatico situazioni anomale, contribuendo in tal modo a fornire soluzioni di sicurezza efficaci e personalizzate sia ai proprieteari di casa sia alle aziende.

Gli ostacoli alla diffusione dell'AI 

Nel campo dell'intelligenza artificiale, uno dei principali problemi è la vasta mole di dati necessaria per alimentare i sistemi di apprendimento profondo. La sempre più ampia diffusione delle tecnologie IoT e del fenomeno dei big data (ovvero dell'immagazzinamento, gestione e analisi di grandi quantità di dati) rappresenta uno stimolo per l'acquisizione di un numero sempre maggiore di dati tramite dispositivi e sensori connessi presenti oramai dovunque. In ogni caso, è utile ricordare che vi sono settori, come ad esempio quello sanitario, in cui l'accesso ai dati risulta difficoltoso sia per ragioni di natura etica sia l'esistenza di barriere di tipo normativo.

Un altro problema è rappresentato dalla potenza di elaborazione richiesta. Il crescente utilizzo dell'intelligenza artificiale ha comportato l'introduzione di dispositivi hardware specializzati o modificati "ad hoc" al fine di garantire il livello di prestazioni richiesto. Per l'accelerazione hardware delle prestazioni di reti neurali e di algoritmi di apprendimento profondo sono stati utilizzati DSP, GPU e FPGA, mentre alcune società hanno sviluppato hardware dedicato per applicazioni di intelligenza artificiale.

Movidius, azienda acquistata nel 2016 da Intel, è un'azienda specializzata nello sviluppo di processori a bassissimo consumo (ULP -Altra Low Power) denominati VPU (Vision Processing Unit) ottimizzati per algoritmi di apprendimento profondo e di visione artificiale. Il rapporto ottimizzato tra efficienza energetica e prestazioni che contraddistingue questi prodotti consente ai costruttori di integrare funzionalità di visione artificiale e di elaborazione tipiche delle reti neurali profonde in apparecchi quali smartphone, droni, telecamere "intelligenti" e dispositivi indossabili. 

Oltre a queste VPU, disponibilli come SoC (System on Chip), Movidius propone inoltre il "Neural Compute Stick", in pratica una VPU di tipo "plug &play" offerta sotto forma di chiavetta USB realizzata con l'obiettivo di semplificare l'accesso alle funzionalità di intelligenza artificiale il cui impiego risulta particolarmente utile per l'addestramento e la prototipazione di reti neurali.

Al crescere della pervasività dell'intelligenza artificiale, il problema di come e dove implementarla diventa sempre più pressante. Fino a non molto tempo fa la maggior parte delle elaborazioni venivano effettuate nel cloud dove "colossi tecnologici" come Apple, Google e Amazon potevano adattare in modo semplice la potenza di calcolo e l'architettura di rete in funzione delle necessità. Ora che l'intelligenza artificiale è integrata in un numero così ampio di applicazioni quotidiane, latenza e affidabilità sono diventati fattori critici. 

Nel caso di interruzioni del collegamento con il cloud, un utente potrebbe dover aspettare per un certo periodo prima di ricevere da assistenti come Siri e Alexa suggerimenti sui ristoranti indicazioni sulla direzione da prendere per raggiungere quello prescelto. Nel caso invece di sistemi ADAS installati a bordo di veicoli autonomi che devono evitare possibili collisioni con i pedoni o con altri veicoli, le azioni si devono svolgere in maniera deterministica e in tempo reale, ragion per cui le elaborazioni coinvolte devono essere effettuate alla periferia della rete.


È necessario aver eseguito l’accesso per commentare

Lascia un commento

Nessun commento




Sign up to view our publications

Sign up

Sign up to view our downloads

Sign up

SPS IPC Drives 2018
27th November 2018
Germany Nuremberg
International Security Expo 2018
28th November 2018
United Kingdom London Olympia
The Security Event 2019
9th April 2019
United Kingdom NEC, Birmingham
Ceramics Expo 2019
29th April 2019
United States of America International Exposition Center (I-X Center)