Intelligenza Artificiale: da dove arriva?

INTELLIGENZA ARTIFICIALE: DA DOVE ARRIVA? 

By Angelo Diego Bertini

28 Febbraio 2019

L’Intelligenza Artificiale, abbreviata come IA, è un argomento di scottante attualità, intorno alla quale sono in fase di studio e sviluppo centinaia di potenziali applicazioni, rivolte al miglioramento dei processi di scelta e decisionali, alla base di tanti aspetti della vita dell’uomo contemporaneo.

Secondo Gartner ed altri importanti analisti degli scenari macroeconomici, il 2019 sarà l’anno dell’IA o comunque della sua introduzione importante nel mercato, mediante molteplici applicazioni.

Dalla guida autonoma, all’assistente virtuale, già oggi sappiamo ed in alcuni casi già sperimentiamo dei possibili vantaggi, ma ancora oggi ne vediamo la maturazione ancora in divenire, nei prossimi anni.

Si ipotizza che nei prossimi 20 anni, la tecnologia sarà largamente adottata in tutti gli ambiti, sia quelli privati, che quelli professionali e di interazione con il pubblico.

Secondo alcuni, si potrà arrivare a forme artificiali di superintelligenza e si profetizza che la realizzazione della superintelligenza sarà l’ultima invenzione che l’essere umano dovrà fare (Irving John Good, responsabile statistico del team del progetto Enigma, cui partecipava Alan Turing).

Ma come si è arrivati a questo punto?

 

GLI ALBORI, LE ILLUSIONI E LE DISILLUSIONI

In termini di predizione circa la sua affermazione, è interessante notare che già negli anni 40, alla realizzazione dei primi elaboratori, a partire dal progetto Enigma, di Turing, si diceva che lo sviluppo di macchine in grado di competere con l’uomo quanto ad intelligenza generale sarebbe avvenuto entro i prossimi 20 anni ….

Singolare il fatto che ancora nello scorso decennio il termine dei “prossimi 20 anni” era quello nel quale si prevedeva lo sviluppo a maturazione di tali sistemi.

Il fatto però che in passato siano state fatte previsioni troppo ottimistiche, non significa che ciò non sia in realtà  possibile. La ragione reale per la quale lo sviluppo di queste tecnologie ha subito dei rallentamenti è insita nelle difficoltà incontrate nello sviluppo di apparecchiature in grado di realizzare quanto necessario.

L’alba dei sogni per lo sviluppo dell’IA è identificato nel Dartmouth Summer Project, del 1956, quando una decina di scienziati interessati alle reti neurali, si riuniscono nel Darmouth College per un seminario di 6 settimane.

Per affermare le loro idee e per contrastare i detrattori, a partire da quel momento, furono sviluppate diverse applicazioni molto focalizzate, volte a confutare l’opinione che una certa cosa o attività non avrebbe mai potuto essere sviluppata autonomamente da macchine.

Nascono quindi diverse applicazioni, quali Logic Theorist, per eseguire le dimostrazioni di teoremi scientifici, General Problem Solver o Eliza, primo programma che negli anni 70 simulava uno psicoterapeuta.

E’ in quegli anni e poi nei successivi, che sono state generate e si sono fatte strada idee come quelle di utilizzare sistemi artificiali per la guida autonoma, per la diagnostica medica, per la composizione musicale e di testi, fino a produrre idee innovative, brevettabili.

Ma i metodi e le tecnologie che avevano permesso di ottenere i primi interessanti sviluppi, si rivelarono difficili da estendere ad ambiti più ampi e complessi.

Il problema era legato alla capacità di elaborazione dei dispositivi, in quanto nell’esame di situazioni complesse, si dovevano esaminare tutte le possibilità prevedibili, tra le quali quindi selezionare quelle più probabili, attività che di fatto richiede capacità computazionali enormi, non raggiungibili nemmeno con supercomputer.

Per superare il problema della capacità computazionale, sarebbe stato necessario immaginare algoritmi in grado di sfruttare tutta la conoscenza possibile per pianificare strategie di analisi mirata, di tipo euristico, con gravi limiti concreti di realizzazione, quali la capacità di calcolo dei microprocessori e le capacità delle unità di memoria.

Negli anni 70 si realizzò che lo sviluppo dell’IA non avrebbe potuto essere veloce come previsto e le difficoltà scoraggiarono chi se ne occupava, con conseguente riduzione dell’attenzione (e dei finanziamenti), aprendo quello che viene definito come “primo inverno” dell’IA.

Negli anni 80, lo sviluppo dei computer di quinta generazione, in Giappone, all’apice dello sviluppo post-bellico di tale nazione, riporta il tema di attualità ed insieme al Giappone, altre nazioni decidono di investire, dando il via alla generazione dei “sistemi esperti”.

Si tratta di programmi basati su regole che producevano semplici inferenze tra fatti ed elementi selezionati da esperti e tradotti in linguaggio di programmazione. Si costruirono centinaia di realizzazioni, scoprendo però che quelli semplici non erano alla fine utili e che quelli importanti erano comunque troppo costosi da realizzare.

Spesso , per esempio, si ottenevano risultati assurdi, se i programmatori utilizzavano degli assunti non completamente corretti.

Alla fine degli anni 80, il clima intorno all’IA era di grande disillusione, intorno alla quale nessuno voleva investire.

LO SVILUPPO

Negli anni 90 si apre un nuovo approccio, ispirato dalla complessità delle reti neurali e dal loro funzionamento, con cui era possibile operare per “approssimazione” graduale, ovvero confrontare le risposte con la realtà ed imparando dagli errori fatti per migliorare la capacità di predizione e riconoscimento. Si tratta dell’introduzione delle tecnologie di “ Machine Learning”.

La contemporanea disponibilità di macchine e sistemi ad elevata capacità computazionale, favorì lo sviluppo di tali tecnologie, ancora oggi in corso di evoluzione e che costituiscono di fatto la base delle applicazioni contemporanee basate su IA.

Un altro fattore che ha favorito lo sviluppo delle applicazioni è stata l’intuizione di adottare algoritmi genetici, ispirati alle modalità di “programmazione genetica”, sulla cui base si costruiscono, anche in maniera  casuale, soluzioni di vario tipo ed ampiezza, che poi si selezionano mediante criteri di sfoltimento e probabilistico, che filtra i risultati e lascia passare solo le soluzioni che meglio rispondono al quesito iniziale.

In questo modo, si aumenta la probabilità di identificare la soluzione più idonea, senza investigare in tutte quelle possibili, riducendo il capo di intervento,  e rendendo il sistema sufficientemente veloce per la sua adozione reale (una delle tecniche più note in questo ambito è il cosiddetto metodo Montecarlo)

Queste evoluzioni non tanto di sistema, quanto di approccio alla risoluzione del problema, ha consentito di approssimare sistemi di calcolo predittivo di tipo “bayesiano perfetto”, ovvero meccanismi che analizzano la probabilità effettiva di accadimento o realizzazione di un fattore, identificando per confronto quello con probabilità maggiori.

Questo traguardo non è stato raggiunto mediante potenziamento delle strutture di calcolo ed analisi, ma mediante lo sviluppo di sistemi di analisi e comparazione dei dati basati su piattaforme flessibili, che accettano dei compromessi ed approssimazioni ben definibili dal punto di vista matematico e statistico.

 

OGGI … E DOMANI

Oggi, l’IA supera già l’intelligenza umana in diversi campi, rivelandosi più affidabile nella predizione di eventi e nella spiegazione di fenomeni, facilitata anche dall’assenza del condizionamento personale umano, da cui tutti siamo consciamente od inconsciamente influenzati.

Pensiamo ai computer per i giochi, da Deep Blue IBM del 1997, che batte Kasparov, a Watson, sempre di IBM che vince a Jeopardy nel 2010, alla serie AlphaGo di Google, che nel 2012 batte il campione mondiale di GO, uno dei giochi di strategia più complessi esistenti al mondo.

Nel frattempo, si sviluppano sistemi che sono già nelle nostre vite, come gli assistenti virtuali, i sistemi di sorveglianza con riconoscimento dei volti delle persone, utilizzati sia a livello delle esperienze di consumo, che nelle azioni di sorveglianza per sicurezza negli ambienti pubblici.

Nel 1991, durante la guerra del Golfo viene applicato un sistema di pianificazione logistica automatizzata delle azioni di guerra aerea, tecnologia poi adottata, nei principi, anche dai sistemi di prenotazione dei voli aerei, per la selezione delle proposte e la definizione delle tariffe proposte.

Pensiamo ai computer per i giochi, da Deep Blue IBM del 1997, che batte Kasparov, a Watson, sempre di IBM che vince a Jeopardy nel 2010, alla serie AlphaGo di Google, che nel 2012 batte il campione mondiale di GO, uno dei giochi di strategia più complessi esistenti al mondo.

Nel frattempo, si sviluppano sistemi che sono già nelle nostre vite, come gli assistenti virtuali, i sistemi di sorveglianza con riconoscimento dei volti delle persone, utilizzati sia a livello delle esperienze di consumo, che nelle azioni di sorveglianza per sicurezza negli ambienti pubblici.

Nel 1991, durante la guerra del Golfo viene applicato un sistema di pianificazione logistica automatizzata delle azioni di guerra aerea, tecnologia poi adottata, nei principi, anche dai sistemi di prenotazione dei voli aerei, per la selezione delle proposte e la definizione delle tariffe proposte.

Gli stessi motori di ricerca in Internet, i sistemi anti spam, il traffico delle mail, i meccanismi di transazione basati su carta di credito ed altre applicazioni, sono basate su algoritmi di Intelligenza Artificiale.

Altro esempio molto sviluppato è adottato nei meccanismi di calcolo e gestione degli strumenti finanziari sul mercato azionario, mediante algoritmi che operano ad altissima frequenza gestendo operazioni e transazioni mirate alla massimizzazione dei risultati. Ormai negli USA più del 50% delle transazioni azionarie sono governate da algoritmi di questo genere, compreso quello che nel 2010 ha provocato il noto “flash crash”, in seguito al quale per pochi secondi, a causa di un funzionamento perverso di interpretazione di fenomeni governati da robot informatici, si arrivò a registrare perdite di oltre 1.000 miliardi di USD, poi recuperati in breve tempo.

Il problema, nella realtà, fu generato dalla interazione di numerosi strumenti anche semplici, non molto sofisticati, , ognuno dei quali ha interpretato l’azione degli altri ed ha reagito come era stato programmato, dimostrando che l’interazione di elementi semplici (causa-effetto) non rappresenta sempre la soluzione più adeguata, in quanto possono crearsi situazioni che rimangono poco probabili, ma che se accadano possono avere effetti disastrosi. Anche questo, in ogni caso, è stato un momento molto importante nella evoluzione dei meccanismi di automazione, che ha evidenziato la possibilità di realizzazione di fenomeni inattesi, spingendo a migliorare le caratteristiche dei vari sistemi e identificando dei limiti nella loro interazione, potendo così attivare meccanismi sempre più adeguati a cercare di prevenire derive potenzialmente disastrose.

Pensate cosa avrebbe potuto succedere, se tale disfunzione si fosse realizzata nei meccanismi di gestione della difesa militare nazionale, osservando il comportando di sistemi avversari.

Il tema è che sempre legato al fatto che  l’algoritmo fa’ ciò che è programmato per fare, semplicemente e quindi anche in questo caso, il fattore debole è la capacità previsionale ed operativa dell’uomo.

E sempre più applicazioni sono in fase di sviluppo, che interagiscono con la nostra vita quotidiana in modo sempre più pervasivo, aprendo nuove possibilità, scatenando grandi potenzialità, ma anche rischi e scenari assolutamente nuovi anche dal punto di vista legale, sociale ed etico.

Se l’invenzione della “superintelligenza” dovesse effettivamente essere l’ultimo sforzo che dovrà fare l’homo sapiens nel suo percorso evolutivo, speriamo non sia perché verrà reso inutile e schiavo delle sue stesse capacità di innovazione.

_______________________________________________________________________________________

By Angelo Diego Bertini – CoFounder of DEVENIO srl

_______________________________________________________________________________________