Print Friendly, PDF & Email

iltascabile

Le origini dell’Intelligenza Artificiale

di Andrea Daniele Signorelli*

Negli anni Cinquanta nasceva Mark I Perceptron: la prima macchina in grado di simulare il funzionamento dei neuroni

Nel 1958, un articolo del New York Times presentava una nuova meraviglia tecnologica: “Il cervello elettronico che insegna a se stesso: nel giro di un anno sarà in grado di percepire, riconoscere e identificare ciò che lo circonda, senza bisogno di controllo o addestramento da parte dell’uomo”. Vi ricorda qualcosa? Considerando il gran parlare che si fa dell’intelligenza artificiale, molto probabilmente sì. Le promesse potenzialità di quel cervello elettronico erano ancora più vaste: avrebbe dovuto imparare a pensare come gli umani, diventare cosciente di sé e, un giorno, sarebbe potuto partire per visitare “altri pianeti come una sorta di esploratore spaziale meccanico”.

Insomma, le aspettative erano decisamente elevate; perché allora ci sono voluti quasi sessant’anni per trasformare parzialmente in realtà quelle promesse? Per capirci qualcosa, dobbiamo prima fare un altro passo indietro. Negli anni Quaranta, i biologi stavano sviluppando le prime teorie per spiegare come l’intelligenza e l’apprendimento fossero il risultato dei segnali trasmessi tra i neuroni nel cervello umano. La tesi fondamentale – che poi è quella valida ancora oggi – era che i collegamenti tra alcuni neuroni si rafforzassero attraverso la frequenza delle comunicazioni.

È il meccanismo che fa sì che la prima volta che vi cimentate in una nuova azione siete incerti, ma col passare del tempo acquistate sempre più confidenza. I tentativi riusciti rafforzano il collegamento tra i neuroni coinvolti in una specifica azione.

Sulla base di queste nuove conoscenze, nel 1943 due pionieri come Warren McCulloch e Walter Pitts pubblicarono un paper in cui mostravano come un semplice sistema di neuroni artificiali potesse essere in grado di eseguire delle funzioni logiche basilari. Almeno in teoria, questo sistema poteva imparare nello stesso modo in cui impariamo noi: usando l’esperienza ed eseguendo quei tentativi ed errori che, come detto, rafforzano o indeboliscono le connessioni tra neuroni. “Il sistema neurale artificiale proposto dai due ricercatori avrebbe funzionato come il cervello, modificando le relazioni numeriche tra i neuroni artificiali sulla base dei tentativi e degli errori”, si legge in un più recente articolo sempre del New York Times. “Quindi, non avrebbe dovuto essere pre-programmato con regole fisse; piuttosto, avrebbe riscritto se stesso per riflettere gli schemi che emergevano dai dati assorbiti dalla macchina”.

Quello proposto da MuCulloch e Pitts era un sistema artificiale evoluzionista; un modello che negli anni Cinquanta venne portato avanti dai (pochi) ricercatori convinti che il modo migliore per arrivare a una intelligenza artificiale fosse quello di ricalcare i meccanismi dell’apprendimento umano e permettere al “cervello elettronico” di imparare autonomamente, scovando i pattern all’interno dei dati che gli vengono forniti. Una modalità flessibile, che consente di modificare le competenze in base ai dati.

Ma i ricercatori che utilizzavano questo modello “dal basso”, dai dati, erano una piccola minoranza. Dall’altra parte delle barricate scientifiche si trovavano gli scienziati convinti che una vera intelligenza artificiale potesse nascere solo se istruita dall’alto, fornita cioè di tutte le regole necessarie a portare a termine il suo compito: una logica “creazionista”, meglio nota come simbolica. Questo sistema funzionava in modo esattamente opposto a quello evoluzionista: prevedeva infatti che le macchine venissero indottrinate con tutte le regole necessarie per portare a termine un compito. Per tradurre dall’italiano all’inglese, per esempio, sarebbe stato necessario fornire al computer tutte le regole grammaticali e i vocaboli delle due lingue, per poi chiedere loro di convertire una frase da una lingua all’altra

Il modello simbolico è un sistema che ha portato a qualche successo (come sa bene Gary Kasparov), ma ha grossi limiti: prima di tutto, richiede agli esseri umani un lavoro enorme; inoltre, funziona solo in quei campi che hanno regole molto chiare: la matematica o, appunto, gli scacchi. Nella traduzione – con tutte le sue sfumature, eccezioni e importanza del contesto – non raggiunge livelli nemmeno lontanamente accettabili. Ma proprio il fatto che questa tecnica eccellesse in settori nei quali è richiesta parecchia intelligenza, come la matematica o gli scacchi, veniva considerato un segnale molto promettente da parte dei sostenitori della AI simbolica.

Il modello simbolico, quindi, era quello dominante dell’epoca. Nonostante questo, fu il modello evoluzionista ad affascinare Frank Rosenblatt, psicologo dell’università di Cornell che nel 1956, partendo dalle teorie di McCulloch e Pitts, ideò la prima macchina in grado di simulare a livello software e hardware il funzionamento dei neuroni. Il sistema a cui diede vita venne ribattezzato Mark I Perceptron, più comunemente noto solo come Perceptron. Ed eccolo, finalmente, il “cervello elettronico che insegna a se stesso” di cui parlava il New York Times: una macchina gigantesca, fittamente aggrovigliata da cavi e composta da motori e manopole collegati a 400 rilevatori di luce. Il tutto, per simulare il comportamento di otto neuroni.

“Ognuno di questi neuroni riceveva una parte dei segnali emessi dai rilevatori di luce, li combinava e a seconda di quale fosse il risultato, emetteva un 1 o uno 0”, si legge sulla MIT Tech Review. “Messe assieme, queste cifre fornivano la ‘descrizione’ di ciò che il Perceptron aveva visto. Inizialmente, i risultati furono pessimi, ma Rosenblatt utilizzò un metodo chiamato ‘apprendimento supervisionato’ per addestrare il Perceptron a generare risultati in grado di distinguere correttamente forme diverse”. E così, per esempio, contrassegnare correttamente un triangolo o un quadrato.

Oggi, i network neurali usano algoritmi complicatissimi, simulano il comportamento di milioni di neuroni e hanno miliardi di connessioni tra di loro; ma il funzionamento alla base è lo stesso del Perceptron: dati, apprendimento supervisionato, tentativi ed errori. Quando una prova va a buon fine, il legame tra i neuroni che hanno portato al risultato corretto si rafforza; quando invece fallisce, si indebolisce.

Il progetto di Rosenblatt attirò l’attenzione della marina USA, che decise di finanziarlo. E fu forse per assicurarsi questi finanziamenti che Rosenblatt fece promesse esagerate, affermando che il suo Perceptron sarebbe stato a breve in grado di riconoscere le persone e compiere, col tempo, tutte le straordinarie imprese citate dall’articolo del New York Times. Quando venne svelato il primo prototipo, nel 1958, il Perceptron era un macchinario da 5 tonnellate che occupava una stanza intera. Ma sapeva solamente distinguere la destra dalla sinistra.

Probabilmente lo stesso Rosenblatt sapeva benissimo quanto assurde fossero le aspettative riposte nel Perceptron. Nella prefazione al suo libro Principles of Neurodynamics (1962), racconta: “Il perceptron, originariamente, doveva essere un nome generico per una varietà teorica di reti neurali, ma ha la sfortuna di indicare invece un pezzo di hardware. È solo con grande difficoltà che riesco a convincere i suoi divulgatori, armati di buone intenzioni, a non usare la P maiuscola. E quando mi chiedono, Come sta andando il Perceptron oggi?, sono tentato di rispondere, Molto bene, grazie. E invece come vanno il Neurone e l’Elettrone?”.

Al di là di questo aneddoto (Rosenblatt mi perdonerà, ma anche in questo articolo Perceptron va con la maiuscola), la prefazione proseguiva segnalando altri aspetti decisivi: “Per il sottoscritto, il programma del perceptron non ha lo scopo di inventare dispositivi per l’intelligenza artificiale, ma piuttosto di indagare le strutture fisiche e i principi neurodinamici che stanno alla base dell’intelligenza naturale. Un perceptron è prima di tutto un modello cerebrale, non un’invenzione per la pattern recognition”.

E pensare che era stato presentato, solo quattro anni prima, come una macchina che sarebbe andata nello spazio! Nonostante il ridimensionamento delle aspettative, il lavoro su questo modello di network neurale andò avanti ancora per qualche anno. D’altra parte, il Mark I Perceptron era un sistema rudimentale, dotato di due soli strati di neuroni: uno per l’input (dei dati) e l’altro per l’output (dei risultati). Il lavoro di Rosenblatt si concentrò allora sulla possibilità di creare reti più complesse, organizzandole in una gerarchia di molteplici strati. Passando i dati da uno strato all’altro, sarebbe infatti stato possibile creare pattern di pattern e risolvere così problemi sempre più complessi (esattamente, in effetti, come avviene oggi con il deep learning).

In poche parole, la teoria era tutta giusta; mancava ciò che oggi si possiede in abbondanza: potenza di calcolo e quantità immense di dati. Durante i tardi anni Cinquanta e i primi anni Sessanta, Rosenblatt si trovò ad affrontare accese discussioni durante le conferenze scientifiche del tempo, il più delle volte dibattendo con uno dei pionieri della AI: Marvin Minsky, docente di ingegneria informatica al MIT di Boston, estremamente scettico sulle potenzialità della creatura del rivale. Motivato anche dal fatto che, secondo le malelingue, i due fossero in competizione per i fondi della Difesa, Minsky decise di mettere una pietra tombale sul lavoro di Rosenblatt, pubblicando un libro – Perceptrons (1969), scritto assieme a Seymour Papert – che stroncò definitivamente il lavoro svolto da Rosenblatt.

Il saggio dimostrò matematicamente come i network neurali fossero in grado di compiere solo alcune elementari operazioni (quelle linearmente separabili); mentre non c’era speranza che portassero a termine compiti più complessi (qui una brevissima spiegazione del problema scovato da Minsky). Certo, ammetteva nel libro, aggiungendo altri strati tra i neuroni dell’input e dell’output sarebbe teoricamente possibile risolvere problemi più difficili, ma nessuno aveva idea di come addestrarli e, quindi, anche quel potenziale sviluppo era del tutto inutile.

Il risultato fu la fine della ricerca sui network neurali e le loro potenzialità, per oltre un decennio. Di colpo, tutti gli scienziati tornarono a occuparsi dell’intelligenza artificiale simbolica. Ma nemmeno il ritorno alla “good-old-fashioned-artificial-intelligence” portò a grandi risultati: nel 1980, un ricercatore di robotica della Carnegie Mellon mostrò come i sistemi simbolici fossero sì in grado di giocare a scacchi, ma fosse per loro impossibile eseguire compiti che anche un bambino di due anni sarebbe stato in grado di svolgere, come tenere in mano una palla o riconoscere la foto di un gatto. Se il Perceptron aveva fallito, nemmeno la AI “vecchia maniera” aveva tenuto fede alle promesse.

Ciononostante, chi in quegli anni credeva nell’approccio dal basso, evoluzionista e basato sul dare in pasto ai software dei dati grezzi (insomma, quello del Perceptron), veniva ancora considerato una sorta di reietto. Per capire il sentimento di rifiuto che circondava quello che sarebbe poi diventato il campo fondamentale della AI, basti fare riferimento ai ricordi di uno dei padri del machine learning, Yann LeCun – oggi direttore della ricerca sulla AI a Facebook – che da studente di ingegneria a Parigi, nei primi anni Ottanta, incrociò i “testi proibiti” di Rosenblatt e gli studi sul Perceptron, restandone stupefatto: “Non riuscivo a credere che fossero sulla strada giusta e l’avessero invece abbandonata”.

LeCun passò giorni interi in una libreria nei dintorni di Versailles, a setacciare paper e ricerche pubblicate prima che il Perceptron e i network neurali finissero nell’oblio. Pochi mesi dopo, scoprì che un piccolo gruppo di ricercatori della Carnegie Mellon, negli Stati Uniti, aveva ripreso a lavorare di nascosto sui network neurali. Le parole di LeCun sembrano fare riferimento agli adepti di una setta eretica: “Era un movimento veramente underground; i loro paper erano attentamente purgati da ogni parola come ‘neurale’ o ‘apprendimento’ per evitare di venire rifiutati. Di fatto, stavano lavorando su qualcosa di estremamente simile al metodo utilizzato da Rosenblatt per addestrare il Perceptron; solo usando network neurali con molteplici strati”.

Una teoria adeguata, insomma, c’era già da decenni. E la rivoluzione informatica in corso negli anni Ottanta stava fornendo almeno uno dei due elementi fondamentali al successo delle intelligenze artificiali: un crescente potere di calcolo. Nel 1985, LeCun si unì a questo movimento di reietti, subito dopo aver conosciuto il loro leader (e altro grande padre della AI moderna) Geoff Hinton, oggi capo della ricerca a Google. Pochi anni dopo, si trasferì brevemente con lui all’università di Toronto, dove iniziò a prendere forma la rivoluzione informatica che oggi è sotto gli occhi di tutti.

Per lungo tempo, il lavoro sui neural network è rimasto confinato negli angoli più remoti della ricerca scientifico-informatica; ci sono voluti decenni prima che la combinazione fondamentale di potere di calcolo e disponibilità di enormi quantità di dati (forniti grazie a internet, al web, ai social media e quant’altro) facessero esplodere quella che oggi viene considerata la base di una nuova rivoluzione industriale. Nel 2012, un paper di Hinton e dei suoi studenti di Toronto (dove ancora oggi insegna) stupì il mondo informatico mostrando le potenzialità delle reti neurali nel riconoscimento immagini: era nato il deep learning. Nel frattempo, il Perceptron di Rosenblatt – che fu la base di tutto ciò – continua a prendere polvere là dove si trova dalla fine degli anni Sessanta: allo Smithsonian Institute, un museo.


*Andrea Daniele Signorelli milanese, classe 1982, si occupa del rapporto tra nuove tecnologie, politica e società. Scrive per La Stampa, Wired, Il Tascabile, Pagina99 e altri. Nel 2017 ha pubblicato “Rivoluzione Artificiale: l’uomo nell’epoca delle macchine intelligenti” per Informant Edizioni.

Add comment

Submit