Print Friendly, PDF & Email

tempofertile

Jerry Kaplan, “Le persone non servono”

di Alessandro Visalli

Il libro di Jerry Kaplan, imprenditore e ingegnere informatico, esperto di Intelligenza Artificiale che ha seguito dall’avvio del termine negli anni cinquanta è del 2015, cui ha fatto seguito “Intelligenza artificiale”, dell’anno successivo.

In entrambi Kaplan si impegna a diradare un poco del fumo rilasciato da decenni dal marketing delle aziende produttrici (di hardware e software, a partire da IBM negli anni cinquanta) e dalla strategia competitiva dei dipartimenti universitari in caccia di lucrosi finanziamenti e per questo di eccitanti etichette. La cosiddetta “intelligenza artificiale” non ha nulla del primo termine, almeno in senso antropologico, in sostanza chiedersi se un software di automazione è “intelligente” è tanto pertinente quanto chiedersi se un sottomarino nuota: fa il suo lavoro, ma non lo fa in quel modo.

I software non hanno menti, ma sono veloci, e ottengono i loro risultati, ma noi non sappiamo come.

Alla fine Kaplan rinvia allo stesso allarme che viene da tante parti: siamo alla vigilia di un gigantesco scontro tra modi di fare le cose, dietro le quinte, che coinvolgerà un’enorme quantità di attività produttive fisiche e mentali. L’autore, che è certamente lontano da questa prospettiva, dà ragione a Marx nel senso che lo scontro è alla fine tra capitale e lavoratori, la cui forza-lavoro è sempre meno centrale, dunque vale sempre meno.

Ed alla fine l’accumulo di risorse nelle mani di una quota sempre minore, che non necessita della restante umanità come forza produttiva (per la prima volta nella storia) potrebbe “buttare fuori bordo” tutti gli altri (p.22). Se ciò succederà, o se si troveranno altri modi di includere anche le persone, mentre sciami di lavoratori artificiali piccoli come insetti, controllati in cloud da server remoti e software dotati di “intelletti sintetici” assolvono in pratica a tutti i compiti che oggi riusciamo ad immaginare, dipende in tutto dal ritmo.

Non è infatti la prima volta che una drastica sostituzione di ‘piattaforma tecnologica’, e quindi di competenza umana, avviene nella storia. Tutte le volte che le innovazioni “a grappolo” (ovvero che si rafforzano vicendevolmente) si sono fatte avanti, vincendo la resistenza della consuetudine e spiazzando milioni di persone c’è stata una crisi maggiore: il socialismo è nato da una di queste, e il trentennio glorioso da un’altra. Ma ogni volta la trasformazione si è svolta nell’arco di decenni, quasi un secolo la prima, almeno un trentennio la seconda, oggi potrebbe essere sia più veloce sia più radicale. Perché la produttività migliorando si riverberi in benessere diffuso e questo faccia emergere nuovi bisogni e desideri non soddisfatti dalla ‘piattaforma’, mettendo al lavoro coloro i quali in questa erano stati emarginati, è necessario che la distruzione proceda gradualmente e progressivamente gli espulsi siano sostituiti (o si adeguino con l’opportuna formazione). Come dice l’autore “con il mercato del lavoro, così come con il riscaldamento globale, è il ritmo che conta, non il fatto in sé. I lavoratori attuali potrebbero non avere né il tempo né l’opportunità di acquisire le competenze richieste dai nuovi lavori. E il reddito medio è un dato inutile se un piccolo gruppo di oligarchi ricchissimi si prende la parte più grande, mentre tutti gli altri vivono in relativa povertà”.

Si tratta del solito allarme, insomma. Il libro è però insolitamente informato sui meccanismi tecnici di questo rischio tecnologico. A partire dal seminario che nel 1956 coniò il termine stesso di “intelligenza artificiale”, sulla base di un finanziamento certamente interessato (a vendere i mainframe alle aziende ed alle amministrazioni) della IBM. L’idea era all’epoca di dividere un problema in molte piccole routine più gestibili (anche dalle piccole potenze di calcolo ed immagazzinamento dati dell’epoca) per ottenere dei risultati operativi incorporati nel sistema; si trattava di quel che fu chiamato “l’approccio simbolico ai sistemi”.

Man mano che la potenza di calcolo aumentò si tentarono nuovi approcci all’automazione: furono introdotti quindi i cosiddetti “sistemi esperti”, basati sul tentativo di incorporare l’esperienza degli esperti nelle routine dei software.

E quindi si arrivò alla proposta di una architettura per livelli, in cui uno strato elabora l’informazione propagandola ad uno superiore: si tratta dei cosiddetti “network neurali”. Ancora una metafora per antropomorfizzazione.

Da ultimo, per ora, con l’immane capacità di archiviazione diffusa e di potenza di calcolo si è visto che in qualche modo l’automazione funziona bene se può accedere ad esempi ed estrarre regolarità senza essere diretta passo a passo. È il “machine learning” e l’approccio dei “big data” (p.34), che è reso possibile direttamente dall’accesso ai dati e sorprendentemente “trova” la risposta senza capire come. Un esempio sono le sempre migliori traduzioni automatiche. Quando ho iniziato il blog, quattro anni fa, erano del tutto inutilizzabili, oggi aiutano (ad esempio ad approcciarsi con lingue non conosciute, anche se funzionano meglio dove hanno più esempi di traduzioni a cui riferirsi, dunque all’inglese ed ai contenuti meno specialistici), domani spazzeranno il mondo.

Bisogna fissare questo concetto: l’attuale automazione ottiene il risultato, ma non sappiamo come e non riusciamo neppure a stargli davvero dietro. Ma non pensa, non è cosciente pur potendo avere obiettivi.

Ma se questo accade ai software (che per lo più sono ormai in cloud e forniti come servizio) cosa accade alle macchine vere e proprie? Per l’autore “presto, praticamente qualunque compito fisico voi possiate immaginare sarà soggetto all’automazione: dipingere spazi interni e esterni, preparare pasti, lavare le stoviglie, pulire locali, servire cibo, rifare i letti, preparare la biancheria, …”. Saranno necessari alcuni requisiti, l’energia, la consapevolezza, il ragionamento, i mezzi. Ma questi requisiti possono essere diffusi in luoghi diversi.

Il valore sarà nei dati e non nei programmi, è da tempo così. L’intera finanza moderna si basa sul semplice concetto di garantire un arbitrato su steroidi grazie ad analisi sempre più sofisticate e sempre più rapide di segnali deboli e confronti. Qualche volta va male, come il 6 maggio 2010, quando un ciclopico scontro tra software di trading repentinamente provocò un crollo fermato appena in tempo.

Si tratta quindi di un territorio selvaggio che si manifesta anche tutte le volte che esce un annuncio internet a fianco delle nostre ricerche. Silenziosamente software automatici si confrontano per vincere l’asta che si accende per la nostra query, interpretano i nostri dati e forniscono l’annuncio più adatto.

Altri esempi sono nel modello di business di Amazon (p.94) che aggiusta continuamente il prezzo, utilizzando la massa di dati di cui dispone.

Se l’automazione sostituisse, in un tempo breve, i lavoratori corrispondenti alla maggior parte delle competenze (agricoltori, magazzinieri, medici, professori, lavoratori del sesso, …) i cambiamenti distributivi sarebbero enormi e difficilmente gestibili.

Il problema è che questi software e sistemi automatici operano secondo obiettivi individuali programmati dai proprietari, ma alla fine tendono ad operare alla cieca, ognuno per sé. Lo scontro potrebbe metterci in mezzo. Kaplan propone che si introducano in proposito alcune precauzioni: evitare che un sistema possa possedere se stesso, e programmare una sorta di “responsabilità morale” (p.80), prima che sia troppo tardi. Un poco l’idea di Asimov.

Ciò anche per evitare che la futura crescita economica sia interamente basata sul reddito concentrato in alto ed autoreferente. Secondo i dati forniti ormai negli Stati Uniti l’1% possiede più di 20.000 miliardi di dollari e quindi potrebbe permettersi di dare lavoro (spendendo ogni anno il 10%) a 60 milioni di persone per soddisfare i propri consumi di lusso. L’intera spesa al dettaglio, e quindi macchina produttiva, potrebbe essere orientata in questa direzione.

La parte costruens del testo si rifà ad uno schema di Milton Friedman (p.144) e cerca di ottenere la distribuzione più egualitaria degli anni settanta (che è il suo obiettivo) attraverso la separazione di lavoro e reddito, essenzialmente incentivando la diffusione dei diritti di proprietà attraverso un opportuno disegno fiscale.

Pensando che la dinamica dell’automazione è inarrestabile l’obiettivo diventa ottenere da una parte “robot civilizzati”, dall’altra sistemi responsabili e controllati da collettività più ampie possibili (mai da se stessi ed “allo stato brado”). Il lavoro resta marginale, in carico ad una élite di utili e agli hobbisti.

Escludendo dal novero delle soluzioni accettabili “per la sensibilità odierna” il socialismo, che sarebbe a sua ammissione “una possibile risposta” (“Intelligenza artificiale”, p.179), e salvando la proprietà individuale dei beni, l’idea è insomma di passare da un’economia basata sul lavoro ad una “basata sui patrimoni”.

Certo, in questo modo, “le società sono destinate a dividersi tra edonistici ‘hippy’ senza un soldo ed egocentrici, ambiziosi ‘yuppie’”.

Si tratta della stessa idea di Tyler Cowen in “La media non conta più”, che immagina ancora più duramente e realisticamente che i ricchi si vorranno tenere tutto, e non accetteranno i piani di ridistribuzione fiscale (neppure amichevoli come quello di Kaplan) e non pagheranno più tasse, perché sono mobili e non lo vogliono (ivi, p.222). La società si polarizzerà ancora di più, ed anche geograficamente. Alcune aree per gli ‘Yuppie’ diventeranno lussuose e superprotette (da eserciti di automi e di schiavi umani), mentre chi si sposterà “fuori della rete”, gli ‘hippy’ di Kaplan, rimodelleranno se stessi facendo di necessità virtù.

Quel che i due autori conservatori immaginano è nel novero del possibile, ma dimentica che tutto il potere è concesso dagli uomini. Siamo noi che lo attribuiamo, noi che possiamo revocarlo: se, appunto, ricordiamo di essere un “noi” e non tanti “io” soli, poveri e impotenti.

Add comment

Submit