Print Friendly, PDF & Email

eticaeconomia

L’Intelligenza Artificiale: dal “grande furto” a una più giusta distribuzione dei profitti

di Fabio Massimo Zanzotto

A poco a poco i giornali stanno rivelando il fantastico futuro che l’Intelligenza Artificiale (IA) ci riserva: macchine intelligenti sono, praticamente ovunque, pronte ad aiutarci, sostituendoci nei lavori ripetitivi sia fisici che cognitivi e donandoci tempo che potremo dedicare alle nostre attività preferite.

Purtroppo, il luminoso futuro prospettato dall’IA ha un possibile e tremendo lato oscuro: una drammatica contrazione dell’occupazione che potrebbe non essere un fenomeno di breve durata. Le persone, i governi e i “think tanks” sono spaventati. Il McKinsey Global Institute (MGI) prevede che l’IA possa rimpiazzare al livello mondiale l’equivalente di 1,1 miliardi di lavoratori assorbendo un reddito di $15,8 trillioni di dollari (James Manyika et al., Harnessing automation for a future that works, McKinsey Global Institute, 2017). Quindi, liberando gli individui dai lavori ripetitivi, queste future macchine dotate di IA potrebbero lasciare una grandissima parte di cittadini con il valore del loro lavoro insufficiente a garantire uno standard di vita socialmente accettabile (Peter Stone et al., Artificial intelligence and life in 2030. Technical report, One Hundred Year Study on Artificial Intelligence: Report of the 2015-2016 Study Panel, Stanford University, Stanford, CA, September 2016).

Come affermato in un rapporto dell’amministrazione Obama, il travolgente progresso dell’IA, se non si trovano mezzi correttivi adeguati, può determinare, ed in qualche caso ha già iniziato a farlo, un cambiamento distruttivo dei mercati locali (Executive Office of the President of the United States of America. Artificial Intelligence, Automation, and the Economy. 2016).

Nel prossimo futuro potremmo trovarci con schiere di persone alla ricerca di un lavoro, che avranno bisogno di un supporto finanziario per vivere e eventualmente riqualificarsi per lavori che ancora non conosciamo.

Fortunatamente, questa possibile crisi del mercato del lavoro ha un antidoto incorporato: l’ascesa dell’IA è sostenuta dal più grande furto di conoscenza degli anni recenti che potrebbe diventare una sorgente di redditi infiniti per alcune imprese transnazionali. I lavoratori, facendo il loro lavoro con passione lasciano importanti tracce su cui si basa l’apprendimento di queste intelligenze artificiali. Quindi, queste ultime sono in grado rimpiazzare i lavoratori perché “rubano” la loro conoscenza. È un po’ quello che succedeva con il garzone che “rubava” il mestiere all’artigiano. Ma, questo era socialmente accettabile poiché quel garzone era soltanto uno e non replicabile all’infinito. Invece, nel caso delle intelligenze artificiali, la conoscenza “rubata” diventa un mezzo per produrre reddito indefinitamente. Questo è un gigantesco problema in quanto solo una piccolissima frazione della popolazione – soprattutto gli azionisti e i manager delle imprese di IA – può beneficiare di questo reddito infinito. I veri insegnanti di queste intelligenze artificiali, ovvero i lavoratori ignari, non parteciperanno in nessun modo a questa redistribuzione del reddito. Essi, facendo con passione il proprio lavoro, scavano, senza saperlo, la propria fossa.

Partendo dunque dall’assunto che ogni sistema dotato di IA sfrutta conoscenza umana, ho recentemente proposto il concetto di Human-in-the-loop Artificial Intelligence (HitAI) come un paradigma più giusto per costruire sistemi basati sull’IA (F.M. Zanzotto, Human-in-the-loop Artificial Intelligence, arXiv:1710.08191).

I sistemi di IA proposti nella filosofia HitAI devono essere in grado di dare indietro parte dei profitti ai produttori originali della conoscenza che possono essere considerati i suoi legittimi proprietari. L’idea chiave è che ogni interazione di macchine IA che genera profitto deve costantemente ripagare chi ha prodotto la conoscenza che supporta quella interazione. Prevedere una compensazione per ogni interazione delle macchine IA è estremamente importante. Infatti, ne può derivare un incentivo a lavorare meglio oggi e, dunque, a consentire di produrre macchine IA migliori domani. In particolare, il lavoratore sarà incentivato a trattare meglio i casi difficili se la futura distribuzione dei profitti dipenda dalle soluzioni date ai casi difficili.

Naturalmente, realizzare la filosofia di HitAI è estremamente difficile e pone due importanti sfide: la sfida “politica” per fare in modo che le grandi imprese dell’IA condividano i profitti con i produttori dei dati; la sfida “infrastrutturale” di riuscire a gestire questo nuovo modello di ciclo di vita della conoscenza.

La sfida “politica” è veramente dura: fare in modo che le grandi imprese dell’IA condividano profitti che oggi considerano loro può apparire un’impresa impossibile e potrebbe effettivamente esserlo. Ma, “se una società libera non può aiutare i molti che sono poveri, questa società non può salvare i pochi che sono ricchi” (J.F. Kennedy, Inaugural Speech, 1961). Infatti, nel lungo periodo, se non si trova un modo per redistribuire i redditi ai produttori di conoscenza – tendenzialmente i poveri -, il mercato globale potrebbe collassare e, quindi, anche le grandi compagnie – tendenzialmente i ricchi – possono perdere quei benefici di cui oggi godono. Questo argomento, benché ragionevole difficilmente convincerà gli amministratori delle imprese di AI che, peraltro, normalmente sono focalizzati sul breve periodo. Quindi, se convincere le grandi imprese è impossibile, occorrono politiche che le costringano a condividere i benefici. Una possibilità per ottenere questo è cominciare a proteggere i dati personali con due leve:

1) una leva legale: proteggere la produzione inconsapevole della conoscenza estendendo la legge sul copyright

2) una leva tecnologica: promuovere nuovi “file system consapevoli della proprietà” che accettano e rilasciano dati solo se il possessore è specificato.

Entrambi le leve dovrebbero essere promosse dai governi. La leva legale richiede tempo per essere attuata perché richiede un coordinamento a livello internazionale. La leva tecnologica invece può essere estremamente più veloce perché può essere finanziata da governi locali e poi può essere adottata a cascata dagli utenti resi consapevoli. Infatti, i file system consapevoli della proprietà potrebbero diventare oggetto di richieste tanto pressanti quanto quelle che riguardano i file system che criptano i dati, che si sono diffusi recentemente.

La sfida “infrastrutturale” è differente ma di nuovo difficile: HitAI ha bisogno di tecnologie sicure per gestire il ciclo di vita della conoscenza dei sistemi di IA. Gestire un tale ciclo di vita pone severe sfide tecniche e interessanti questioni morali. Infatti, gestire il ciclo della conoscenza di HitAI è molto più difficile di utilizzare semplicemente la conoscenza, dimenticando chi l’ha prodotta. Potrebbe risultare molto complicato sapere quale conoscenza ha generato una scelta del sistema di IA e tracciare il produttore di questa conoscenza per remunerarlo.

Per costruire questo ciclo di vita della conoscenza sicuro, abbiamo bisogno di investigare due aspetti: (1) come costruire sistemi di IA in cui le scelte siano spiegabili; (2) come costruire tecnologie fidate. Effettivamente, costruire sistemi di IA spiegabili è necessario perché è necessario sapere esattamente quale elemento della conoscenza è la causa di una decisione di un sistema di IA. Questo sembra essere oggi fuori portata per le reti neurali, ma esistono numerosi algoritmi di IA per i quali è possibile spiegare le scelte in funzione della conoscenza utilizzata. Realizzare tecnologie fidate è il secondo problema che però richiama la soluzione precedentemente introdotta, ovvero il file system consapevole della proprietà. In HitAI si ha bisogno di garantire che i dati possano girare avendo sempre contezza di chi sia il proprietario, ma allo stesso tempo devono essere in grado di non rivelare il proprietario. Un sistema di controllo del genere potrebbe basarsi sulla tecnologia delle cosiddette Block Chains.

Con l’aiuto pubblico, l’HitAI potrebbe vincere le due sfide – quella politica e quella infrastrutturale – e potrebbe gettare le basi per far crescere una società più giusta, nella quale si riconosca che ogni sistema basato sull’intelligenza artificiale sfrutta in qualche modo conoscenza umana. Quindi, nello schema HitAI, i guadagni accumulati usando sistemi di IA dovranno essere redistribuiti a tutti coloro che hanno fornito la conoscenza necessaria per costruirli. Come moderni briganti della foresta di Sherwood, i ricercatori in HitAI dovrebbero combattere per una IA à la “Robin Hood” che dia indietro a chi è stato “derubato”.

Add comment

Submit