Print Friendly, PDF & Email

minimamoralia

I lati oscuri del web (e come possiamo ancora provare a salvarci)

di Luca Pantarotto

datacenter 640x420C’era una volta il futuro. Per buona parte del Novecento l’abbiamo sognato, inseguito e temuto, sulla cresta di un’onda tecnologica sempre più inarrestabile che sembrava porsi l’obiettivo di tradurre in realtà, nella seconda metà del secolo, ciò che i più audaci scrittori di fantascienza avevano immaginato nella prima. Negli anni ’80 e ’90 la mia generazione si è nutrita, a tutti i livelli dell’immaginario, di scenari futuristici in cui l’uomo si sarebbe invariabilmente trovato al centro di dinamiche di controllo o di conflitto legate a una crescita sfrenata del ruolo delle macchine nella nuova società, accompagnata di volta in volta da vari gradi di inquietudine, dall’ansia generica e sottile all’apocalisse imminente.

Un genere di storie che seguiva più o meno sempre la stessa curva: da una situazione iniziale di entusiasmo tecnocratico che portava l’umanità a delegare alle macchine funzioni e competenze sempre più estese, dall’amministrazione domestica al controllo degli armamenti nucleari, si scivolava verso un punto di non ritorno in cui le macchine stesse, ormai detentrici di intelligenza e capacità decisionali perfettamente autonome, si accorgevano di non aver più bisogno dell’uomo, apprestandosi quindi ad assoggettarlo, incorporarlo o sostituirlo. Finché qua e là iniziavano a formarsi nuclei di resistenza che, in formazioni via via più cospicue, sferravano l’attacco finale al centro del potere in nome del ritorno alla libertà e una società nuovamente antropocentrica.

Le implicazioni di un topos così fertile sono evidenti, e infatti negli anni si è costruita, intorno alla contrapposizione uomo-macchina, una vera e propria tecnomitologia coesa e perfettamente definita nelle sue caratteristiche. E poco importa che poi il futuro abbia preso un’altra direzione, e che oggi gli scenari catastrofici che per decenni hanno alimentato il nostro immaginario suonino più fantascientifici delle navi da combattimento in fiamme al largo dei bastioni di Orione.

Perché, se è vero che il futuro (cioè il nostro presente) non è ancora dominato da robot senzienti che sovrintendono al posto nostro a ogni aspetto dell’esistenza, è innegabile che, appena sotto la superficie della nostra realtà quotidiana, agiscano intelligenze artificiali meno appariscenti, e perciò più sottili e insinuanti, di quegli automi umanoidi che sognavamo da piccoli: gli algoritmi. Processi matematici intelligenti e adattivi in grado di setacciare ogni nostra minima attività in rete, classificando e archiviando gusti, interessi, preferenze, opinioni, simpatie, antipatie per accumulare un patrimonio di metadati collettivi da cui estrarre tendenze e modelli di comportamento, attitudini cicliche o eccentriche nella gestione delle nostre scelte, paradigmi cognitivi e relazionali, tutto.

In un film, questo sarebbe il momento in cui qualche personaggio se ne uscirebbe con una frase del tipo: “Ci stanno studiando. E stanno imparando in fretta”. Nella realtà, ciò con cui abbiamo a che fare non è una malvagia intelligenza neurale alla Skynet, ma un motore di ricerca nato in un garage negli anni ’90, il cui motto, fino a pochi anni fa, sembrava il bonario consiglio di un capo-scout ai giovani lupetti in giro per raccogliere fondi vendendo caramelle: “Don’t be evil”, non essere cattivo. Un motto che, al di là di ideologie paternalistiche e filosofie apparentemente veteroumaniste, sembra nascondere ben più di un lato oscuro, per riprendere il titolo de Il lato oscuro di Google, la dettagliatissima ricerca con cui il collettivo hacker Ippolita ricostruisce storia, filosofia, evoluzioni e involuzioni del colosso di Mountain View. Una ricerca avviata nel 2007, con il volume Luci e ombre di Google (Feltrinelli), che torna ora in libreria in questa versione riveduta e aggiornata grazie a Milieu edizioni.

Nell’era della tecnocrazia undici anni sono un lasso di tempo siderale, al di là di ogni possibilità di preveggenza persino agli occhi dei futurologi più accorti; eppure ancora oggi le tesi di fondo espresse nel volume di Ippolita, pur inevitabilmente superate negli aspetti più tecnici, conservano una validità interpretativa quasi sorprendente nella capacità di tracciare linee evolutive di illuminante lungimiranza, mostrandosi capaci di intuire, sulla base dell’esempio di Google, la direzione che il web avrebbe preso negli anni successivi. Se infatti nel 2007, all’epoca della prima pubblicazione della ricerca, le ambizioni tecnocratiche di Google potevano sembrare già di per sé inquietanti, oggi non possiamo fare a meno di notare che il suo modello di business, basato su data mining e profilazione, era solo il punto di inizio di una concezione della tecnologia incarnata oggi al più alto grado dai social network, in grado di alterare, nei suoi esiti estremi, lo stesso comportamento umano.

Il lato oscuro di Google segue lo sviluppo della più grande corporation digitale del mondo fin dalle origini: l’incontro di Larry Page e Sergey Brin, i due fondatori, a Stanford nel 1995, l’elaborazione dell’algoritmo PageRank(TM) su cui si fonda il motore di ricerca di Google, fino alla costituzione della società Google Inc. con sede nel leggendario garage di Menlo Park nel 1998. Da lì la crescita si fa incontenibile, travolgente: e, con l’aumentare delle richieste rivolte quotidianamente all’interfaccia di Google (da centinaia di migliaia a decine di milioni), si pone il problema della sostenibilità economica dell’impresa. I finanziamenti che avevano consentito lo sviluppo iniziale, per quanto cospicui, presto non bastano più e a un certo punto, nel 1999, Brin e Page arrivano a proporre, senza esito, l’acquisto della loro creatura a Excite, per la cifra oggi ridicola di un milione di dollari (ribassata poi di un quarto di milione). La soluzione arriva nel 2000 con l’introduzione nel sistema di AdWords, uno strumento di self-service pubblicitario offerto agli inserzionisti, basato su parole chiave e integrato con il motore di ricerca; e poi nel 2004, con l’implementazione di AdSense, un servizio collegato ad AdWords che consente di inserire banner pubblicitari nei siti web. I nuovi strumenti permettono a Google di guadagnare dalle ricerche, mantenendo sempre pulita la propria interfaccia e trasformando, di fatto, la ricerca di informazioni e l’analisi dei comportamenti degli utenti in fonte di reddito.

La filosofia aziendale di servizio neutro e oggettivo all’utenza resta immutata, ma l’introduzione degli strumenti pubblicitari trasforma Google in qualcosa di profondamente diverso dal semplice motore di ricerca che, nelle intenzioni dei fondatori, si proponeva l’obiettivo di fornire il miglior risultato possibile perlustrando l’intera vastità della rete nel minor tempo. Non solo: l’integrazione di sistemi che, per poter funzionare, richiedono il tracciamento e la memorizzazione delle attività degli utenti danno il via a un nuovo modello tecnologico destinato a modificare drasticamente la stessa essenza originaria di Internet. Da luogo dell’informazione libera e anonima, la rete si avvia a diventare un repertorio sterminato di dati in cui gli utenti vengono tracciati e classificati da algoritmi corporativi al servizio della nuova Società della Prestazione, che monitora ogni fase dei processi decisionali umani.

Come spiega Ippolita, siamo di fronte al passaggio dall’Information Technology (IT) al Totalitarismo Informazionale (TI): una preponderanza dell’automazione sulla libera scelta, delle soluzioni algoritmiche sulla volontà indipendente, a cui si revocano persino azioni quotidiane come la scelta di una camicia (la campagna “Fallo fare a Google” di questi giorni va precisamente in questa direzione) o la compilazione della propria agenda personale. Una forma di onnipresenza che si esplicita, come argomenta Ippolita, nell’infinita moltiplicazione dei servizi offerti, dal 2015 riuniti, insieme a tutte le attività principali e sussidiarie di Page e Brin, nell’ambiziosa conglomerata Alphabet: l’impresa egemonica con cui Google mostra, fin dal nome, l’intenzione nemmeno troppo dissimulata di ricomprendere al proprio interno non solo tutta la rete, ma l’intera gamma delle esigenze umane, ponendosi in un certo senso come la prima e indispensabile via di accesso al mondo dell’esperienza. Per poter così ancora meglio “rivolgersi a Tutti, Ovunque, Sempre”.

L’accumulo di prerogative concentrate nella sterminata mole di attività di Alphabet finisce così per dilatare sempre di più i già vasti confini della condizione primaria che, dall’inizio, ha reso possibile tutto questo: la delega della fiducia: l’atto di abdicazione con cui individui e società hanno accettato di affidare in toto alle macchine la creazione di legami cognitivi e relazionali tra dati, informazioni, persone e cose, nell’equivoco che la tecnologia, in quanto neutra e oggettiva, sia anche disinteressata. Un equivoco che Ippolita definisce, in relazione al funzionamento delle ricerche su Google, “strategia dell’oggettività”:

… un algoritmo di ricerca è uno strumento tecnico che attiva un meccanismo di marketing estremamente sottile: l’utente si fida del fatto che i risultati non siano filtrati e corrispondano alle preferenze di navigazione che la comunità di utenti genera. In sostanza, si propaga un meccanismo di fiducia nell’oggettività della tecnica (nello specifico, la procedura algoritmica che genera il risultato dell’interrogazione) che viene ritenuta “buona” in quanto non influenzata dalle idiosincrasie e dalle preferenze di individui umani. Le macchine “buone”, figlie di una scienza “oggettiva” e di una ricerca “disinteressata”, non manipoleranno i risultati, non ci diranno bugie perché non possono mentire e comunque non avrebbero alcun interesse a farlo.

La realtà, come spesso accade, è ben diversa e le procedure algoritmiche finiscono per creare sistemi di relazioni opache e, se non manipolate, di certo inquinate nella loro presunta purezza dal peccato originale della profilazione:

Impercettibilmente, ci stiamo muovendo da un mondo ricco di significati, in virtù di relazioni costruite da noi e per noi, a un mondo i cui significati derivano da correlazioni stabilite dalle macchine e gestite da algoritmi. Algoritmi privati, non sottoposti in alcun modo a controllo democratico, di proprietà dei nuovi mediatori informazionali.

E badate: in gioco non c’è solo il nostro approccio alla produzione di conoscenza, all’analisi critica delle informazioni (necessariamente parziali, seppur cospicue, perché Google in realtà non perlustra davvero la totalità della rete), insomma il nostro comportamento in rete, ma, più in generale, il nostro comportamento sociale, la nostra lettura delle relazioni interpersonali. Il modello Google, sembra quasi volerci dire Ippolita, rischia di trasformarci in una sorta di estensione di sé proiettata sul piano concreto della dimensione quotidiana: come se fossimo altrettanti spider impegnati nella profilazione e nella scansione informazionale di tutti gli individui e i gruppi con cui, ogni giorno, entriamo in contatto tramite i social network:

Ognuno di noi è chiamato a dichiarare chiaramente cosa vuole e a confessarsi in maniera inequivocabile. Bisogna essere proattivi nella profilazione di sé stessi e degli altri, ci si deve adattare all’ideologia della trasparenza radicale. La metamorfosi di nozioni come privacy e sfera pubblica è estrema. Contestualmente, le dinamiche di socializzazione delle emozioni sono perlopiù affidate a procedure automatiche e omologate, come emoticon e simili, espresse sul palcoscenico non pubblico, proprietà dei mediatori privati. Ogni sottrazione è considerata sospetta: perché non hai un account social? Che cos’hai da nascondere? Come mai non rispondi immediatamente ai messaggi, alle notifiche? Dove sei, con chi sei, cosa fai? Un interrogatorio senza fine, una servitù volontaria a cui purtroppo ci sottoponiamo con gioia.

L’origine di questo “interrogatorio senza fine” è proprio Google, anche se oggi questioni simili vengono più di frequente associate all’altro gigante della valle, Facebook. Proprio il funzionamento dei social network, e di Facebook in particolare, marca l’attualità delle riflessioni avviate da Ippolita nel 2007 e proseguite puntualmente negli anni successivi, fino a oggi. Il lato oscuro di Google rappresenta anche la prima sistematizzazione di una somma di princìpi di data-business estesi, dagli inizi degli anni zero, a realtà di nuovo tipo ma identico scopo, regolate, come Google, da algoritmi adattivi che imparano dal nostro comportamento e al tempo stesso si regolano di conseguenza, con incessanti correzioni di rotta, per influenzarlo.

In questo senso un complemento suggestivo alla lettura del volume di Ippolita è il pamphlet Dieci ragioni per cancellare subito i tuoi account social, firmato da Jaron Lanier (informatico e sviluppatore, pioniere del web e della realtà virtuale e consulente alla creazione di Second Life) e pubblicato dal Saggiatore nella traduzione di Francesca Mastruzzo. I social network descritti da Lanier si presentano come l’inevitabile evoluzione del modello di business di Google: profilazione di dati a fini di personalizzazione pubblicitaria. Con un elemento in più, peculiare al funzionamento delle nuove piattaforme ma accennato anch’esso, in embrione, già nel passo citato della ricerca di Ippolita: l’induzione di dipendenza nell’utente, come fattore fondamentale dei processi di modificazione comportamentale prodotti dai social (sintetizzata nell’acronimo BUMMER: “Behaviors of Users Modified & Made in a Empire for Rent”):

Così scopriamo che quando un algoritmo procura delle esperienze a una persona, la casualità che lubrifica l’adattamento algoritmico può anche procurare dipendenza negli uomini. L’algoritmo sta cercando di individuare i parametri perfetti per manipolare il cervello, mentre quest’ultimo, dovendo cercare un significato più profondo, cambia in risposta agli esperimenti dell’algoritmo; è il gioco del gatto e del topo, ma basato su pura matematica.

Niente di fantascientifico, è realtà di tutti i giorni. Il conflitto uomo-macchina si è spostato su un terreno insidioso, e potete averne la prova anche solo riscontrando l’aderenza delle ragioni esaminate da Lanier alla vostra quotidianità. La progressiva erosione della libertà di scelta, insidiata da relazioni algoritmiche che decidono per noi (regola 1). La consapevolezza di diventare, ogni giorno che passa, un pochino più stronzo, cedendo alle lusinghe del nostro troll interiore che suscita in noi l’istinto del Branco (regola 3). La perdita di significato nella lettura della realtà, strettamente collegata all’eliminazione di qualsiasi tipo di contesto in una discussione (regole 4 e 5). La creazione di tanti piccoli mondi individuali, costruiti algoritmicamente tramite il tracciamento dei nostri comportamenti in rete e inconciliabili con quelli degli altri, con la conseguente distruzione di ogni forma di empatia (regola 6). E così via. Di argomentazione in argomentazione, Lanier mostra che il modello di business dei social network, che rappresenta una versione peggiorativa di quello di Google, sta inesorabilmente rendendo il mondo un posto molto brutto in cui vivere, in tutti i campi: dalla sfera individuale a quella relazionale, dalla politica all’economia.

Insomma: l’evoluzione di Internet come la storia di un colossale tradimento.

La soluzione? Anche in questo caso il futuro ha preso una direzione diversa da quella che sognavamo. Nessun atto di eroica resistenza ci vedrà imbracciare avveniristiche armi da fuoco contro macchine autocontrollate nei campi di battaglia di un mondo in fiamme. Sarebbe stato troppo facile, e troppo invitante, da un certo punto di vista. No, contro le sottigliezze della dipendenza algoritmica può esserci un’unica strada, su cui Ippolita e Lanier concordano: non il disconoscimento della tecnologia, ma la formazione di una più variegata consapevolezza personale nel suo utilizzo. Rinnegare l’utilità dei nuovi media e delle piattaforme social è un estremismo sciocco. Nessuno intende arruolarci in un nuovo luddismo: non sarebbe immaginabile, al punto in cui è arrivata la nostra società (e poi, diceva Franzen in un’intervista di qualche tempo fa, in fondo nemmeno i luddisti erano luddisti, forse tutto ciò che volevano era salvare il proprio posto di lavoro smantellando quegli specifici telai). Ma ritornare allo spirito originario con sui si costituì, in un’epoca ormai archeologica, la rete degli esordi, quello forse sì.

Recuperare l’etica hacker dell’autonomia e dell’indipendenza, la curiosità per l’informazione costruita attraverso percorsi imprevedibili di ricerca e scoperta, la critica delle fonti e il rispetto per il contesto come arma contro la proliferazione delle fake news, l’evasione dal sistema automatico delle notizie precotte e dal circolo malato che alimenta odio e rancore sociale premiando il clickbaiting con la maggiore visibilità di chi lo diffonde. La chiusura, nel caso estremo, dei propri profili social, per mostrare alle piattaforme chi dovrebbero essere i veri clienti intorno a cui costruirsi: e cioè gli utenti, non gli inserzionisti che pagano per influire sulle nostre decisioni, nel commercio come alle elezioni. Per dirla con Lanier, l’urgenza di diventare gatti: intelligenti ma imprevedibili, inaffidabili e soprattutto mai completamente addomesticabili:

I gatti hanno fatto ciò che apparentemente era impossibile: si sono integrati nella società tecnologica contemporanea senza svendersi. Hanno ancora il comando […] I gatti del web incarnano le nostre speranze e i nostri sogni per il futuro dell’umanità su Internet.

Che poi forse è questo il motivo per cui Internet è pieno di gatti.

Comments

Search Reset
0
Gaab
Tuesday, 24 July 2018 18:44
Quoting Ernesto Rossi:
La soluzione non s'è capita.

sì come al solito le analisi sono abbastanza corrette e poi le soluzioni sono ecumeniche: "per mostrare alle piattaforme chi dovrebbero essere i veri clienti..", così le piattaforme capiscono , si pentono e fanno girare il mondo come vogliamo noi...
Ma come lo vogliamo noi? E' questo che non si è capito....
Like Like Reply | Reply with quote | Quote
0
Ernesto Rossi
Monday, 23 July 2018 16:45
La soluzione non s'è capita.
Like Like Reply | Reply with quote | Quote

Add comment

Submit