Print Friendly, PDF & Email

chefuturo

Facebook non è neutrale, ma sceglie per noi cosa farci leggere online

Antonio Rossano

Il techblog Gizmodo denuncia pratiche occulte e scorrette di selezione dei contenuti: Zuckerberg e l'algoritmo decidono per noi

Un articolo uscito ieri sul popolare blog di tecnologia “Gizmodo” denuncia pratiche occulte e scorrette di selezione dei contenuti da parte del colosso di Menlo Park.

A poche ore dalla sua pubblicazione, i commenti all’articolo “Former Facebook Workers: We Routinely Suppressed Conservative News”  su Gizmodo sono più di 1600, le condivisioni su Facebook oltre 12mila, migliaia i Tweet. In continua e costante crescita.

 

Facebook cancella le notizie “conservatrici”

L’autorevole sito di informazione e tecnologia racconta che alcuni ex collaboratori di Facebook hanno rivelato che, durante il loro lavoro redazionale e su mandato del Social Network, avrebbero rimosso dalla sezione delle “trending news” notizie di interesse per l’ala politica conservatrice americana o relative allo stesso Facebook ed “iniettato” contenuti di vario tipo. (Le Trending News formano una colonna alla destra della Home non ancora disponibile in tutti i paesi – ndr).

“In altre parole – scrive Nunez – la sezione notizie di Facebook ha operato come una redazione tradizionale, riflettendo i pregiudizi dei suoi dipendenti e gli imperativi istituzionali della multinazionale. Imporre valori editoriali umani nella lista degli argomenti vomitati da un algoritmo non è una cosa negativa, ma è in netto contrasto con le dichiarazioni dell’azienda che quella lista sia semplicemente un elenco degli argomenti che sono recentemente divenuti popolari su Facebook.”

Al momento è una storia quasi del tutto “americana” i cui effetti diretti ci riguardano poco o niente direttamente.

 

Una questione etica da affrontare

Diversa è invece la questione in senso generale ed etico, laddove si è sempre immaginato il ruolo dei social network come una piattaforma collettiva neutra o neutrale, dove la quantità di informazioni presente potesse essere filtrata, e quindi resa leggibile, da una serie di strumenti “meccanici” di selezione, gli algoritmi.

Sarebbe d’altra parte impensabile immaginare che non vi sia un filtro nel mare magnum delle notizie che diventano disponibili per ciascun utente.

La gestione di questo “filtro” che ha sempre rappresentato una zona d’ombra importante per la credibilità dell’azienda di Zuckerberg.

Preoccupazione che si aggiunge a quelle ribadite più volte da Evgeny Morozov, di recente anche al Festival del Giornalismo di Perugia: “L’appalto delle nostre vite, dei nostri comportamenti, tutto questo cibo a disposizione di algoritmi più potenti della nostra immaginazione, finisce per condizionarci la vita a beneficio di una cerchia esclusiva e raffinata di attori che intorno a queste informazioni costruiscono e impongono il nostro modello sociale”.

Ma se la questione posta da Morozov è centrata su un modello economico penalizzante per la vita degli utenti dei social network (cedere la propria privacy in cambio dei servizi “sociali” di queste piattaforme),  i fatti riportati da Gizmodo vanno ben oltre la definizione di quel modello e riguardano sostanzialmente la possibilità che un ente esterno, in maniera occulta, selezioni al posto nostro informazioni e contenuti, non più sulla base di criteri quantitativi di prossimità, come si è più o meno sempre sostenuto, ma sulla base di interessi specifici e di parte.

La vera forza di queste piattaforme è di essere considerate, nella percezione dei propri utenti, come degli strumenti neutrali di comunicazione. Se un’operazione di selezione contenutistica così fortemente orientata politicamente, si fosse verificata davvero, gli effetti sulla credibilità del Social Network potrebbero essere gravi e tangibili.

 

La smentita di Facebook

Nel pomeriggio di ieri Facebook ha rilasciato la seguente dichiarazione, relativa all’articolo pubblicato su Gizmodo:

“Prendiamo molto seriamente queste accuse di parzialità. Facebook è una piattaforma per persone ed idee trasversali a tutto lo spettro politico.

I “trending topics” illustrano i temi e le chiavi popolari su Facebook. Ci sono rigorose linee guida vigenti per il team di revisione per garantire la coerenza e la neutralità. Queste linee guida non consentono la soppressione di alcuna prospettiva politica. Né permettono di avvantaggiare un punto di vista rispetto ad un altro o  un organo di stampa piuttosto che un altro. Queste linee guida non impediscono ad alcuna fonte informativa di apparire nei Trending Topics”.

Mathew Ingram, su Fortune, commenta questa dichiarazione di Facebook rilevando che è anomala e di solito il motore di ricerca cerca di ignorare questi problemi. Ma per Ingram il problema resta l’algoritmo: “ il grande problema non è che un paio di persone stessero giocherellando con i Trendign Topics, il problema è che gli esseri umani stanno prendendo da sempre queste decisioni attraverso l’algoritmo e le conseguenze delle loro scelte possono essere di enorme portata, eppure il processo attraverso il quale queste decisioni sono prese (algoritmo) è completamente opaco”.

Per Kelly McBride, vice presidente del Poynter Institute e suo responsabile per l’etica dei media, non vi sarebbe niente di nuovo, ma questo fatto ridimensionerebbe i sostenitori del social media, secondo i quali Facebook sarebbe un luogo di distribuzione delle informazioni più democratico e che, se da un lato sono anni che si afferma la parzialità degli algoritmi nel processo di selezione delle notizie, l’intervento umano suggerirebbe una mancanza di fiducia verso il proprio pubblico. Ma l’elemento centrale di questa vicenda, per la McBride, sarebbe che “se vuoi che il tuo pubblico abbia fiducia in te, la trasparenza è sempre la risposta, che tu stia parlando di algoritmi o di manipolazione umana.”
Vedremo.

Ovviamente la situazione è in pieno sviluppo e ci vorrà del tempo per comprendere meglio il tutto.

D’altra parte la saggezza di un antico detto popolare suggerisce di non credere all’acquaiolo che afferma che l’acqua è fresca.

Add comment

Submit