Print Friendly, PDF & Email

lameladinewton

L’ingegneria del consenso a colpi di socialbots

di Andra Meneganzin

Siete sicuri che al vostro ultimo tweet abbia risposto un essere umano e non un robot? I robot delle piattaforme social sono oggetto di impiego sistematico nelle agende politiche e economiche globali. I ricercatori informatici ne rilevano oramai una presenza capillare, lanciando l’invito ad accrescere la consapevolezza intorno alle loro caratteristiche, per orientarsi responsabilmente tra i contenuti della rete

socialbots 499 okE’ il web il perno dell’ecosistema mediatico nell’era digitale. E’ il luogo di produzione, diffusione e consumo di un massivo volume di informazione, nonché di costruzione e orientamento dell’opinione pubblica. Ma se questo da tempo non rappresenta più una novità, la comprensione delle dinamiche che determinano i ritmi e l’impatto dei contenuti della rete, e l’identificazione dei suoi protagonisti, sono aspetti che impegnano sempre più studi quantitativi su larga scala.

Il report annuale di Imperva Incapsula relativo all’anno 20161 ha rilevato che solo il 48,2% del traffico web mondiale2
è stato generato da persone. Il rimanente 51,8% sarebbe stato alimentato da bots. I “bots” informatici (abbreviazione di
software robots), nel senso più generale, sono programmi che interpretano liste di comandi (scripts), generalmente semplici e molto ripetitivi, in modo estensivo e a ritmi del tutto automatizzati.

Di bots si è abituati a sentir parlare in occasione di attacchi hacker o DDoS (distributed denial-of-service attack, come quello che il 21 ottobre 2016 ha messo al tappeto le maggiori piattaforme internet a larghi bacini di utenza in Nord America e in Europa, attraverso la botnet Mirai) – i cosiddetti bots “cattivi”, stabili al 28,9% nell’ultima ricerca Imperva.

Ma il volto della rete oggi non sarebbe riconoscibile senza l’attività dei bots “buoni” (22,9%, con tendenza di crescita), come i software utilizzati da Google per indicizzare le pagine web e restituire risultati di ricerca pertinenti, o gli al più opinabili strumenti di estrazione di dati per attività di marketing.

Tuttavia, a meritare particolare attenzione sono i socialbots, ovvero bots che operano sulle piattaforme di social media (in maniera significativa su Facebook e Twitter) a un ritmo di gran lunga superiore rispetto a quello di un soggetto umano, ma sfruttando gli stessi canali e le modalità di interazione dell’utenza in “carne e ossa”. La presenza di questi “cosmi virtuali” popolati da centinaia di milioni di utenti (l’ecosistema di Zuckerberg ha contato, lo scorso giugno 2017, un flusso mensile di 2 miliardi di iscritti3) presenta un incentivo reale alla progettazione di algoritmi che simulino il comportamento umano, per raggiungere metodicamente obiettivi economici e politici.

La presenza dei socialbots nei servizi di rete sociali nel corso degli ultimi anni è ben documentata4. Sebbene in principio i socialbots sono stati impiegati nell’offerta di servizi utili agli internauti, come i chatbots per fornire informazioni e assistenza ai consumatori via chat automatica, o nella realizzazione delle newsfeed personalizzate con le notizie rilevanti per l’utente, gli abusi che accompagnano ogni innovazione tecnologica presentano, in questo caso, conseguenze macroscopiche di rilievo per la vita pubblica nazionale e internazionale.

I ricercatori dell’Oxford Internet Institute studiano dal 2012 l’utilizzo di algoritmi e dell’automazione web in quello che è stato battezzato come il fenomeno della “propaganda computazionale”. Una nuova serie di studi condotti dal gruppo del Prof. di
Internet Studies Philip Howard entro il Computational Propaganda Research Project 5 riporta i numeri della manipolazione via social media dell’opinione pubblica in nove paesi del globo6. Dalla Russia, dove il 45% dei più attivi accounts Twitter sono bots, a Taiwan, in cui l’attuale Presidente della Repubblica di Cina Tsai Ing-wen è stata oggetto di un’ostile campagna che ha coinvolto migliaia di accounts tra loro fortemente coordinati (ma non interamente automatizzati) a sostegno delle linee propagandistiche della Cina continentale. I reports, che coprono anche i dati di Stati Uniti, Cina, Polonia, Brasile, Canada, Germania, Ucraina, hanno gettato luce sui precisi meccanismi di impiego dei socialbots.

I profili-bot cliccano “mi piace”, condividono e postano nella rete social, spingendo gli algoritmi a restituire una frequenza maggiore di contenuti prescelti nel flusso di informazioni (feeds). Non solo: sono in grado di sovrastare gli stessi dibattiti argomentati tra utenti umani, immettendo citazioni, provocazioni e frasi ad effetto nella rete, e controllandone i parametri del consenso online (numero di “mi piace” e condivisioni), costruendo così l’illusione della popolarità di personalità pubbliche e linee politiche. Una vera e propria fabbrica del consenso che è in grado di portare il consenso reale ad approssimare quello virtuale, sfruttando l’effetto “bandwagon” (“effetto carrozzone”) – la tendenza a lasciarsi trascinare dalla tesi (che appare) maggioritaria.

Il report USA riporta come durante le presidenziali 2016 il presidente eletto Donald J. Trump abbia reso Twitter “un palco improvvisato che gli ha permesso di aggirare i controlli all’entrata, e far circolare contenuti indipendentemente dalla forma. Tali contenuti sono stati poi legittimati da una copertura costante da parte dei principali notiziari TV, dei programmi radiofonici nazionali, e di un nuovo strumento mediatico – un esercito di bots politici (…)” 7. Il report ha offerto un’analisi comparativa tra le maggiori botnets, ricostruite sulla base delle condivisioni (retweets) e degli hashtags8 utilizzati, relative ai candidati Trump e H. Clinton. Nella rete di Trump si è osservato che la botnet più ampia era almeno quattro volte più grande della maggiore botnet nel network-Clinton. La botnet di Trump ha contato la presenza di 994 bots, 264 quelli censiti nella botnet di Clinton. I ricercatori hanno inoltre ricostruito il grado di transitività globale (misura del grado di connessione tra i nodi in un grafo) nelle due rispettive botnets, calcolando un coefficiente di transitività di 0,01 per Trump – valore molto più alto del coefficiente proprio di reti aventi lo stesso numero di nodi e spigoli generate casualmente. La transitività globale per la botnet-Clinton è stata stimata a 0,009. Ciò ha permesso ai ricercatori di spiegare perché i retweets di bots nella rete di Trump riuscivano a ottenere una presenza impareggiabile nella piattaforma social, scongiurando definitivamente l’ipotesi che un così alto grado di organizzazione nella botnet-Trump potesse essere casuale.

Lo sfruttamento dei canali social da parte della Russia, invece, è in parte già conosciuto per le indagini ancora in corso sull’estensione dell’interferenza mediatica nelle presidenziali USA. Stando a Samuel Wolley, membro del progetto Oxford, la Russia rappresenterebbe il caso-studio ideale per analizzare l’utilizzo dei social media da parte di un potente regime autoritario. Ma se l’iniziativa russa è stata pioniera delle principali tecniche di propaganda bot oggi conosciute, è all’Ucraina che bisogna prestare attenzione per vedere come evolveranno le tecniche di propaganda computazionale nei prossimi anni, essendo questa costante terreno di prova delle tattiche russe. Il report relativo menziona il progetto StopFake, il frutto di uno sforzo corale volto ad arginare la diffusione di narrazioni prefabbricate dai media russi sugli eventi in Ucraina, nonché un’estensione Google che avrebbe permesso il blocco automatico di migliaia di siti di disinformazione.

Al di là delle numerose occasioni di analisi delle modalità di impiego e controllo dei socialbots, analizzate anche relativamente alle elezioni federali tedesche dello scorso 24 settembre, risulta ora impellente per i ricercatori interrogarsi intorno alle capacità del loro rilevamento, sia da parte di soggetti umani che tramite modelli di machine learning. Più precisamente, la tassonomia dei sistemi di detezione presenti in letteratura prevede tre macro-categorie.

Un primo sistema si basa sulle informazioni provenienti dal grafo sociale di un social network, ovvero la mappa dei nodi e delle loro relazioni. La sfida propria dei sistemi immunitari delle piattaforme come Facebook consiste nel riuscire a individuare bots (“sybils” in questo caso) rilevando, ad esempio, una scarsa interconnessione con profili di utenti legittimi, necessaria per assumere un aspetto credibile. In questo caso i sybils risultano fortemente interconnessi ad altri sybils, permettendo l’identificazione di aree ad alta concentrazione di bots. Ma un attacco astuto potrebbe portare i sybils controllati a mimare tratti della struttura della comunità degli utenti reali, rendendo vano il metodo di detezione. Le strategie offerte dalle piattaforme social risultano ad oggi ancora inadeguate, e la ricerca accademica in questa direzione ha da poco preso avvio. Un secondo metodo è il monitoraggio a carico di legioni di lavoratori umani, che presentano capacità impareggiate dalle macchine nella rilevazione di anomalie o sfumature sospette nel linguaggio naturale. Un metodo efficace quanto altamente costoso se impiegato su bacini d’utenza molto ampi, e che presenta non trascurabili problemi di privacy per l’esposizione a scopo di verifica di informazioni personali a dipendenti esterni. Un terzo metodo consiste nell’insegnare a software a distinguere schemi comportamentali propri delle macchine da quelli tipici di soggetti umani.

Emilio Ferrara, Research Assistant Professor dell’Università della California del Sud, ha stimato a 50 milioni la presenza di profili bot su Twitter (il 15%) avendo allenato un algoritmo su milioni di tweets9 provenienti da certificati profili umani e bot10. Numerose le caratteristiche analizzate, compresa l’età dell’utente e l’impiego di emoticons (i contenuti generati dai bots tendono a esibire precisi stati emotivi). Tuttavia, anche le più sofisticate tecniche di identificazione dei bots possono non riuscire a rilevare le intelligenze artificiali più complesse. I Twitterbots più avanzati riescono a ricercare nella rete informazioni e materiali per completare il proprio profilo, e postare i dati raccolti ad orari prestabiliti, emulando addirittura i pattern circadiani dell’attività giornaliera umana e i picchi temporali della produzione e del consumo di contenuti nel web11. Alcuni possono persino sostenere conversazioni verosimili con utenti reali, commentare i loro post e rispondere a domande in modo pertinente.

Mentre la ricerca coordina i propri sforzi nell’identificazione dei bots, i “burattini” delle agende del marketing e della politica, per risalire anche ai “mastri burattinai” che dietro a essi operano, il punto di svolta raggiunto dalle nuove tecnologie algoritmiche nello stravolgere la comunicazione politica rende impellente la riflessione intorno allo stato di salute della democrazia in rete. Una democrazia che risulta avvelenata, e in maniera del tutto sistematica, e alla cui tutela la semplice corsa tecnologica agli armamenti sembra non bastare. E questo perché, per quanto sofisticato, nessun software sarà in grado di approssimare la flessibilità del pensiero critico individuale – unica dimensione immune da hacking nella frenetica era digitale, e a cui la battaglia culturale per una responsabile capacità di vaglio dei contenuti della rete deve essere interamente rivolta.


NOTE
1 Il Bot Traffic Report 2016 è consultabile al link https://www.incapsula.com/blog/bot-traffic-report-2016.html
2 I risultati presentati sono basati su un campione di 16,7 miliardi di visite umane e bot raccolte dal 9 Agosto al 9 Novembre 2016. Il traffico dati è stato ricavato da 100000 domini scelti casualmente nella CDN di Incapsula.
3 Il dato riportato e commentato dal sito specializzato TechCrunch: https://techcrunch.com/2017/06/27/facebook-2-billion-users/. Il dato non va chiaramente interpretato come la presenza di un approssimativo 30% della popolazione mondiale su Facebook, se non a livello puramente statistico.
4 Cfr. Boshmaf, Y., Muslukhov, I., Beznosov, K. and Ripeanu, M. 2013. Design and analysis of a social botnet. Computer Networks 57, 2 (2013), 556–578; Lee, K., Eoff, B.D., and Caverlee, J. Seven months with the devils: A long-term study of content polluters on Twitter. In Proceedings of the 5th International AAAI Conference on Weblogs and Social Media (2011), 185–192
5 Qui il sito del progetto http://comprop.oii.ox.ac.uk/
6 I singoli reports sono disponibili al link http://comprop.oii.ox.ac.uk/publishing/working-papers/computational-propaganda-worldwide-executive-summary/
7 Cfr. p. 8 del report USA: http://comprop.oii.ox.ac.uk/wp-content/uploads/sites/89/2017/06/Comprop-USA.pdf
8 Un hashtag è un tipo di etichetta utilizzata nel web e nei social network, creabile solitamente anteponendo a una parola o una frase di testo il simbolo cancelletto (#). I tags fungono da aggregatori tematici, facilitando la ricerca da parte degli utenti di contenuti su un tema specifico.
9 Un tweet (lett. “cinguettio”) è un messaggio di testo della lunghezza di 140 caratteri che può essere pubblicato, inviato e condiviso sul social network Twitter.
10 Onur Varol, Emilio Ferrara, Clayton Davis, Filippo Menczer, Alessandro Flammini. Online Human-Bot Interactions: Detection, Estimation, and Characterization. ICWSM 2017. Sul tema consultabile anche un recente articolo divulgativo di Science: http://www.sciencemag.org/news/2017/09/social-media-bots-tried-influence-us-election-germany-may-be-next
11 Cfr. Emilio Ferrara, Onur Varol, Clayton Davis, Filippo Menczer, Alessandro Flammini Communications of the ACM, Vol. 59 No. 7, Pages 96-104 10.1145/2818717

Add comment

Submit