Cosa sta accadendo sui social network in Italia

Il Center of Data Science and Complexity dell’Università La Sapienza di Roma sta analizzando oltre 100 milioni di profili. L’obiettivo è arrivare a un metro per misurare la tossicità di Facebook, Twitter e le altre piattaforme. Grazie alla legge di Godwin: basta che una discussione online sia sufficientemente lunga che verrà chiamato in causa il nazismo o Hitler. Ma il sospetto è che dietro tutto questo, specie da noi, ci sia ben altro. Una storia complessa che ha a che fare con il nostro passato e con quanto accaduto online nel 2009.

Gli smartphone: oltre l’85% dello scambio informativo avviene in mobilità

“Chi osa affermare qualcosa di diverso dal ‘mainstream’ viene subito attaccato. Gli si dice che non può andare in tv a sostenere che due più due fa cinque. Ma chi lo ha detto che due più due deve fare quattro?”. Il tono della telefonata si era inasprito rapidamente con il passare dei secondi, ricalcando lo schema dei tanti scontri verbali che stiamo leggendo su Facebook. Al punto che l’ascoltatore catanese, intervenuto alla trasmissione mattutina Prima Pagina di Radio 3, per un pelo non ha insultato in diretta il conduttore che lo stava ascoltando. Conta poco in questa sede il tema, l’invasione dell’Ucraina, e lo schieramento al quale aderiva l’ascoltatore. Perché su un punto ha ragione: dobbiamo capire quanto fa due più due nell’era dei social network. La risposta non è quattro né cinque, bensì “Hitler” oppure “nazisti” e non ha alcuna importanza l’argomento trattato. Basta che la discussione duri a sufficienza e fra botta e risposta verrà chiamato in causa il Führer o la sua ideologia. Inevitabilmente. Mentre la verità di una somma matematica ormai può essere contestata con assoluta disinvoltura, come accadeva nella distopia del romanzo 1984 di George Orwell, abbiamo la certezza che il fondatore del nazionalsocialismo tedesco nelle nostre discussioni sul Web è una presenza fissa. E’ la figura più usata per insultare, bollare l’avversario, descrivere cosa sta accadendo, magari tutto scritto in lettere maiuscole. Con una frequenza che non ha praticamente eguali e che dice parecchio del grado di conflittualità.     

Sulle tracce della legge di Godwin

Si tratta di una legge, formalizzata per la prima volta nel 1990 dall’avvocato statunitense Mike Godwin, per descrivere le dinamiche dei commenti sulle bacheche virtuali del tempo. A quanto pare vale ancora oggi, anzi: vale sempre di più. A sostenerlo il Center of Data Science and Complexity for Society che, a dispetto del nome, è italianissimo e basato all’Università la Sapienza di Roma. I suoi ricercatori stanno cercando di misurare il fenomeno descritto da Godwin. E lo stanno facendo su larga scala analizzando il profilo di cento milioni di utenti soprattutto europei, su cinque diversi social media: Facebook, YouTube, Reddit, Twitter, Gab, Voat, poi chiuso a fine 2020, oltre a dati provenienti da diversi forum. I risultati definitivi verranno pubblicati questa estate, ma già ora possiamo anticipare alcune tendenze. 

“La legge di per sé è al limite dell’ovvio”, spiega Matteo Cinelli, a capo del progetto. Laureato e ingegneria gestionale, 32 anni di Roma, è finito a occuparsi di reti complesse per poi approdare all’informatica e oggi dalla metodologia è passato all’applicazione pratica. “In una stanza che si affolla di persone, le probabilità che si incontri qualcuno esacerbato diventa certezza su base statistica. Ciò che è meno evidente sono le modalità con cui la legge di Godwin tende a manifestarsi, ovvero se esistono delle molle precise e un tempo medio per la comparsa dell’accusa di nazismo, che è un termine con un valore semantico perfetto per uno scontro verbale da tastiera. Soprattutto se tali variabili cambiano secondo la piattaforma e l’argomento. Studiare una tale dinamica speriamo possa portare ad avere un metro accurato per misurare il livello di tossicità di singoli social network”.

La ricorrenza statistica di certe parole e il lasso di tempo necessario alla loro comparsa dovrebbero quindi dirci se un social network porta allo scontro più di un altro. Il numero di “Hitler” o “nazisti” e un tempo molto breve affinché facciano il loro ingresso, potrebbe significare un maggior grado di tossicità. E sarebbe forse la prima volta che questa tossicità viene provata in maniera scientifica grazie alla reductio ad Hitlerumreductio ad nazium come la chiamava Godwin.

Non chiamatele chiacchiere da bar

Supponiamo di essere al bar coinvolti in una discussione. Se qualcuno desse del nazista a qualcun altro o paragonasse le sue posizioni a quelle di Hitler è altamente probabile che lo scontro verbale finirebbe lì oppure degenererebbe in rissa. Sui social network prosegue. Lo dimostra un’altra ricerca, stavolta ad Harvard, pubblicata a dicembre del 2021 su New Media & Society: Hitler e nazismo non troncano la conversazione. Almeno secondo gli autori, fra i quali c’è Gabriele Fariello.

Esperto di intelligenza artificiale, 51 anni, nato a Torino ma trasferitosi negli Stati Uniti quando era piccolo, con i suoi colleghi ha analizzato 14 miliardi di messaggi su Reddit, incluse le risposte e le contro risposte. “Abbiamo cominciato a studiare la legge di Godwin per divertimento, non volevamo nemmeno arrivare a pubblicare uno studio”, spiega da Cambridge, in Massachusetts. “Ma avendo avuto la possibilità di sondare tutti quei dati grazie all’intelligenza artificiale, alla fine ne è uscita fuori una ricerca. Alcune delle scoperte, che ancora devono essere pubblicate in un secondo articolo più ampio, riguardano non solo il nome di ‘Hitler’ o l’aggettivo ‘nazista’ ma anche altri termini. La probabilità che vengano introdotti non è matematica da quel che abbiamo osservato, al contrario di ciò che sostiene Godwin. Ma una volta che compaiono e prendono piede diventando dominanti. Le discussioni online seguono logiche completamente diverse da quelle al bar. Più vanno avanti più diminuisce la possibilità che siano introdotte altre tematiche come invece capita magari a cena dove è facile cambiare argomento. Nell’online le discussioni si fanno verticali quasi subito su un solo tema e se si cita Hitler e di dà del nazista a qualcuno, di fanno ancora più lunghe”.  

Reddit però, sottolinea Fariello, ha delle logiche diverse da Twitter o Facebook. E’ una piattaforma suddivisa in canali tematici fortemente moderati dagli stessi utenti. Somiglia quindi al contesto studiato da Godwin nel 1995 e fino a poco tempo fa non usava algoritmi di raccomandazione come avviene altrove. “Su Twitter e su Facebook lo scenario è completamente differente anche per quanto riguarda gli strumenti di analisi che sono più difficili da usare”, aggiunge il ricercatore italoamericano. “C’è la resistenza di queste piattaforme a offrire i dati necessari per le indagini”. Lui e i suoi colleghi hanno però intenzione di provarci, come sta facendo il gruppo di La Sapienza di Roma. Nel frattempo, Mike Godwin ha contestato i risultati dell’indagine di Harvard. Non ama affatto che la sua legge venga messa in dubbio, nemmeno parzialmente, e su Twitter non risparmia i giudizi taglienti.

Problemi di percezione

La tossicità dei social network l’abbiamo avvertita tutti, specie in questo periodo. La guerra in Ucraina è diventata l’ennesimo specchio nel quale mostrarsi con le proprie bandiere identitarie, le posizioni radicali, il repertorio di insulti a portata di tastiera, la negazione sistematica degli argomenti della parte considerata avversa. Quel che si legge sembra in alcuni casi non avere nemmeno più a che fare con quanto avviene a Kiev e dintorni. Qualsiasi sia il singolo fatto trattato, il risultato di una somma viene comunque contestato in un rovesciamento di prospettive dove è sempre possibile negare. La realtà ovviamente continua ad esistere, ma esiste anche il riverbero che ha in noi. Se volete l’interpretazione, più o meno emotiva, che ne facciamo in base alle nostre idee già costituite. Quando la distanza fra la prima e la seconda diventa troppo ampia non c’è metro scientifico o risultato che tenga perché non è più un tentativo di leggere dei fatti.

La Ipsos, agenzia di ricerca e consulenza francese, da alcuni anni ha iniziato a misurare il grado di errore nella percezione delle persone scoprendo che il mondo è sostanzialmente strabico. La ricerca, Perils of perception, nell’edizione 2018 aveva messo a confronto 37 Paesi, dalla Nuova Zelanda al Canada passando per la Francia, la Germania, il Belgio e l’Italia. Oltre 28mila interviste, il campione rappresentativo per l’Italia era di mille persone, con domande uguali per tutti su aspetti che vanno dalla società all’economia. Un gioco, se così lo possiamo chiamare. E’ lo stesso che faceva l’accademico svedese Hans Rosling nel saggio Factfulness. Dieci ragioni per cui non capiamo il mondo. E perché le cose vanno meglio di come pensiamo (Rizzoli).

La tesi di Rosling è che tendiamo a non vedere quel che è in mezzo, fra il bianco e il nero, ciò che conta nella maggior parte dei casi. La buona notizia è che nelle indagini Ipsos gli italiani non sono all’ultimo posto nella graduatoria delle nazioni con il tasso più alto di sottostima e interpretazione errata. Ma in certi ambiti perdiamo completamente la bussola. Dal livello di immigrazione a quello della corruzione, fino al numero di omicidi o all’ammontare della popolazione carceraria, tutti regolarmente sovrastimati. Al contrario della ricchezza pro-capite o la qualità della sanità pubblica, che sono invece sottostimate. Insomma, abbiamo una visione molto più pessimista del nostro Paese di quel che sarebbe sensato avere.

Cosa c’entra il patrimonio degli italiani con Facebook

Perché accade? Difficile dare una risposta sola, aiutano però alcuni dati: l’Italia resta fra i primi dieci Paesi al mondo per prodotto interno lordo (Pil) e fra i primi trenta per reddito pro-capite. Potremmo fare di più, lo abbiamo fatto in passato, ma la lista di chi ha fatto peggio è più lunga rispetto a quella di chi ha fatto meglio. Nel nostro Paese però negli ultimi trent’anni i livelli di concentrazione della ricchezza sono aumentati. Siamo ancora nella media dell’Unione europea, con la differenza che gli stipendi non sono cresciuti e il reddito pro-capite è inferiore a quello degli anni Ottanta, fatte le dovute proporzioni.

Lo 0,1 per cento più ricco ha visto raddoppiare la sua ricchezza netta media reale facendo raddoppiare anche la sua quota della ricchezza totale, dal 5,5 al 9,3 per cento. Al contrario, il 50 per cento più povero controllava l’11,7 della ricchezza totale nel 1995 ed è passato al 3,5 nel 2016. Ciò corrisponde a un calo dell’80 per cento, unico caso del genere fra i Paesi avanzati”. A parlare è Salvatore Morelli, 38 anni, originario di Roccadaspide, nel Cilento. Insegna scienze delle finanze all’Università degli Studi Roma Tre, nel dipartimento di giurisprudenza. Si occupa di diseguaglianze economiche fin dai tempi della tesi di laurea. 

La metà meno agiata degli Italiani adulti ha visto diminuire il proprio patrimonio dal 1995 ad oggi da 27mila euro di media a cinquemila euro. Sono circa 25 milioni di persone, fra le quali 10 milioni hanno meno di duemila euro. Parliamo di patrimonio, non di reddito pro-capite. Sono quindi dati che provengono non dalla dichiarazione dei redditi ma dai registri delle imposte di successione presentate all’Agenzia delle entrate dal 1995 al 2016”. Queste informazioni relative alle eredità, aveva già sottolineato Morelli in un articolo pubblicato su Lavoce.info di aprile 2021, permettono di osservare meglio la distribuzione della ricchezza nonostante l’esistenza dell’evasione ed elusione fiscale.

“La diseguaglianza in Italia sta accelerando e assumendo ritmi statunitensi” prosegue Morelli. “Abbiamo però i servizi pubblici che premettono sostanzialmente a tutti, al di là del reddito e del patrimonio, di usufruire di assistenza medica e di accedere alla scuola ad esempio. E’ l’intervento dello Stato a fare la differenza in una situazione di grande disparità. Nei Paesi scandinavi, al contrario di quel che si crede, la diseguaglianza economica è ancora più forte che da noi con molto più indebitamento da parte dei cittadini se si guarda ai patrimoni oltre che al reddito. Eppure, con uno Stato sociale solido, gli effetti sono completamente diversi rispetto a quel che vediamo negli Stati Uniti”.

Le ragioni della maggioranza

Dunque, fra la popolazione adulta, circa 45 milioni di persone, coloro che hanno le risorse per risollevarsi da un’emergenza sono relativamente pochi. Questo significa che il livello di resilienza, la capacità di un individuo di affrontare e superare un’emergenza inattesa o un periodo di difficoltà, è basso in Italia. Dobbiamo poi aggiungere il blocco dell’ascensore sociale da decenni, di media si è più poveri dei propri genitori, e una scarsa meritocrazia che ha probabilmente portato a bruciare nell’immobilità il potenziale di intere generazioni.

Secondo la Banca Mondiale in quanto a mobilità sociale siamo al 34esimo posto. Peggio di noi nel 2020 hanno fatto fra gli altri l’Ungheria (35), la Russia (39), la Serbia (41), la Cina (45), l’Ucraina (46), la Turchia (64). Meglio di noi invece è andata la Slovacchia (32), gli Stati Uniti (27), il Portogallo (24), Malta (17), la Francia (12), la Germania (11), per non parlare di Danimarca, Norvegia, Finlandia, Svezia che sono in testa alla classifica. Paesi quest’ultimi che, guarda caso, sono anche in testa alla graduatoria dell’indagine della Ipsos, Perils of perception, fra quelli dove lo scarto fra dati di fatto e il percepito dei cittadini è minore. Lì evidentemente due più due fa ancora quattro.

Per l’Istat l’età media della popolazione italiana nel 2022 è di 46,2 anni. Chi è nato nel 1995 oggi ha 27 anni, chi ne aveva 20 adesso ne ha 47. Se includiamo anche i 25enni di allora, abbiamo la maggioranza relativa della propalazione: il 40 per cento. Individui fra i 25 e i 55 anni mediamente più poveri delle generazioni che si sono affacciate sul mondo del lavoro in precedenza. Di qui, fra gli altri sintomi, la fuga dei cervelli all’estero.

Riassumendo: stagnazione economica, ascensore sociale bloccato da anni, parte della popolazione che vive in una condizione economica difficile, maggioranza relativa dei cittadini che è cresciuta in anni di immobilità sociale, percezione delle cose che tende ad ingigantire o a sottostimare i dati di fatto, magari per cercare un capro espiatorio e giustificare la propria condizione. In un simile contesto, cosa potrebbe andare storto quando dallo smartphone si accede ai social network?

I perseguitati

La notifica arriva la mattina del 23 aprile, mentre scorriamo i vari post di Facebook. “Contenuto suggerito per te” si legge sopra uno dei primi della lista. E’ stato selezionato per noi dall’algoritmo. Si tratta di alcuni frammenti di quella che sembra essere un’intervista al musicista inglese Roger Waters, fra i fondatori dei Pink Floyd, in merito al caso di Julian Assange. Non c’è data né fonte, ma dovrebbe risalire al 2019, ai tempi dell’amministrazione Trump, ed esser stata pubblicata da Il fatto quotidiano. A proporre la sintesi di quelle considerazioni è il profilo chiamato Una semplice questione di civiltà con il quale non abbiamo alcun legame. Non lo avevamo mai sentito prima. Ha circa 42mila seguaci e il post con le frasi di Waters, lapidarie, piace: 11mila like. Anche altri pubblicano quello stesso testo ottenendo risultati simili.

Fra le altre cose si legge: “Noi viviamo negli Stati Uniti d’America dove un’enorme percentuale di persone è totalmente sopraffatta dalla propaganda, la quale è enormemente efficace ed enormemente potente. Ed è questo il motivo per cui la farsa del potere può continuare. Dunque io vivo in un Paese dove cercano di far credere alla gente che va bene che i dollari delle tasse continuino a essere riversati nelle tasche dei ricchi, con il pretesto che bisogna fare la guerra alla Cina (…). E nella Tv americana mainstream o su un giornale americano non viene ammessa una sola parola di verità. Neanche una. Tutto è sotto controllo”. Poi aggiunge: “Dov’era la stampa mainstream mentre il fratello e compagno Julian Assange, un giornalista come loro, viene assassinato? Si, assassinato. Perché è un tentato omicidio quello che stanno facendo di Julian Assange”.

La stampa ha molti limiti e inciampa sempre più spesso. Ma non in questo caso. Nel 2019 il New York Times di articoli su Assange ne ha pubblicati dieci, altrettanti il Washington Post. Sono due delle testate che hanno criticato apertamente l’accusa mossagli a maggio di quell’anno dal governo per la presunta violazione dell’Espionage Act.

Il sette febbraio del 2018 i due amministratori di Una semplice questione di civiltà, che se la prendono spesso con la stampa ‘mainstream’, pubblicano questo messaggio: “Il nuovo algoritmo Facebook sceglie per voi le notizie oscurando le pagine come questa e privilegiando i contatti personali. Il fine è quello di depotenziare la critica, la discussione e il confronto e aumentare le foto con gattini e bucatini all’amatriciana”. A quanto pare gli algoritmi devono aver cambiato idea, oppure contenuti del genere sono tutt’altro che depotenziati.

Le colpe delle fonti ufficiali 

“Abbiamo una conoscenza del mondo limitata e approssimativa, che è diminuita nel tempo. Facciamo affidamento alla conoscenza degli altri, cerchie di amici con idee simili che si autoconfermano sui social (…). Il ‘pensiero di gruppo’ è così forte che quando sbaglia non cede nemmeno davanti all’evidenza. Vale per i cittadini, vale per politici e amministratori delegati”. Così lo storico israeliano Yuval Noah Harari in un’intervista del 2018.

In Italia, secondo i dati raccolti dal Cnr nel 2020, il 40 per cento delle persone dichiara che in Rete trova quel che le fonti ufficiali nasconderebbero. Questo però non significa necessariamente che quasi la metà degli italiani sia complottista. Vuol dire “solo” che la fiducia nel sistema, nelle istituzioni e nelle varie componenti dell’organizzazione della società, è a livelli minimi. In alcuni casi i demeriti delle fonti di informazione e di chi ha gestito questo Paese sono evidenti, eppure si finisce per per abbracciare rappresentazioni della realtà che di reale hanno poco. “Le crisi eleggono sempre i propri nemici, ma quasi mai sono i veri responsabili della situazione”, ha raccontato Antonio Tintori, a capo del gruppo di ricerca Mutamenti Sociali del Cnr-Irpps.  

Il 3 dicembre del 2021 il Censis ha pubblicato il suo 55esimo rapporto sulla società italiana. Uno dei capitoli era intitolato La società irrazionale: “È un sonno fatuo della ragione, una fuga fatale nel pensiero magico, stregonesco, sciamanico, che pretende di decifrare il senso occulto della realtà. Per il 5,9 per cento degli italiani (circa 3 milioni di persone) il Covid semplicemente non esiste. Per il 10,9 il vaccino è inutile e inefficace. Per il 31,4 è un farmaco sperimentale e le persone che si vaccinano fanno da cavie. Per il 12,7 la scienza produce più danni che benefici. Si osserva una irragionevole disponibilità a credere a superstizioni premoderne, pregiudizi antiscientifici, teorie infondate e speculazioni complottiste. Dalle tecno-fobie: il 19,9 per cento degli italiani considera il 5G uno strumento molto sofisticato per controllare le menti delle persone. Al negazionismo storico-scientifico: il 5,8 è sicuro che la Terra sia piatta e il 10 è convinto che l’uomo non sia mai sbarcato sulla Luna (…). L’irrazionale ha infiltrato il tessuto sociale, sia nelle posizioni scettiche individuali, sia nei movimenti di protesta che quest’anno hanno infiammato le piazze, e si ritaglia uno spazio non modesto nel discorso pubblico, conquistando i vertici dei ‘trending topic’ nei social network, scalando le classifiche di vendita dei libri, occupando le ribalte televisive”.

Definire questo panorama come “il sonno fatuo della ragione”, come scrive il Censis, è dare per assodata l’età dei lumi, della ragione. Eppure non c’è davvero molto di nuovo in quel che vediamo manifestarsi online, che è uno specchio dell’emotività umana. Cambia però la magnitudine, amplificata a dismisura. Qualcuno lo aveva iniziato a capire proprio negli anni Novanta, quando l’Italia cominciava a fermarsi e a sprecare sogni, ambizioni e potenzialità di intere generazioni.   

La storia è sempre complessa

Jonah Peretti, l’architetto della prima versione dell’Huffington Post e fondatore di BuzzFeed, dopo la specializzazione al Media Lab del Mit di Boston aveva dato vita a una serie di esperimenti virali privi di scopo se non quello di studiare come certi fenomeni si diffondevano sul Web. In uno, ad esempio, con la sorella era riuscito a mettere in piedi “la linea telefonica del respingimento” per arginare i corteggiatori indesiderati. Bastava dar loro quel numero e un messaggio registrato recitava: “La persona che le ha dato questo numero non vuole parlarle né rivederla. Cogliamo l’occasione per respingerla ufficialmente”. Le otto linee messe a disposizione dal servizio rimasero intasate per mesi tanto l’operazione aveva avuto successo grazie al passaparola su Internet.

Già nel 1996 Peretti aveva scritto in un articolo che “il ritmo sempre più rapido con il quale le immagini vengono diffuse e fruite online (…) determina un corrispondente aumento del ritmo con cui gli individui assumono e si spogliano delle loro identità”. Incollati allo schermo, si scambiano immagini ideologicamente cariche con sé stessi in gioco di specchi. Peretti parlava di immagini perché in quel periodo erano loro la parte virale di Internet, ma possiamo probabilmente estendere il concetto ai contenuti in generale pubblicati sul Web. Oggi però più che spogliarsi della propria identità sembra che ogni tema sul tavolo venga usato per affermarla.

Nel 2006, anno di nascita di BuzzFeed, la quantità di dati prodotti fu tre miliardi di volte superiore a quella contenuta in tutti i libri mai scritti. L‘agenzia stampa Associated Press parlò di “affaticamento da notizie” e di lettori “debilitati” dal “sovraccarico di informazioni”.

Jill Abramson, prima donna a dirigere il New York Times, nel saggio appena uscito in Italia intitolato Mercanti di verità (Sellerio), racconta di come fra i primi post di BuzzFeed c’era una lista dei migliori siti che trattavano il tema dei pinguini gay, la linea di abbagliamento per animali di Snoop Dogg e venti capezzoli di celebrità in mostra. Abramson non ne scrive per condannare quelle scelte, solo per spiegare che essendo la viralità l’obiettivo, finivano sullo stesso piano notizie importanti e articoli che lo erano molto meno. Il Web veniva descritto, anche dai colossi della Silicon Valley, come la grande miniera di informazioni, il catalogo dello scibile umano, con una retorica di fondo di stampo illuminista. Peretti al contrario lo vedeva come un catalogo emotivo. Per questo i contenuti di BuzzFeed non erano ordinati in base alle categorie tipiche dei giornali, dall’economia alla politica, ma “attorno alle emozioni che spingono alla condivisione”, aveva spiegato lo stesso Peretti: Lol, Wtf, Fail, Trashy e via discorrendo. Dunque, in base alla reazione che quegli articoli provocavano o si pensava avrebbero provocato.

Cosa è accaduto nel 2009

Che il cosiddetto “engagement”, il coinvolgimento degli utenti, sia uno dei tasselli fondamentali sui quali è costruito il castello dei social network lo sappiamo tutti. Peccato che poi lo dimentichiamo al primo post che ci fa arrabbiare. Senza spingersi fino alle tesi estreme di documentari come The Social Dilemma pubblicato da Netflix, o quelle del saggio Il capitalismo della sorveglianza (Luiss) di Shoshana Zuboff della Harvard Business School, è ormai assodato che l’emotività su queste piattaforme è l’arma più sfruttata per tenere attaccati allo schermo le persone, in una competizione sempre più aspra per la conquista del loro tempo. Con l’aggiunta del fattore “like”, che funziona come la ricompensa nel gioco d’azzardo.

“Prima del 2009, Facebook aveva dato agli utenti un flusso infinito di contenuti generati da amici e contatti, con i post più recenti in alto e quelli più vecchi in basso. Una quantità travolgente di messaggi, ma era comunque un riflesso fedele di ciò che gli altri stavano pubblicando”, scrive su The Atlantic Jonathan Haidt, psicologo sociale che insegna alla New York University e autore di due saggi, The Righteous Mind e The Coddling of the American Mind. Il titolo del suo intervento è: Perché gli ultimi 10 anni di vita americana sono stati straordinariamente stupidi. “Tutto comincia a cambiare nel 2009, quando Facebook ha aggiunto il tasto ‘Like’, “mi piace”. Nello stesso anno, Twitter ha introdotto qualcosa di ancora più potente: il ‘Retweet’, che ha permesso agli utenti di approvare pubblicamente un post condividendolo (…). Facebook ha presto copiato quell’innovazione con il proprio pulsante ‘Condividi’, che è diventato disponibile nel 2012. I pulsanti ‘mi piace’ e ‘condividi’ sono diventati rapidamente funzionalità standard della maggior parte delle altre piattaforme”.

Facebook ha iniziato così a raccogliere dati su ciò che coinvolgeva (engaged) i suoi utenti e ha sviluppato algoritmi per portare a ciascuno il contenuto che con più probabilità avrebbe generato un “mi piace” o qualche altra interazione, includendo eventualmente anche la “condivisione”.

“Somigliano ai sistemi di raccomandazioni in un servizio di streaming o di commercio elettronico” aveva spiegato pochi mesi fa Walter Quattrociocchi, a capo del Center of Data Science and Complexity for Society dove lavora Cinelli, fra i primi a studiare il fenomeno e misurarne la portata. “Ti viene consigliato quel che utenti a te simili, nel caso di Facebook soprattutto i tuoi contatti, hanno apprezzato. Di conseguenza viene eliminata la varietà per darti quel che si suppone ti piacerà di più aumentando il tempo che spendi sulla piattaforma. Il problema è che così facendo si creano queste ‘camere di eco’ all’interno delle quali i pareri sono similissimi fra loro. E qui sono le posizioni più estreme ad esser messe in risalto perché sono quelle che provocano più reazioni, uno dei parametri tenuti in maggior conto dall’algoritmo, in un crescendo continuo”. Il caso delle affermazioni di Roger Waters ad esempio.

Ev Williams, fondatore di Medium e di Twitter, assieme a Jack Dorsey, Noah Glass e Biz Stone, su questo tema nel 2018 aveva messo in chiaro alcune cose: “Il cosiddetto ‘engagement’, la capacità di un contenuto di creare un legame con le persone, quando funziona viene immediatamente replicato da una piattaforma all’altra per generare click e profitti. Disgraziatamente non sappiamo misurare se una certa cosa fa star male o fa star bene, né se è vera o falsa, solo se provoca una reazione”.

Se ne erano accorti, prima delle elezioni presidenziali americane del 2016, i collaboratori di Donald Trump. Il gruppo che si occupava dei social network si era dato il nome di Progetto Alamo ed era guidato da Brad Parscale, poi defenestrato alle ultime elezioni, in collaborazione con Alexander Nix, a capo di Cambridge Analityca. Il primo ha gestito gli 85 milioni di dollari spesi su Facebook, il secondo ha poi ricevuto un compenso 6,2 milioni di dollari per il suo sistema “psicometrico”: individuare gruppi di persone sensibili a certe tematiche o spaventati da determinati fenomeni, dall’immigrazione al tasso di criminalità, ai quali inviare messaggi su misura. “Senza Facebook non avremmo mai vinto”, disse ai microfoni della Bbc il braccio destro di Parscale, Theresa Hong, nel documentario Secrets of Silicon Valley. E lo sanno bene anche nella cosiddetta ‘fabbrica dei troll’, l’Internet Research Agency (Ira) di San Pietroburgo, messa in piedi da Evgenij Prigozhin, chiamato il cuoco di Putin, che però ha sempre negato ogni coinvolgimento.

L’accademico inconsapevole

“Mi piacerebbe avere le tue stesse certezze”, commenta il fisico rispondendo ad una persona che sta contestando con una discreta varietà di fonti le sue tesi geopolitiche. Il fisico quelle tesi le pubblica su Facebook sostenute immancabilmente da un articolo o da un intervento di qualcun altro sempre perfettamente aderente alle sue idee, replicando un copione consumato: cercare su Internet tutto quel che conferma i nostri pregiudizi, intesi in senso letterale, ovvero giudizi formati a priori, che nella manifestazione di sé stessi sui social network si trasforma nell’ignorare il metro altrui anche quando si dimostra valido.

Colpisce che perfino gli scienziati siano finiti in questo gioco. Loro di metri per avere un’idea della validità di certi studi e dello spessore dei ricercatori li hanno: il numero delle pubblicazioni e quello delle citazioni nei lavori dei colleghi, che danno la misura dell’impatto sulla comunità scientifica. Tutto consultabile da chiunque, giornalisti inclusi, sul motore di ricerca Google Scholar. La metrica più importante forse è la seconda, visto che nella prima bisogna poi verificare la statura delle testate che hanno pubblicato le varie ricerche e non sempre è rilevante. Il risultato complessivo è un metodo accettabile per dare una gerarchia, per conoscere l’autorevolezza di scienziati e singoli articoli accademici rispetto a certe materie.

Tornando al fisico, che conta nel complesso su più di tremila citazioni, è probabile che se sui suoi temi intervenisse qualcun altro che non ha studiato altrettanto la materia si irriterebbe. A ragione. Eppure, in questioni di politica internazionale tira in ballo Alessandro Orsini, sociologo con all’attivo volumi su terrorismo e poco più di quattrocento citazioni. Un decimo delle sue. Non stiamo qui trattando della validità delle tesi di Orsini, solo che dovendo scegliere un esperto di Russia ed est Europa, non è il primo che dovrebbe venire in mente. A meno che non si prenda la sua voce come una bandiera dietro la quale schierarsi. Al centro della narrativa di Orsini, fra le altre cose, c’è la presunta sconfitta e ipocrisia dell’Occidente. Se si è cresciuti in un Paese fermo socialmente e che a differenza del resto dell’Occidente si è impoverito, dunque se si ha la sensazione o la certezza di non aver combinato molto nella vita e non per i propri demeriti, ascoltare qualcuno che ne predica la sconfitta aiuta a giustificare la propria. E’ solo uno dei motivi possibili e probabilmente vale per alcuni e non per altri. Ma è altrettanto vero che la guerra in Ucraina da noi ha dato vita online a uno scontro nel quale c’è molto più l’Italia che l’Ucraina stessa.  

La conta degli arrabbiati

Le camere di eco sono in continua evoluzione. L’invasione russa ha spaccato quelle costituite in precedenza su altri temi, i vaccini ad esempio, con una minoranza che via via ha iniziato a questionare sulle presunte vere origini del conflitto e una maggioranza invece costernata dall’aggressione delle forze militari del Cremlino. Ondate settimanali o giornaliere di commenti legati ai singoli eventi hanno funzionato come specchi sui quali contrapporsi perdendo il contatto con quello che avviene a Kiev o più semplicemente ignorandolo se non compatibile con le proprie idee. In una inconsapevolezza generalizzata del mezzo che si sta usando per esprimersi e di quel che sta accadendo oltre i nostri confini.

Con la pandemia e i vaccini, l’invasione dell’Ucraina vista dall’Italia condivide la divisione a grandi linee fra chi è contro il sistema e chi è a favore. Il passaggio dei No Vax più radicali dalla parte di Putin è avvenuto quasi immediatamente e dopo di loro si sono uniti altri. Cambiano i temi ma non l’identità di fondo. Per questo il fact-checking, la verifica della singola notizia condivisa usata come un’arma per convalidare una o l’altra tesi, non è efficace. Combatte i sintomi senza guardare alla causa.

Nel caso dei vaccini, i veri No Vax sono meno dell’uno per cento, per quanto molto rumorosi sui social. C’è poi un 15 per cento della popolazione che ha o aveva dei dubbi, dei timori di vario genere sui possibili effetti collaterali. Ma si è avuta la percezione che i No Vax fossero più numerosi sia per la loro attività online sia per lo spazio che i media gli hanno dato. Sta accadendo qualcosa di vagamente simile anche con la guerra in Ucraina, benché qui le proporzioni siano differenti. Ricordate la ricerca del Cnr del 2020?  Affermava che il 40 per cento degli intervistati crede che in Rete si trovi quel che le fonti ufficiali nasconderebbero. Secondo un’indagine Demos del 19 aprile, il 46 per cento della popolazione da noi è convinta che l’informazione sulla guerra in Ucraina sia pilotata e distorta. 

La società plasmata ad immagine di un social network

“E’ una tempesta perfetta per quel che ci riguarda”, conclude Matteo Cinelli. “E ormai le logiche dei social media stanno dilagando nell’intera società grazie alle sue fragilità. Tutti parlano di tutto, senza più alcuna distinzione per le competenze. Sta accadendo anche in ambito accademico. Il principio di autorevolezza sta saltando un po’ ovunque. In tv o sui giornali intervengono persone che non hanno alcun titolo per trattare un certo argomento. L’importante è che facciano discutere, creando ‘engagement’ e si guarda ai social per scovare le figure più divisive”. Da questo punto di vista il virologo Roberto Burioni e il sociologo Alessandro Orsini si somigliano, con la differenza che il primo ha un profilo scientificamente più rilevante rispetto al tema dei vaccini di quanto lo abbia il secondo per commentare la situazione geopolitica russa e ucraina.   

Meno e meglio

In attesa di avere l’indice di tossicità delle piattaforme online al quale Cinelli sta lavorando, bisognerebbe fare molta più attenzione quando si pubblica qualcosa sui social network. Chiedersi ogni volta si commenta, risponde o si mette un like, perché lo stiamo facendo, a cosa stiamo reagendo. Bisognerebbe esprimersi meno e farlo con più consapevolezza. Peccato che la consapevolezza sia una merce rara ed è anche difficile da raggiungere. Il bonus per l’assistenza psicologica forse aiuterebbe se concesso all’intera popolazione e non è affatto una battuta sarcastica.

L’alternativa è quella di chiudere quei social network che prosperano sulle nostre peggiori emozioni, ipotesi che forse andrebbe presa in considerazione, o migliorare le condizioni di vita delle persone sapendo che a quel punto la frustrazione verrebbe meno, almeno in parte. E ancora dare un senso alla parola ‘merito’. Una strada lunga e complessa, ma ovviamente l’unica che offre garanzie. Con l’aggiunta di investimenti sulla scuola più lungimiranti rispetto a quanto fatto fino ad oggi. Ammesso sempre che si continui a pensare che in un Paese sano due più due debba fare quattro e non “Hitler”, “nazi” o cinque, come nel regime totalitario descritto in 1984 di George Orwell.

Un epilogo casuale

Una domenica di aprile capitiamo per caso in un bar di Sacrofano, a nord di Roma. Ad un tavolo Francesca Braghetta, insegnante del nido, sta raccontando ad un’amica cosa la spaventa delle discussioni online. Usa un’analogia: “Quando i bambini iniziano a parlare c’è una fase di scontri continui. Se uno dice ‘mia mamma’ l’altro crede stia parlando di sua mamma, non sapendo che di mamme ce ne sono una per ogni bambino, e allora risponde arrabbiato ‘mia mamma!’. A sua volta il primo, ancora più alterato, gli urla ‘mia mamma!’ e vanno avanti così fino alle lacrime. Non lo so… mi sembra che online vediamo la stessa dinamica”.  Un po’ tranchant come paragone, ma a suo modo suggestivo.

(Repubblica, Jaime D’Alessandro)

Il “collasso del contesto” sui social

Perché opinioni innocue condivise inizialmente con un pubblico ristretto e complice provocano spesso reazioni sproporzionate e polarizzanti sulle piattaforme?

(Sascha Schuermann/Getty Images)

Ad aprile scorso, la giornalista del Guardian Elle Hunt stava conversando con amici in un pub a proposito di film e di generi cinematografici. Decise di riportare su Twitter, attraverso il suo account, una questione emersa durante quella conversazione spensierata e propose un sondaggio: se il film Alien potesse essere considerato un horror. Rispondendo a un utente, espose la sua concisa posizione – «no, perché un horror non può essere ambientato nello Spazio» – e, dopo aver letto alcune obiezioni, mise da parte lo smartphone.

Il giorno dopo, Hunt trovò decine di email da parte di sconosciuti arrabbiati con lei, e altre di suoi amici preoccupati. Scoprì che il sondaggio aveva ricevuto 120 mila voti e che la sua opinione era stata citata da migliaia di persone, tra cui il regista Kevin Smith, che se la prendevano con lei per la sua affermazione sui film horror. Molti le chiedevano di scusarsi con diversi registi famosi. La ragione di tante attenzioni, scoprì Hunt, un’utente verificata ma con poche migliaia di follower, era che quel sondaggio era finito tra gli argomenti “di tendenza” – la sezione di Twitter con le notizie più discusse – negli Stati Uniti e nel Regno Unito.

La spiacevole esperienza di Hunt è uno dei numerosi esempi di interazioni sui social in cui un pubblico eccessivamente esteso elabora – in modi solitamente poco indulgenti – un’informazione inizialmente concepita per un pubblico molto più ristretto. Negli ultimi anni, alcune riflessioni intorno ai social media hanno descritto in termini sociologici questa circostanza – tipica di molte piattaforme social – come “collasso del contesto”, l’effetto prodotto dalla coesistenza di molteplici gruppi sociali in unico spazio.

«Prendere pubblici diversi, con norme, principi e livelli di conoscenza diversi, e radunarli tutti in un unico spazio digitale per farli coesistere porta prevedibilmente a conflitti regolari e potrebbe, su scala nazionale, persino renderci più radicalizzati», ha scritto recentemente su The Verge il giornalista Casey Newton, riferendosi in particolare a Twitter. Il risultato più probabile, scrive Newton, è che un individuo con un seguito moderatamente ampio, a prescindere dal contenuto delle sue affermazioni, venga inevitabilmente frainteso da «persone apparentemente determinate a fraintenderlo».

Il concetto di “collasso del contesto” deriva da nozioni tratte dalle teorie formulate nella seconda metà del Novecento dal famoso e influente sociologo americano Erving Goffman a proposito delle strutture e delle dinamiche delle interazioni sociali. Goffman si occupò di come gli individui in un gruppo adattino la loro comprensione e definizione del contesto sociale in base alle diverse situazioni. In genere, le definizioni dei vari individui tendono a essere in armonia tra loro in modo che sia possibile stabilire un consenso operativo ed evitare situazioni di imbarazzo o conflitti.

Goffman utilizzò la metafora della recitazione e parlò di «performance» per definire le azioni compiute da un individuo quando – in un gruppo di altre persone che fanno sia da pubblico («audience») che da “attori” a loro volta – cerca di determinare e controllare la rappresentazione di sé che propone agli altri. E normalmente quell’individuo distingue i diversi tipi di pubblico in modo da decidere di volta in volta le azioni più appropriate da compiere a seconda delle diverse situazioni sociali.

Mentre queste operazioni risultano relativamente semplici e automatiche nel caso delle interazioni di gruppo faccia a faccia, l’adattamento delle performance nei contesti online è complicata dalla compressione e dall’appiattimento di più tipi di pubblico in un unico contesto. Basandosi sul lavoro di Goffman e di altri sociologi, alcuni studiosi come l’antropologo Michael Wesch e l’etnografa e teorica dei social media Danah Boyd hanno sostenuto che le piattaforme dei social hanno reso più sfumati e indefiniti i confini tra i gruppi sociali di riferimento, gruppi che per lungo tempo avevano modellato le relazioni personali e le identità degli individui.

L’avvento dei social media ha contribuito significativamente a ridefinire Internet come uno spazio in larga parte sovrapposto al mondo reale, uno spazio profondamente diverso rispetto a quello in cui, in precedenza, le persone potevano cambiare genere, età o personalità attraverso identità virtuali rappresentate da pseudonimi e avatar.

Sui social network, gli individui hanno invece accolto una definizione di contesto che ammettesse la possibilità che una singola rappresentazione di sé, per utilizzare i termini di Goffman, potesse essere proposta ad amici, colleghi, genitori, insegnanti e altri gruppi eterogenei. «I giorni in cui potrai dare un’immagine di te differente agli amici, ai colleghi di lavoro e alle altre persone che conosci finiranno probabilmente in breve tempo», disse il CEO e fondatore di Facebook Mark Zuckerberg nel 2010, descrivendo come una «mancanza di integrità» la scelta di avere più identità.

Sebbene negli spazi virtuali trovi applicazioni e sviluppi specifici e complessi, il collasso del contesto non è un fenomeno presente esclusivamente su Internet. Secondo Natalie Pennington, docente di comunicazione all’Università del Nevada, i matrimoni sono un esempio tipico di collasso del contesto offline. «Hai lì la tua famiglia, i tuoi colleghi e i tuoi vecchi amici, e può essere difficile sapere come comportarsi e come comunicare», ha detto Pennington, sottolineando la differenza principale rispetto all’esperienza del collasso del contesto online: che il matrimonio, a un certo punto, finisce.

L’impossibilità di presentare sui social media versioni di sé stessi orientate a un pubblico diversificato, secondo l’antropologo Michael Wesch, uno dei primi teorici del collasso del contesto, ha determinato una specie di crisi di identità dell’individuo. «Il problema non è la mancanza di contesto. È il collasso del contesto: un numero infinito di contesti che collassano l’uno sull’altro in quel singolo attimo della registrazione. Le immagini, le azioni e le parole riprese dall’obiettivo possono in qualsiasi momento essere trasportate in qualsiasi parte del pianeta e conservate per sempre», scrisse Wesch nel 2009 descrivendo uno dei possibili utilizzi di YouTube.

In tempi più recenti, come ha osservato lo scrittore americano Nicholas Carr, è emersa tra gli utenti dei social network una tendenza a ripristinare i diversi contesti. Questa attitudine ha accresciuto la popolarità di nuove piattaforme come Snapchat – in cui i messaggi scompaiono rapidamente – ed esteso l’abitudine di rendere privati gli account o di limitare il proprio pubblico organizzando e delimitando i diversi gruppi in «cerchie», attraverso gli strumenti progressivamente introdotti da diversi social network.

In un’analisi in cui riprende la vicenda della giornalista del Guardian Elle Hunt, il giornalista Charlie Warzel si è chiesto insieme alla stessa Hunt quanto il collasso del contesto sui social media debba essere inteso come un fenomeno problematico e dagli effetti imprevisti, o quanto sia invece da ritenere una caratteristica specifica delle piattaforme e una prerogativa del loro modello di business. Nel caso di Hunt, scrive Warzel, mostrando quel tweet negli argomenti “di tendenza” Twitter «ha preso un’opinione insignificante di un’utente verificata e l’ha presentata a milioni di persone come fosse una sorta di evento significativo per la cultura pop».

È proprio l’obiettivo di quella controversa sezione di Twitter, spiega Warzel, invitare gli altri utenti a partecipare a una conversazione. Ma è abbastanza ininfluente, in questo senso, quali siano le premesse – il contesto, appunto – da cui partiva l’autore del tweet prima di formulare quella specifica opinione, che viene poi amplificata dalla piattaforma e utilizzata da altri come possibilità di esporre altri aspetti della discussione che hanno interesse a far emergere. «La scelta di mettermi in tendenza ha avuto l’effetto di presentarmi come una figura pubblica in un modo che avrebbe potuto soltanto incoraggiare le offese», ha detto Hunt.

Warzel sottolinea che quanto capitato a Hunt è certamente non grave, se confrontato con casi di offese e molestie espresse sui social network e in grado di rovinare la vita delle persone. Ma è proprio il fatto che sia un caso abbastanza familiare e non eccezionale, a renderlo particolarmente significativo: «un perfetto esempio delle dinamiche dei nostri social media rotti, che sembrano sempre più progettati per disumanizzarci, polarizzarci e renderci tutti infelici».

Warzel e Hunt ritengono che, sotto questo aspetto, le frequenti espressioni di intransigenza e intolleranza presenti su Twitter siano meno da inquadrare come una manifestazione della cosiddetta cancel culture e più come un esempio di «fallimento della piattaforma». Il caso di Hunt è stato colto dagli appassionati di cinema e dai fan dell’horror e della fantascienza come un’opportunità per far pesare le loro opinioni e affermare le loro particolari identità.

Quando il “personaggio del giorno”, spiega Warzel, diventa oggetto di attenzioni da parte del pubblico disparato della piattaforma («troll di destra, giornalisti annoiati con un enorme seguito, accademici, politici in carica»), quello che succede in termini sociologici è che «migliaia di forti identità individuali online si scontrano l’una contro l’altra», incrementando le opportunità di «crollo del contesto». Che è una caratteristica della piattaforma stessa: la capacità di cambiare contesto senza particolare attrito, rendendo le interazioni «spontanee ed eccitanti» ma anche, in altri casi, profondamente spiacevoli.

Se è un problema, spiega Warzel, si tratta di un problema evidentemente irrisolto e noto ai responsabili delle piattaforme, che per anni hanno lasciato che gli argomenti di tendenza «si trasformassero in un pozzo nero di disinformazione» e che troll e teorici delle cospirazioni «iniettassero idee pericolose nel mainstream». Warzel sostiene che, nonostante la progressiva introduzione di strumenti pensati per limitare offese e abusi, Twitter non sia stata in grado di risolvere quello che accade quando gli utenti riescono a «sfondare» e ad accedere a enormi bacini di attenzione.

«Sembra che l’azienda non si renda ancora conto che una delle peggiori esperienze possibili su Twitter sia effettivamente quella di vincere la lotteria e diventare virale», conclude Warzel.

— Leggi anche: Dovremmo studiare meglio gli effetti dei social network sul comportamento collettivo (Il Post, 11 luglio 2021)

(articolo originariamente pubblicato su https://www.ilpost.it/2021/09/18/collasso-contesto-social-network/)

Cosa c’è nei “Facebook Papers”

I documenti interni a Facebook diffusi dalla whistleblower ed ex dipendente Frances Haugen, amplificano e raccontano nel dettaglio i fallimenti della dirigenza di Facebook nel contenere la disinformazione e l’incitamento all’odio e alla violenza sulla piattaforma, a volte per carenza di mezzi tecnici, a volte per non danneggiare i profitti che derivano dall’attività delle persone sulla piattaforma.

Former Facebook employee Frances Haugen testifies during a Senate Committee on Commerce, Science, and Transportation hearing entitled ‘Protecting Kids Online: Testimony from a Facebook Whistleblower’ on Capitol Hill in Washington, DC, USA, 05 October 2021 . Haugen left Facebook in May 2020 and provided internal company documents about Facebook to journalists and others, alleging that Facebook consistently chooses profit over safety. EPA/Drew Angerer / POOL

Gli articoli usciti lunedì sono decine (il sito di cose tecnologiche Protocol li ha elencati tutti) e sono basati sugli stessi documenti che il Wall Street Journal aveva usato per la sua ampia inchiesta su Facebook, chiamata “Facebook Files” e uscita a puntate tra metà settembre e l’inizio di ottobre.

Haugen, inizialmente, aveva dato accesso esclusivo ai documenti ai giornalisti del Wall Street Journal, ma in seguito ha deciso di consegnare i documenti ad altre testate, che hanno formato una specie di consorzio e hanno accettato di cominciare a pubblicare i loro articoli tutti assieme lunedì mattina (benché alcuni abbiano violato l’accordo, chiamato embargo, e abbiano cominciato a pubblicare venerdì sera).

Il Wall Street Journal, dunque, ha avuto la precedenza sulla consultazione dei documenti e sulla pubblicazione di articoli basati sui leak (le informazioni trapelate), mentre il consorzio degli altri giornali ha avuto la possibilità di accedervi soltanto dopo. La mole dei documenti di Haugen, tuttavia, è così ampia che i giornali coinvolti hanno comunque pubblicato numerosi approfondimenti e dettagli. Hanno fatto parte del consorzio 17 giornali americani, tra cui il New York Times, il Washington Post e riviste come l’Atlantic, più alcuni giornali europei, come il Financial Times e Le Monde.

I giornalisti del consorzio hanno anche deciso di cambiare nome alla massa di documenti, e dunque anche all’inchiesta: mentre il Wall Street Journal aveva parlato di “Facebook Files”, i giornali che hanno pubblicato lunedì hanno parlato quasi tutti di “Facebook Papers”, anche se si tratta grossomodo degli stessi documenti. Non è del tutto chiaro in realtà se i documenti siano esattamente gli stessi, ma comunque lo è la gran parte.

I documenti affidati al consorzio da Haugen sono gli stessi consegnati a una commissione del Congresso americano, e alcuni elementi, come per esempio i nomi dei dipendenti di Facebook, sono stati omessi.

Poiché sono basati sugli stessi materiali, nel loro complesso gli articoli sui “Facebook Papers” ricalcano i temi già trattati dal Wall Street Journal nella sua inchiesta sui “Facebook Files” e descritti da Haugen sia nelle sue apparizioni televisive sia nella sua nota deposizione al Congresso, all’inizio di ottobre: mostrano come la dirigenza di Facebook abbia spesso messo il profitto e la ricerca dell’engagement (cioè il coinvolgimento degli utenti) davanti alla sicurezza e al benessere degli utenti.

Tra le inchieste del Wall Street Journal, per esempio, una delle più rilevanti mostrava come Facebook, nonostante avesse ricevuto un rapporto sui disagi psicologici provocati sugli adolescenti da Instagram (social network di proprietà di Facebook), non avesse preso nessuna iniziativa per risolvere il problema.

Uno dei principali nuovi aspetti dell’inchiesta riguarda il fatto che Facebook sia in gran parte impreparato a contrastare la disinformazione fuori dagli Stati Uniti (dove nel 2020 l’azienda ha impiegato l’87 per cento del suo budget per la creazione di un algoritmo di riconoscimento della disinformazione) e da pochi altri paesi occidentali che considera importanti per il suo business.

Come ha scritto il New York Times, le cose sono enormemente complicate in paesi che Facebook considera centrali, come l’India, dove il social network ha 340 milioni di utenti e dove si parlano 22 lingue riconosciute ufficialmente, più vari dialetti. I documenti di Haugen mostrano che «Facebook non aveva abbastanza risorse in India e non era in grado di gestire i problemi che lui stesso aveva introdotto nel paese, come la proliferazione di post contro i musulmani».

Su The Vergesi racconta che in Etiopia Facebook non ha quasi nessuna risorsa per contrastare il diffondersi della disinformazione, benché nel paese il social network abbia milioni di utenti e un ruolo rilevante nella vita pubblica. Altri esempi riguardano l’Afghanistan, dove Facebook ha 5 milioni di utenti e anche le pagine per denunciare l’incitamento all’odio sono tradotte male.

Il Washington Post si è concentrato invece su alcuni documenti che riguardano l’attacco al Congresso americano dello scorso 6 gennaio, e racconta come nei mesi precedenti all’insurrezione ci fossero state alcune avvisaglie della possibilità che il malcontento organizzato su Facebook potesse trasformarsi in un’azione violenta, ma furono in gran parte ignorate.

Sono citate anche diverse ricerche interne a Facebook, che mostrano come i meccanismi di funzionamento del social network siano funzionali alla diffusione della disinformazione e dell’incitamento all’odio, e di come dentro a Facebook molti dipendenti e dirigenti ne siano consapevoli: in un rapporto del 2019, un ricercatore scriveva che «ci sono forti prove che le meccaniche fondamentali del prodotto siano una parte importante della ragione per cui questo tipo di discorsi [di disinformazione e incitamento all’odio] prolifera sulla piattaforma».

In generale, i documenti di Haugen contengono moltissime discussioni avvenute dentro a Facebook, e mostrano come i dipendenti siano stanchi e sopraffatti dal proliferare di disinformazione e incitamento all’odio: «Con tutto il rispetto, non abbiamo avuto abbastanza tempo ormai per capire come gestire la piattaforma senza amplificare la violenza?», scriveva un dipendente di Facebook dopo l’assalto al Congresso, in risposta al messaggio di un dirigente. «Abbiamo alimentato questo fuoco per molto tempo e non dovremmo sorprenderci se adesso è fuori controllo».

Facebook ha contestato e smentito le ricostruzioni fatte dai giornali basandosi sui documenti di Haugen. Nei giorni scorsi ha anche tentato di screditare la sua ex dipendente, e ha sostenuto che i documenti diano un’immagine incompleta e in gran parte falsa dei processi decisionali dentro all’azienda.

C’è anche una storia di media
Un altro aspetto dei “Facebook Papers” riguarda il modo in cui Haugen li ha consegnati ai giornali del consorzio. Lo ha raccontato Ben Smith, il commentatore di questioni legate ai media del New York Times, che ha descritto come Haugen, dopo aver dato i documenti da lei raccolti al Wall Street Journal, abbia deciso di condividerli anche con altri giornali. Il 7 ottobre, quando ormai l’inchiesta del Wall Street Journal si era conclusa, lei e alcuni suoi collaboratori hanno organizzato una videochiamata su Zoom con i rappresentanti di 17 testate americane, con cui si sono offerti di condividere i documenti ad alcune condizioni, tra cui quella dell’embargo sulla pubblicazione fino a lunedì 25.

Come scrive Ben Smith, i giornalisti coinvolti hanno tutti accettato le condizioni di Haugen, e questo è un segnale dello spostamento dei rapporti di forza tra i media e le loro fonti, che adesso dispongono di “mega-leak”, cioè di enormi quantità di documenti e materiale, e usano varie strategie per assicurarsi che il loro materiale sia adeguatamente diffuso. «Dapprima [Haugen] ha dato i documenti al Journal per un rilascio esclusivo. Poi ha aperto l’equivalente giornalistico di un negozio outlet, consentendo ai giornalisti di due continenti di scandagliare tutto quello che il Journal aveva lasciato indietro in cerca di gemme informative nascoste. La sua intenzione era di allargare il cerchio, ha detto».

I giornalisti delle varie testate, così, si sono trovati riuniti in un consorzio informale patrocinato da Haugen e dai suoi, e per alcune settimane hanno comunicato in una chat su Slack, il programma di chat lavorative, in quella che Alex Heath, giornalista di The Verge, ha definito «la cosa più strana di cui abbia mai fatto parte, dal punto di vista del giornalismo». Il nome della chat, scelto da Adrienne LaFrance, giornalista dell’Atlantic, era: “A quanto pare adesso siamo un consorzio”.

Il consorzio si è spezzato venerdì, quando alcuni giornalisti hanno cominciato a pubblicare i loro articoli prima della scadenza dell’embargo.


Articolo originariamente pubblicato su:
https://www.ilpost.it/2021/10/25/facebook-papers/

Leggi anche

La “whistleblower” che ha messo nei guai Facebook

Quanto è difficile per Facebook rimuovere le fake news in italiano sul Covid

Luca Angelini (Corriere della Sera, Newsletter Rassegna Stampa, 21.04.2021)

«Stiamo facendo passi aggressivi per combattere la dannosa disinformazione sul Covid-19 in decine di lingue. Usiamo lo stesso approccio e la stessa tecnologia per rimuovere le false affermazioni sul Covid e sui vaccini in francese, spagnolo, portoghese e italiano cone lo facciamo per l’inglese» assicura Facebook. Ma, a quanto pare, anche questa puzza di fake news. Almeno se si guarda ai risultati di un rapporto appena pubblicato dall’Ong Avaaz, del quale dà notizia Mark Scott su Politico Europe. Le fandonie sulla pandemia pubblicate non in inglese in Europa hanno il doppio di possibilità di rimanere su Facebook, rispetto a quelle in inglese negli Usa, dopo essere state segnalate da chi si occupa di debunking, ossia di scovare e sbugiardare gli spacciatori di «bufale».

Campione della ricerca

Il campione della ricerca, va detto, non era molto grande: 135 post pubblicati tra il 7 dicembre 2020 e il 7 febbraio 2021 e segnalati a Facebook come falsi o fuorvianti da associazioni di fact-checking di riconosciuta autorevolezza e spesso partner della stessa Facebook. In ogni caso, si tratta di notizie fasulle (dal coinvolgimento di Bill Gates nella diffusione del virus alla presunta falsa vaccinazione della vicepresidente Usa Kamala Harris, passando per una serie di menzogne assortite su vaccini e mascherine) che hanno spesso avuto milioni di interazioni.

La percentuale di notizie «incriminate» rimaste online senza che Facebook prendesse provvedimenti è risultata del 29% per quelle pubblicate in inglese (negli Usa, nel Regno Unito e in Irlanda). Ma quella percentuale sale al 33% in Spagna, al 50% in Portogallo, al 58% in Francia e addirittura al 69% in Italia (non ci sono dati su altri Paesi Ue). A dire il vero, anche per quelle in inglese c’è una bella differenza fra quelle uscite negli Usa (26% di non intervento) e in Irlanda e Regno Unito (50%). E se si fa una media di tutte quelle in lingue non anglosassoni si arriva al 56%. Il che, come si diceva, significa una possibilità più che doppia di rimanere indisturbate su Facebook.

Il rapporto segnala, peraltro, altre falle nella capacità di Facebook di arginare l’«infodemia» sul virus. Il tempo medio passato tra la pubblicazione di una fake news e la sua rimozione è stato di 28 giorni (24 per quelli in lingua inglese, 30 per gli altri). È vero che Facebook deve avere il tempo di valutare le segnalazioni dei fact-checker, ma questi ultimi hanno mediamente lanciato l’allerta 9 giorni dopo la pubblicazione. E, ancora, il social di Mark Zuckerberg non sembra avere ancora trovato le armi per vincere la “guerra dei cloni”, ossia ai post quasi identici – foto comprese – a quelli rimossi, o magari semplicemente tradotti in un’altra lingua.

Conclusioni

Le conclusioni del rapporto sono senza sconti: «L’autoregolamentazione dei social media ha fallito in quello che è stato sinora il suo più grande test: questo rapporto dimostra che, un anno dopo l’inizio della pandemia di Covid-19, nonostante un certo numero di passi raccomandabili per combattere l’infodemia in corso, Facebook non è riuscita a migliorare la sua capacità di individuare disinformazione dannosa sul Covid sulla sua piattaforma». L’azienda di Zuckerberg ha replicato di aver rimosso milioni di post sul virus e anche sulle teorie complottiste. Secondo Avaaz, vista anche la sproporzione negli interventi nei Paesi non anglofoni, è l’Unione europea a dover intervenire. Ad esempio, rivedendo le norme del suo Codice contro la disinformazione.

Una revisione che, per Avaaz, dovrebbe comprendere almeno tre interventi: 1) Oltre a migliorare rapidità e quantità di interventi contro le fake news, Facebook dovrebbe fornire informazioni corrette retroattive agli utenti che hanno visto post con false notizie. 2) “Disintossicare” l’algoritmo di Facebook, che spesso è il primo responsabile della diffusione di notizie false, perché sono quelle che provocano più engagement e quindi più attrazione potenziale per gli inserzionisti. 3) Obbligare l’azienda di Zuckerberg a dare un resoconto di quanto grande sia la massa di disinformazione che circola sulla sua piattaforma. «Dobbiamo iniziare a trattare la disinformazione come trattiamo la Co2. Non possiamo abolirla, ma dobbiamo rendere le piattaforme responsabili della loro riduzione, nel tempo, a livelli che siano meno tossici per la società».

Vaccino Covid, Israele e la cyberguerra contro i no-vax e le fake news

Una squadra di giovani è stata incaricata dal ministero della Sanità di combattere la disinformazione sul vaccino

di Davide Frattini

Vaccino Covid, Israele lancia la cyberguerra contro i no-vax e le fake news


GERUSALEMME – A Bnei Brak gli infermieri distribuiscono vaccini e cholent, la zuppa di carne con patate che gli ultraortodossi cucinano per il giorno sacro di Shabbat. A Jaffa il camioncino piazzato dal comune offre le dosi assieme a un piatto di hummus, la crema di ceci passione e orgoglio degli arabi. A ognuno la ricetta preferita per tentare di attrarre gli indecisi, quelli che non si sono ancora presentati in uno dei centri allestiti in tutto il Paese.

Agli oltranzisti, i no-vax che si oppongono alla campagna di massa, il governo prova invece a proporre cibo per la mente. Informazioni scientifiche che devono contrastare i messaggi catastrofisti e le teorie del complotto pubblicate sui social media. Una lista di fake news in disordine sparso: con il liquido vengono iniettati dei microchip per pedinare la gente; il farmaco può causare la morte e danneggia i feti; sarebbe tutto un esperimento per di ridurre la popolazione o usarla come cavia da laboratorio. Le notizie infondate si diffondono attraverso Facebook (che ha già cancellato migliaia di post su richiesta del ministero della Giustizia israeliana) e soprattutto Telegram «perché garantisce l’anonimato e rende quasi impossibile fermare la catena di bugie» spiega Amit Goldstein al quotidiano Haaretz.

Amit guida la squadra di 11 giovani – presto se ne aggiungeranno 7 – che è stata incaricata dal ministero della Sanità di combattere la cyberguerra contro la disinformazione. «Una guerra d’attrito», la definisce il giornale: per ogni megafono virtuale silenziato se ne accendono altri cento. Qualcuno dei ragazzi è ancora in divisa, altri l’hanno messa nell’armadio da poco. Sono stati addestrati nell’esercito a monitorare i canali usati dai terroristi o dagli Stati nemici, da tutti quegli attori che vogliono favorire il caos attraverso raid virtuali. Lavorano dall’alba alla mezzanotte in una sala tutta schermi allestita in un centro congressi dalle parti dell’aeroporto, a pochi chilometri da Tel Aviv, e si occupano di dare la caccia «a quei dati che vengono presentati come ufficiali», dice Einav Shimron, sempre ad Haaretz. «Abbiamo fatto rimuovere documenti che riportavano il timbro della Food and Drug Administration americana o della casa farmaceutica Pfizer: numeri inventati, effetti collaterali inesistenti, citazioni di scienziati stranieri sconosciuti».

Il governo israeliano si è posto l’obiettivo di vaccinare i due terzi della popolazione (esclusi i minori di 16 anni) entro la fine di marzo: l’entusiasmo delle prime settimane, con quasi 200 mila inoculati al giorno, è superato dal timore di aver raggiunto una soglia critica, i numeri calano, chi viene convocato non si presenta. I gruppi a rischio hanno ricevuto la seconda dose e la maggior parte delle persone sopra ai 50 anni la prima, tocca ai più giovani e restano da raggiungere gli scettici: le operazioni vanno a rilento nei quartieri ultraortodossi (dove alcuni rabbini condannano le vaccinazioni) e nelle cittadine arabe.

I no-vax continuano a lanciare polvere negli occhi e negli ingranaggi dell’operazione: attraverso Facebook hanno incitato a prendere finti appuntamenti e a non presentarsi per costringere gli ospedali a gettare via le fiale scongelate. Supportati anche da parlamentari come Eli Avidar di «Israele è la nostra casa» (destra) che ha ribadito il suo rifiuto sostenendo di essere in buona salute grazie a yoga e dieta vegana. Il premier Benjamin Netanyahu bolla i «non vaccinati» come i nuovi nemici e valuta sanzioni. Il governo progetta anche benefici da offrire per incentivare i cittadini: torna l’idea del patentino verde che permetta l’ingresso in cinema, teatri, palestre, ristoranti, la partecipazione a eventi pubblici solo a chi abbia ricevuto l’inoculazione.

s: https://www.corriere.it/esteri/21_febbraio_15/vaccino-israele-bibi-lancia-cyberguerra-contro-no-vax-fake-news-870758fc-6f8d-11eb-90fa-04aff0071378.shtml

Tre grandi Magazine USA


The Atlantic è forse il più illustre mensile di news americano: c’è dal 1857, si chiamava Atlantic Monthly, poi la sua grande capacità di costruirsi un’identità online forte e prioritaria ha fatto accantonare il “monthly”, e oggi è uno dei migliori contenitori di articoli di qualità americani, tra quelli che non coprono il ciclo di news delle 24 ore e che hanno maggiori similitudini con i contenuti e gli approfondimenti dei “magazine”. Qualche anno fa la sua maggioranza è stata comprata da una società di Laurene Powell Jobs, vedova di Steve Jobs: quest’anno sono stati molto celebrati i risultati con gli abbonamenti digitali.

Wired è stata la testata più capace di rappresentare l’epoca del cambiamento tecnologico e dell’innovazione digitale da quando nacque nel 1993: oggi il campo si è affollato e quei temi sono coperti da molti, ma il brand è sempre molto amato e “cool”. È pubblicato dalla grande multinazionale editoriale Condé Nast (che ha anche Vanity Fair e il New Yorker), e ce n’è un’edizione italiana avviata nel 2009 da Riccardo Luna come direttore e che oggi è un trimestrale diretto da Federico Ferrazza che ha trovato una sua misura economica anche con un gran lavoro sugli eventi sponsorizzati.

The New Yorker è probabilmente il settimanale più ammirato del mondo – assieme all’Economist – per la sua qualità, i suoi numeri e i suoi risultati, famoso per la lunghezza avvincente e la profondità dei suoi articoli e per alcune storiche rubriche, oltre che per la scelta delle sue famose illustrazioni di copertina.

Giovedì è stato annunciato che il nuovo amministratore delegato dell’Atlantic sarà Nick Thompson, giornalista 45enne già direttore del sito del New Yorker e fino a oggi direttore di Wired.

Le due Americhe divise sul Covid e l’intelligenza di gregge che servirebbe

Nature Human Behaviour, Usa Today

Luca Angelini (Newsletter Corriere della Sera, 27/11/2020)

Forse vi ricorderete il racconto dell’infermiera del South Dakota che ha raccontato di aver tenuto la mano a pazienti ridotti in fin di vita dal Covid che continuavano a negare l’esistenza del virus. Massimo Gaggi aveva già indagato, sul Corriere, «il cuore scettico dell’America». Alia E. Dastagir, su Usa Today, ha messo assieme alcuni studi che testimoniano come il dilagare drammatico della pandemia negli Stati Uniti non abbia riavvicinato, come si poteva sperare, le due metà opposte dell’America.

Jay Van Bavel, co-autore di un articolo al riguardo pubblicato su Nature Human Behaviour, dice di essere rimasto sorpreso dal fatto che il virus, con il suo costo in vite umane, non abbia fatto cambiare idea di pari passo con il suo diffondersi: «Semmai è successo il contrario», ossia le posizioni si sono allontanate e fossilizzate ancor di più. Secondo Josh Clinton, politologo della Vanderbilt University, Democratici e Repubblicani, sulla pandemia, non erano tanto distanti a febbraio, quando vennero scoperti i primi casi, ma le posizioni si sono divaricate quando i politici — e i media apertamente schierati come Fox News — hanno preso il sopravvento sugli esperti di sanità.

La parte forse più interessante dell’articolo è quella sul probabile motivo per cui i fatti non facciano cambiare le opinioni. Ed ha a che fare, secondo Shana Gadarian, psicologa politica alla Syracuse University, con la ricerca e affermazione della propria identità (che, ci permettiamo di aggiungere, diventa sempre più ossessiva in un mondo in cui siamo assediati di continuo dalle identità altrui, attraverso i social). «Gli esperti dicono che lo schierarsi con una parte (partisanship) non è soltanto un’identità politica, è anche un’identità sociale — sintetizza Dastagir —. Le visioni espresse segnalano a quale gruppo politico si appartiene. Se essere un Repubblicano oggi significa non doversi preoccupare per il Covid-19 e non indossare una mascherina, allora chi si identifica come Repubblicano sente di dover abbracciare tale posizione». Fino all’estremo di non lavarsi le mani nemmeno in casa, dove nessuno ti vede, come ha scoperto Gadarian nelle sue ricerche.

Inutile aggiungere che in Rete uno trova, oltretutto, tutte le informazioni, o disinformazioni, per corroborare la propria opinione, ossia per sentirsi dire quel che ha già deciso di volersi sentir dire. Ed ecco costruiti i «mondi paralleli» in cui gli abitanti di ciascun mondo non hanno alcun punto di contatto con chi abita gli altri.

C’è qualche via d’uscita? Una sono le regole. Come fa giustamente notare Dastagir, «se ogni Walmart (la più grande catena di supermercati degli Usa, ndr) impone che tu indossi la mascherina, non importa di che partito sei, dovrai indossarla se vuoi fare la spesa». L’altra strategia è cercare di de-politicizzare il dibattito sul coronavirus e quello, incombente, sul vaccino, per non erodere la dose minima necessaria di fiducia nelle istituzioni che è necessaria per accettare le disposizioni sanitarie (ne avevamo parlato nella rassegna del 17 novembre).

Come dice Josh Clinton: «Forse dobbiamo pensare non in termini di “immunità di gregge” ma di “intelligenza di gregge”. Se riuscissimo ad avere abbastanza gente che la pensi allo stesso modo e lavori insieme come americani, allora forse potremo uscire dal tunnel e tornare a vedere la luce». Joe Biden sembra averlo capito: «Non siamo in guerra tra di noi, ma contro il virus» ha detto ieri rivolgendosi agli americani. Tutti.

Il caso Cambridge Analytica, spiegato bene

Perché Facebook è di nuovo oggetto di accuse e critiche su come gestisce i nostri dati, e cosa c’entrano Donald Trump e la Russia

di Emanuele Menietti – @emenietti (19 marzo 2018)

cambridge-analytica

Il CEO di Cambridge Analytica, Alexander Nix, durante una presentazione (Christian Charisius/picture-alliance/dpa/AP Images)

 

Nel fine settimana appena trascorso, Guardian e New York Times hanno pubblicato una serie di articoli che dimostrano l’uso scorretto di un’enorme quantità di dati prelevati da Facebook, da parte di un’azienda di consulenza e per il marketing online che si chiama Cambridge Analytica. La vicenda non è interessante solo perché dimostra – ancora una volta – quanto Facebook fatichi a tenere sotto controllo il modo in cui sono usati i suoi dati (che in fin dei conti sono i nostri dati), ma anche perché Cambridge Analytica ha avuto importanti rapporti con alcuni dei più stretti collaboratori di Donald Trump, soprattutto durante la campagna elettorale statunitense del 2016 che lo ha poi visto vincitore. La storia ha molte ramificazioni e ci sono aspetti da chiarire, compreso l’effettivo ruolo di Cambridge Analytica ed eventuali suoi contatti con la Russia e le iniziative per condizionare le presidenziali statunitensi e il referendum su Brexit nel Regno Unito. Ma partiamo dall’inizio.

 

Che cos’è Cambridge Analytica
Cambridge Analytica è stata fondata nel 2013 da Robert Mercer, un miliardario imprenditore statunitense con idee molto conservatrici che tra le altre cose è uno dei finanziatori del sito d’informazione di estrema destra Breitbart News, diretto da Steve Bannon (che è stato consigliere e stratega di Trump durante la campagna elettorale e poi alla Casa Bianca). Cambridge Analytica è specializzata nel raccogliere dai social network un’enorme quantità di dati sui loro utenti: quanti “Mi piace” mettono e su quali post, dove lasciano il maggior numero di commenti, il luogo da cui condividono i loro contenuti e così via. Queste informazioni sono poi elaborate da modelli e algoritmi per creare profili di ogni singolo utente, con un approccio simile a quello della “psicometria”, il campo della psicologia che si occupa di misurare abilità, comportamenti e più in generale le caratteristiche della personalità. Più “Mi piace”, commenti, tweet e altri contenuti sono analizzati, più è preciso il profilo psicometrico di ogni utente.

 

Cosa se ne fa Cambridge Analytica dei dati
Oltre ai profili psicometrici, Cambridge Analytica ha acquistato nel tempo molte altre informazioni, che possono essere ottenute dai cosiddetti “broker di dati”, società che raccolgono informazioni di ogni genere sulle abitudini e i consumi delle persone. Ogni giorno lasciamo dietro di noi una grande quantità di tracce su ciò che facciamo, per esempio quando usiamo le carte fedeltà nei negozi o quando compriamo qualcosa su Internet. Immaginate la classica situazione per cui andate sul sito di Amazon, cercate un prodotto per vederne il prezzo, poi passate a fare altro e all’improvviso vi trovate su un altro sito proprio la pubblicità di quel prodotto che eravate andati a cercare. Ora moltiplicate questo per milioni di utenti e pensate a qualsiasi altra condizione in cui la loro navigazione possa essere tracciata. Il risultato sono miliardi di piccole tracce, che possono essere messe insieme e valutate. Le informazioni sono di solito anonime o fornite in forma aggregata dalle aziende per non essere riconducibili a una singola persona, ma considerata la loro varietà e quantità, algoritmi come quelli di Cambridge Analytica possono lo stesso risalire a singole persone e creare profili molto accurati sui loro gusti e su come la pensano.

 

Cambridge Analytica dice di avere sviluppato un sistema di “microtargeting comportamentale”, che tradotto significa: pubblicità altamente personalizzata su ogni singola persona. I suoi responsabili sostengono di riuscire a far leva non solo sui gusti, come fanno già altri sistemi analoghi per il marketing, ma sulle emozioni degli utenti. Se ne occupa un algoritmo che era stato inizialmente sviluppato dal ricercatore di Cambridge Michal Kosinski, che da anni lavorava per migliorarlo e renderlo più accurato. Il modello era studiato per prevedere e anticipare le risposte degli individui. Kosinski sostiene che siano sufficienti informazioni su 70 “Mi piace” messi su Facebook per sapere più cose sulla personalità di un soggetto rispetto ai suoi amici, 150 per saperne di più dei genitori del soggetto e 300 per superare le conoscenze del suo partner. Con una quantità ancora maggiore di “Mi piace” è possibile conoscere più cose sulla personalità rispetto a quante ne conosca il soggetto.

 

Ok, ma Facebook cosa c’entra?
Per capire il ruolo di Facebook nella vicenda dobbiamo fare qualche passo indietro: fino al 2014, anno in cui un altro ricercatore dell’Università di Cambridge, A. Kogan, realizzò un’applicazione che si chiamava “thisisyourdigitallife” (letteralmente “questa è la tua vita digitale”), una app che prometteva di produrre profili psicologici e di previsione del proprio comportamento, basandosi sulle attività online svolte. Per utilizzarla, gli utenti dovevano collegarsi utilizzando Facebook Login, il sistema che permette di iscriversi a un sito senza la necessità di creare nuovi username e password, utilizzando invece una verifica controllata da Facebook. Il servizio è gratuito, ma come spesso avviene online è in realtà “pagato” con i dati degli utenti: l’applicazione che lo utilizza ottiene l’accesso a indirizzo email, età, sesso e altre informazioni contenute nel proprio profilo Facebook (l’operazione è comunque trasparente: Facebook mostra sempre una schermata di riepilogo con le informazioni che diventeranno accessibili).

 

Tre anni fa circa 270mila persone si iscrissero all’applicazione di Kogan utilizzando Facebook Login, accettando quindi di condividere alcune delle loro informazioni personali. All’epoca Facebook permetteva ai gestori delle applicazioni di raccogliere anche alcuni dati sulla rete di amici della persona appena iscritta. In pratica, tu t’iscrivevi e davi il consenso per condividere alcuni dei tuoi dati e l’applicazione aveva il diritto di raccogliere altre informazioni dai tuoi amici, senza che fossero avvisati (la possibilità era comunque indicata nelle infinite pagine delle condizioni d’uso di Facebook). In seguito Facebook valutò che la pratica fosse eccessivamente invasiva e cambiò i suoi sistemi, in modo che le reti di amici non fossero più accessibili alle app che utilizzano Facebook Login.

 

L’applicazione di Kogan fece in tempo a raccogliere i dati sulle reti di amici dei 270mila suoi iscritti, arrivando quindi a memorizzare informazioni di vario tipo su 50 milioni di profili Facebook (la stima è del New York Times e del Guardian: per alcuni è sovradimensionata, per altri comprende per lo più dati inutili). Kogan fu quindi in grado di costruire un archivio enorme, comprendente informazioni sul luogo in cui vivono gli utenti, i loro interessi, fotografie, aggiornamenti di stato pubblici e posti dove avevano segnalato di essere andati (check-in).

 

Ma se Facebook lo lasciava fare, dov’è il problema?
Fino a quando l’app di Kogan ha raccolto dati sulle reti social degli utenti non c’è stato nulla di strano, perché in quel periodo la pratica era consentita. I problemi sono nati dopo, quando Kogan ha condiviso tutte queste informazioni con Cambridge Analytica, violando i termini d’uso di Facebook. Il social network vieta infatti ai proprietari di app di condividere con società terze i dati che raccolgono sugli utenti. Per i trasgressori sono previste sanzioni come la sospensione degli account, provvedimento che può determinare la fine del tuo intero modello di business, se questo si basa sui dati e le possibilità di accesso all’applicazione che hai costruito tramite il social network. A quanto sembra, nel caso di Cambridge Analytica la sospensione è arrivata molto tardivamente.

 

Christopher Wylie, ex dipendente di Cambridge Analytica e principale fonte del Guardian per questa storia, sostiene che Facebook fosse al corrente del problema da circa due anni. Come sostengono anche i legali dell’azienda, temendo una sospensione fu la stessa Cambridge Analytica ad autodenunciarsi con Facebook, dicendo di avere scoperto di essere in possesso di dati ottenuti in violazione dei termini d’uso e di averne disposto subito la distruzione. Se così fosse, però, non è chiaro perché Facebook abbia deciso di sospendere Cambridge Analytica solo venerdì 16 marzo, e solo dopo essere venuto a conoscenza dell’imminente pubblicazione degli articoli sul caso da parte del Guardian e del New York Times.

 

https://twitter.com/chrisinsilico/status/975335430043389952

Christopher Wylie 

✔@chrisinsilico

 

Suspended by @facebook. For blowing the whistle. On something they have known privately for 2 years.

Falla? Quale falla?
I giornalisti del Guardian dicono di avere ricevuto forti pressioni da Facebook nei giorni prima della pubblicazione degli articoli, soprattutto per non definire “falla” il meccanismo che consentì a Kogan e poi a Cambridge Analytica di ottenere quell’enorme quantità di dati. Una singola parola può sembrare poca cosa, ma in realtà è centrale in questa vicenda. Da un punto di vista prettamente informatico e di codice non c’è stata nessuna falla: Kogan non ottenne i dati sfruttando qualche errore o buco nel codice che fa funzionare Facebook, semplicemente sfruttò un sistema che all’epoca era lecito e contemplato nelle condizioni d’uso. L’integrità informatica di Facebook non è stata quindi violata in nessun modo, e su questo punto i suoi responsabili puntano comprensibilmente molto per tranquillizzare gli utenti e ridimensionare l’accaduto. D’altra parte, non si può negare che le condizioni d’uso di Facebook fossero “fallate”, visto che permettevano una raccolta di informazioni sproporzionata e senza che se ne potessero rendere facilmente conto le persone comprese nelle reti di amici. Il fatto che la pratica fosse lecita non riduce la sua portata o gli effetti che poi nei fatti ha avuto.

 

Ricapitolando:
• c’è una società vicina alla destra statunitense, Cambridge Analytica, che raccoglie dati personali per creare profili psicologici degli utenti da usare in campagne di marketing super mirate;
• viene sospesa di colpo da Facebook con l’accusa di avere usato dati raccolti sul social network che non le appartenevano;
• Guardian e New York Times pubblicano articoli accusando Facebook di avere reso possibile la raccolta, seppure non attivamente, e di avere poi sottovalutato o nascosto la cosa.

 

Ora che abbiamo raccolto le idee, possiamo passare all’ultima parte della storia: cosa c’entrano Trump e Brexit.

 

Trump e le presidenziali del 2016
Venerdì 16 marzo il procuratore speciale Robert Mueller, che indaga sulle presunte interferenze della Russia nelle elezioni statunitensi e sull’eventuale coinvolgimento di Trump, ha chiesto che Cambridge Analytica fornisca documenti sulle proprie attività. Il sospetto è che l’azienda abbia in qualche modo facilitato il lavoro della Russia per fare propaganda contro Hillary Clinton e a favore di Trump.

Nell’estate del 2016, il comitato di Trump affidò a Cambridge Analytica la gestione della raccolta dati per la campagna elettorale. Jared Kushner, il genero di Donald Trump, aveva assunto un esperto informatico, Brad Pascale, che era poi stato contattato da Cambridge Analytica per fargli provare le loro tecnologie. Steve Bannon, all’epoca capo di Breitbart News e manager della campagna elettorale, sostenne l’utilità di avere una collaborazione con Cambridge Analytica, di cui era stato vicepresidente. Non sappiamo quanto l’azienda abbia collaborato né con quali strumenti, ma dalle indagini condotte finora (giudiziarie, parlamentari e giornalistiche) sappiamo che comunque l’attività online pro-Trump fu molto organizzata e su larga scala.

 

Furono usate grandi quantità di account fasulli gestiti automaticamente (“bot”) per diffondere post, notizie false e altri contenuti contro Hillary Clinton, modulando la loro attività a seconda dell’andamento della campagna elettorale. Gli interventi erano quasi sempre in tempo reale, per esempio per riempire i social network di commenti durante i dibattiti televisivi tra Trump e Clinton, gli eventi più attesi e seguiti dagli elettori. Ogni giorno venivano prodotte decine di migliaia di annunci pubblicitari, sui quali misurare la risposta degli utenti online e ricalibrarli privilegiando quelli che funzionavano di più. Tutte attività sulle quali da anni Cambridge Analytica dice di avere grandi capacità e conoscenze.

 

Cambridge Analytica e la Russia
Anche grazie a un’inchiesta del Wall Street Journal, dalla scorsa estate ci sono nuovi e consistenti indizi sul fatto che Michael Flynn, l’ex consigliere della sicurezza nazionale di Trump, avesse stretti legami con la Russia e le attività per interferire nelle elezioni. Da un documento fiscale sappiamo inoltre che Flynn ebbe un ruolo da consigliere per una società legata all’analisi di dati online che ha aiutato il comitato elettorale di Trump. Quell’azienda era proprio Cambridge Analytica, che ora sta collaborando con la giustizia statunitense, negando comunque di avere fatto qualcosa di illecito.

 

Al momento non sappiamo se la grande quantità di dati raccolta da Cambridge Analytica, comprese le informazioni ottenute da Facebook, sia stata passata alla Russia. E se così fosse non è comunque detto che sia stata direttamente Cambridge Analytica a farlo. Non sappiamo nemmeno di quanto si sia avvalso degli strumenti dell’azienda il comitato di Trump, a fronte del grande impegno online per la propaganda elettorale.

 

Brexit
Nel maggio del 2017 il Guardian aveva già dedicato una lunga inchiesta a Cambridge Analytica e al suo ruolo nella campagna referendaria per Brexit. Secondo l’articolo, l’azienda aveva collaborato alla raccolta di dati e informazioni sugli utenti, utilizzati poi per condizionarli e fare propaganda a favore dell’uscita del Regno Unito dall’Unione Europea. Tramite Mercer, Bannon e lo stesso Trump, la società era di fatto in contatto con i principali sostenitori del “Leave” compreso il leader del partito populista UKIP, Nigel Farage. Il Guardian aveva anche messo in evidenza strani passaggi di denaro verso il comitato del “Leave”. Dopo quell’articolo, Cambridge Analytica avviò un’azione legale contro il Guardian.

 

Ok, ma anche Obama “vinse grazie a Facebook”
In molti hanno fatto notare che i sistemi utilizzati da Cambridge Analytica sono tali e quali alle soluzioni impiegate dai comitati elettorali di Barack Obama nel 2008 e nel 2012, quando fu eletto per due volte presidente degli Stati Uniti. In parte è vero: durante le due campagne elettorali fu raccolta una grande mole di dati sugli utenti per indirizzare meglio pubblicità politiche e coinvolgerli online. Dalla seconda elezione di Obama a quella di Trump sono però passati quattro anni, un periodo di tempo che ha permesso ulteriori evoluzioni dei sistemi per produrre campagne mirate e soprattutto per raccogliere molti più dati e incrociarli tra loro. Il comitato elettorale di Obama parlava a generici gruppi di persone con interessi comuni, Cambridge Analytica a utenti per i quali individua profili psicologici e comportamentali in modo molto più raffinato.

 

Fumo e arrosto
In tutta questa vicenda al momento ci sono moltissimo fumo e indizi che qualcosa sia effettivamente bruciato, ma nessuno ha ancora trovato l’arrosto, la prova definitiva e incontrovertibile, soprattutto sugli eventuali legami tra Trump, Russia e Cambridge Analytica. Alcune valutazioni nell’inchiesta sul Guardian suonano un po’ esagerate, considerato che molte cose sul funzionamento di Cambridge Analytica e sulla raccolta dati tramite Facebook erano già note.

 

L’inchiesta del Guardian ha però il pregio di portare nuovi elementi nel grande dibattito sulle notizie false, sulla propaganda e sulla facilità di diffusione di questi contenuti tramite un uso distorto dei social network. Dimostra che Facebook è probabilmente in buona fede, ma continua ad avere un enorme problema nel garantire che non si faccia un uso non autorizzato dei nostri dati. Facebook continua a fidarsi troppo degli sviluppatori e a non avere strumenti per prevenire un utilizzo distorto dei dati: può punire chi non rispetta le regole, ma non può fare molto per evitare che i dati siano consegnati ad altri e poi ad altri ancora, come probabilmente è avvenuto nel caso di Cambridge Analytica. La posizione di Facebook è ulteriormente complicata dal fatto che usa sistemi di raccolta e analisi simili per il suo servizio di marketing interno, attraverso cui tutti possono organizzare campagne pubblicitarie sul social network, e che costituisce la sua principale fonte di ricavo.

 

Lo stesso problema riguarda buona parte delle altre aziende attive online e che offrono gratuitamente i loro servizi, in cambio della pubblicità e della raccolta di informazioni sugli utenti. In misure diverse, vale per esempio per Google e Twitter. Mentre negli ultimi anni l’Unione Europea ha avviato iniziative per arginare il problema, inasprendo le regole sulla privacy, negli Stati Uniti il mercato dei dati non ha subìto particolari limitazioni. Le richieste negli ultimi giorni di politici e membri del Congresso a Facebook di chiarire meglio la propria posizione, chiedendo che sia anche organizzata un’audizione parlamentare per il CEO Mark Zuckerberg, indicano che qualcosa potrebbe cambiare anche negli Stati Uniti. Una regolamentazione più precisa è del resto attesa da tempo da organizzazioni e attivisti per la tutela della privacy online.

© Il Post – Url originale: https://www.ilpost.it/2018/03/19/facebook-cambridge-analytica/

 

L’ex ragazza di Cambridge Analytica «Manipolavamo tutto: voti, comportamenti e coscienze»

Britanny Kaiser è stata direttrice del settore Business della società degli scandali. Oggi ammette: «Avevo bisogno di soldi, poi ho smarrito la mia bussola etica»

Brittany Kaiser, former employee of Cambridge Analytica, on July 31 in Washington, DC.

«Esiste ormai un’industria della persuasione politica che fattura miliardi di dollari: usa potentissimi strumenti informatici e anche psicologici per alterare le scelte dei cittadini. Quando votano, ma non solo. Sono aziende costruite per produrre servizi di propaganda e disinformazione: prendono di mira i singoli individui, ne ricostruiscono idee, abitudini e vulnerabilità attraverso i loro dati personali e li spingono a cambiare comportamento. Facendo, a volte, perfino scelte contrarie ai loro interessi. Cambridge Analytica era all’avanguardia in queste tecniche di manipolazione delle coscienze. Oggi non c’è più, ma esistono altre imprese simili». Brittany Kaiser, 33enne, texana, lo sa meglio di chiunque altro: ha lavorato per 3 anni e mezzo nel cuore di Cambridge Analytica. Ha chiuso con questa società solo dopo che un ex dipendente, Christopher Wylie, era uscito allo scoperto denunciando i misfatti dell’azienda e del suo capo, Alexander Nix. Più pentita che informatrice (o whistleblower come dicono gli americani), Brittany ha avuto un ruolo fondamentale nel rivelare al mondo, a cominciare dai Parlamenti di Washington e Londra, il modo in cui Cambridge Analytica e la sua società madre, la SCL, sono intervenute nella Brexit, nelle presidenziali americane del 2016, ma anche in tante altre elezioni in giro per il mondo, dalla Nigeria all’Indonesia ai Caraibi. Gentile, riflessiva, ma anche spavalda, con un cappellone da americana in vacanza ai tropici ben calcato sulla fronte, Brittany accetta di raccontare a 7 la sua straordinaria avventura ai confini più avanzati della manipolazione delle coscienze. Un’avventura fatta di uso politico di big data, della psicologia e delle scienze comportamentali.

Le cose che ha denunciato nel 2018 sono state molto utili, ma prima, da donna progressista che aveva cominciato a lavorare quasi da bambina per il partito democratico – volontaria a 15 anni per le campagne elettorali di Howard Dean e, poi, di John Kerry – ha partecipato a operazioni spregiudicate, frequentando personaggi della destra populista e trumpiana, da Steve Bannon a Kellyanne Conway. Fino a Rebekah Mercer, la miliardaria finanziatrice della campagna di Trump. Ambizione? Ingenuità?
«Posso cercare tante spiegazioni. Ho iniziato la mia carriera lavorando per la campagna di Obama nel 2008, dopo averlo incontrato quattro anni prima, alla convention democratica di Boston, ed essermi entusiasmata per il suo impegno ambientalista. Poi, dopo la rielezione del 2012, i suoi strateghi, David Axelrod e Jim Messina, sono diventati consulenti privati, anche per partiti politici stranieri. A me è capitata l’occasione di Cambridge Analytica. Avevo bisogno di soldi per aiutare i miei genitori in difficoltà. Avrei preferito lavorare per i progressisti, ma il partito democratico era già pieno di consulenti. È così, ma, alla fine, la verità è che in un certo periodo della mia vita mi sono persa, ho smarrito la mia bussola etica».

Chiusa in una bolla come la echo chamber del web nella quale molti cercano conferme delle loro convinzioni, più che confrontarsi con opinioni diverse?
«Sì, vivevo in una bolla: un mondo seducente nel quale avevo accesso a gente molto potente. E non sapevo tutto. Le tecniche usate dal team della pubblicità, ad esempio, le ho scoperte dopo: non lavoravano nei nostri uffici e non vedevo i loro computer. Ma vedevo quello che Trump diceva e faceva, sapevo che lo avevamo aiutato e non potevo essere contenta. Sapevo che eravamo una società che non si limitava a diffondere quei messaggi: li aveva creati».

Lei è lucida e dettagliata nel raccontare in Targeted , il libro che ha appena pubblicato, i suoi anni a Cambridge Analytica. Deve avere una memoria fotografica e grandi capacità analitiche. Come mai lei e gli altri giovani del team – brillanti, plurilaureati e, spesso, progressisti – non avete obiettato? Non discutevate tra voi?
«Il caso che è esploso è quello delle presidenziali 2016, ma la società era grande, lavoravamo su molte elezioni in giro per il mondo. Sviluppavamo anche progetti commerciali, non solo politici. Trump era uno dei tanti clienti. Importante, ma uno dei tanti. Prima lavoravamo per Ted Cruz, un suo rivale. Quanto a me, è vero, ho una memoria fotografica. Ma ho anche potuto portare via da Cambridge Analytica i miei computer intatti, con dentro tutto: anni di email, telefonate, resoconti dei meeting».

Nel libro lei cerca di spiegare il perché dei suoi errori, ma ha anche l’onestà di raccontare episodi come la sua partecipazione ad eventi della NRA, la lobby delle armi, o alla CPAC, la conferenza annuale degli ultraconservatori. Le piaceva vedere Dick Cheney salire sul palco col sottofondo musicale di Darth Vader.
«È vero. Riavvolgendo il film di quegli anni ho dovuto ammettere con orrore di aver aderito alla NRA, ho indossato anche il loro cappello. E poi, sì, sono salita sul palco della CPAC, in diretta tv davanti a diecimila persone. Era contro le mie idee, ma mi faceva piacere. Mi piaceva essere nel cuore del potere, ero orgogliosa di essere stata scelta per rappresentare l’azienda. Mentirei se non dicessi che penso ancora a quei momenti con un po’ di rammarico».

Come giudica il ruolo della stampa? Quella anglosassone si è scatenata, ma solo quando, dopo 15 anni di elezioni alterate da Alexander Nix in giro per il mondo, sono finiti nel mirino Stati Uniti e Gran Bretagna.
«La stampa ha avuto un ruolo straordinario, anche se a volte è stata dura e anche prevenuta, con me. Tenga conto che Nix tenne le attività di SCL e Cambridge Analytica segrete, salvo i rapporti con i clienti, fino al novembre 2014 quando vincemmo 33 gare elettorali per il Congresso statunitense nelle elezioni di mid term. A quel punto decise di capitalizzare il successo dando più visibilità al nostro lavoro. Cominciò perfino a concedere alcune interviste».

Cambridge Analytica si era impegnata con Facebook a cancellare il database raccolto dal professor Kogan, il docente di Cambridge che lo aveva ricevuto per motivi di ricerca e poi lo aveva girato a voi. Quei dati non furono cancellati: continuaste a usare anche informazioni su decine di milioni di persone che non avevano dato il loro consenso alla cessione dei dati. Nix non capiva che stava pubblicizzando anche attività illegali? «Penso di no, parlava spesso e con orgoglio di questo enorme database di Facebook: era il nostro tavolo di lavoro. Non ci vedevamo nulla di illegale».

Questo prima del 2015, quando Facebook chiese di cancellare quel database e voi assicuraste di averlo fatto.
«No, anche dopo. Sapevamo di Kogan, ma il suo era uno dei tanti archivi usati da Cambridge Analytica. Pensavamo sempre di lavorare su informazioni che avevamo legalmente. Solo più tardi ho scoperto che quei dati non erano mai stati cancellati: Facebook si era limitata a mandare una mail per chiedere di eliminarli, senza effettuare, poi, alcuna verifica».

Avete usato questi dati in vari modi. Qual è il più pericoloso?
«Gli strumenti sono tanti: le psy-ops, operazioni psicologiche, il confronto dei dati individuali, la costruzione di modelli che aiutano a completare i profili carenti. Ad esempio sappiamo che gli oppositori di Trump tendono ad avere automobili straniere, a fare vacanze in Florida e a mandare i figli in certe università. Questi sistemi di microtargeting consentono di individuare, tra le persone avverse al tuo candidato, quelle meno impegnate, le più disilluse. In politica sono i swing voters . Nel marketing commerciale sono chiamati brand switchers. Sono i persuadables: ti concentri su di loro, inutile perdere tempo con chi già ha convinzioni forti. Capisci quali sono gli elettori potenziali del tuo avversario e li allontani dalle urne con pressioni psicologiche di vario tipo. Questa è l’arma più potente, la più pericolosa per la democrazia: inviare loro, al momento giusto, messaggi fuorvianti, costruiti per istillare paura e insicurezza. Spesso basta spostare l’1 o il 2 per cento per cambiare l’esito di un voto. Trump ha vinto nei tre Stati decisivi per poche migliaia di voti».

Lei parla di Mark Zuckerberg come di un moderno dittatore. Un dittatore dei dati. Ma lui sapeva come venivano usati politicamente quelli di Facebook?
«All’inizio pensava solo a creare nuove fonti di fatturato consentendo ai suoi clienti di costruire applicazioni che macinavano, a pagamento, i suoi dati. Detta così suona innocente, ma quando sei una compagnia che connette a miliardi di persone e offri ai tuoi clienti la possibilità di accedere a tutte le informazioni personali di questo universo umano… Beh, parlare di negligenza è riduttivo. E poi la fiducia cieca negli algoritmi. Sa che, nella sua ricerca automatica di talenti, Facebook si è rivolta anche a me: due settimane fa mi è arrivato un invito a join the team. Buffo no?».

Move fast and break things (muoviti rapidamente e rompi finché puoi), un famoso slogan di Mark Zuckerberg, incarna la filosofia della disruption , diffusa nella Silicon Valley. Steve Bannon, il rivoluzionario della destra sovranista che fu l’architetto della campagna 2016 di Trump, sostiene che per cambiare le società dei vari Paesi bisogna prima romperle. Lei che ha lavorato con i materiali di Facebook e conosciuto bene Bannon vede una connessione tra le due cose?
«Domanda fantastica. Credo che la natura e le intenzioni di Zuckerberg e Bannon siano simili. Seguono la stessa logica: per fare in modo che le cose vadano come vuoi tu devi imporre le tue regole. Le devi creare tu stesso dimostrando che il vecchio modello non funziona più. Steve l’ha fatto a tappeto negli Usa e poi anche in molti Paesi europei, compresa l’Italia. Mark lo ha fatto cercando di rompere le regole che in giro per il mondo limitavano l’attività di Facebook. Oggi siamo a un bivio: lasciare libera Facebook di fare ciò che vuole o fissare regole che impediscano a Zuckerberg di rompere altre cose?».

Lei, che era la pedina di un gioco perverso, ora cerca la redenzione diventando testimonial di una campagna per uscire dal tunnel della manipolazione degli elettori. Al di là dei giudizi etici sulle sue scelte, rimane il valore della sua denuncia: l’unica, insieme a Wylie, che ha raccontato i fatti davanti alle commissioni parlamentari, nel documentario The Great Hacke ora in Targeted , il suo libro appena pubblicato da HarperCollins che uscirà tra pochi giorni anche in Italia col titolo La dittatura dei dati . Può provare a spiegare in breve quali sono i dati prelevati da ogni cittadino e come possono essere usati per alterare i suoi giudizi?
«Con queste tecniche puoi osservare ogni individuo in tutta la sua vita digitale: ogni informazione che passa dal tuo smartphone o dalle carte di credito – dove vai, cosa compri, cosa leggi, le persone che contatti, i messaggi che scambi, i giudizi che dai con i like – finisce nel tuo profilo personale. E quello che vedi sullo schermo è fatto per influenzare il tuo giudizio».

In che senso?
«Accade quando sei sui social media come Facebook o Twitter, quando scambi email o quando fai ricerche su Google. I risultati, la pubblicità, gli articoli che ti arrivano sono messi lì con un proposito, non c’è niente di casuale. Non te ne rendi conto, ma sei bersaglio di strategie sofisticate, basate anche sulle tecniche della psicografica: l’analisi dei profili psicologici e delle fragilità di ognuno di noi. Se sfrutti queste debolezze per vendere prodotti commerciali è un conto. Con la politica le cose cambiano».

Da quando queste tecniche vengono usate e sono diventate efficaci? E lei quando se n’è accorta?
«Devo essere onesta: l’ho capito poco dopo essere stata assunta. Prima nemmeno sapevo dell’esistenza di società specializzate nel tentativo di alterare la volontà degli elettori. Ma ricordo che, in una delle prime riunioni a cui partecipai, Nix disse: “Noi non siamo una società che vende pubblicità: noi cambiamo i comportamenti della gente”. L’esempio classico che faceva ai clienti era quello del cinema. Se vuoi vendere più Coca-Cola durante uno spettacolo puoi fare una pubblicità martellante, ma funziona di più alzare la temperatura nella sala: alla gente viene sete e beve di più. La potenza di questi strumenti è aumentata molto negli ultimi anni grazie ai progressi dell’intelligenza artificiale. Ma le tecniche psicologiche si usavano già prima dell’era di Internet: la SCL le usava fin dagli anni Novanta. Nix si vantava di aver contribuito a cambiare il risultato di varie elezioni, dalla Nigeria a Trinidad & Tobago, a cominciare da quelle del 1999 in Indonesia».

Una vera galleria degli orrori politici.
«Sì, accaduti prima del mio arrivo nella società, ma avrei dovuto capire e trarne le conseguenze. Non è andata così, come le ho detto. Quando è venuto fuori il caso, ho capito che raccontare la mia storia e tutto quello che sapevo era l’unico modo per far vedere alla gente cosa è accaduto e per prepararla a cosa potrebbe accadere in futuro. D’ora in poi mi dedicherò a questo».

15 novembre 2019

© Corriere della Sera