La guerra al tempo dei social network può essere difficile da comprendere. Quando si accede a Twitter, Facebook, Instagram o TikTok, ci si trova davanti a un flusso continuo di immagini, informazioni e notizie. Si tratta di contenuti che provengono da fonti diverse, non sempre in ordine cronologico, che spesso non si è in grado di verificare.
Il conflitto in Ucraina ha fatto tornare al centro del dibattito pubblico il ruolo della disinformazione sui social network: da un lato, c’è la propaganda, per cui le informazioni vengono adattate a seconda della parte in causa che si decide di sostenere; dall’altro c’è una disinformazione forse ancora più subdola, con obiettivi diversi.
È il caso della storia, raccontata su Input Mag, dalla giornalista statunitense Taylor Lorenz, di una pagina dedicata ai meme che, dall’inizio del conflitto, ha cambiato il proprio focus per concentrarsi sulla guerra in Ucraina, spacciandosi per un gruppo di persone impegnate fisicamente sul terreno di scontro. Oppure di quello che accade su TikTok, dove sono sempre più diffuse finte dirette dai territori coinvolti nel conflitto, con l’invito a donare attraverso il sistema interno del social network per sostenere la popolazione ucraina.

Come funziona la macchina della disinformazione
“È importante inquadrare quanto sta succedendo all’interno di dinamiche note, che si ripetono da alcuni anni – ci ha spiegato Fabio Giglietto, professore di Internet Studies all’Università di Urbino e coordinatore del progetto di ricerca sulla disinformazione Mapping Italian News - Ogni volta che ci sono notizie scarse intorno a un tema che ci è vicino, o cui teniamo, si apre lo spazio della disinformazione. Alla base ci sono due grandi motivazioni: quella ideologica, che ha a che fare con la propaganda, e quella economica”.
C’è, in altri termini, chi sfrutta il conflitto (o altri temi di interesse generale) per ottenere un guadagno facile: “Ci sono siti e account che intuiscono che intorno a un tema c’è attenzione e provano a sfruttare quello specifico argomento. È una dinamica che in parte ci siamo abituati a vedere sui social network - ci ha detto ancora Giglietto - sappiamo che se pubblichiamo un post su un determinato tema al centro della discussione, possiamo ottenere un pezzetto dell’attenzione riservata a quell’argomento”.
Chi pubblica disinformazione è ben consapevole del modo in cui le informazioni si diffondono online: per questa ragione, sfrutta le caratteristiche dei social network per raggiungere un numero ampio di persone e per ottenere un tornaconto economico. “Una strategia che utilizzano i produttori di fake news – ci ha raccontato Giglietto - è il comportamento coordinato per la condivisione di link: set di pagine e gruppi che ripetutamente e a distanza di poco tempo condividono gli stessi link. Questo perché gli algoritmi delle piattaforme tendono ad amplificare i contenuti che stanno avendo tante interazioni nei primi momenti di vita. In altre parole, se riesco a far credere all’algoritmo che quel contenuto funziona, posso provare a innescare una maggiore diffusione. Posso, insomma, arrivare a tante persone in carne e ossa, che magari finiscono con l’amplificare ancora di più il mio messaggio”.
Si tratta di un passaggio importante. Spesso, pensiamo alla disinformazione come a un qualcosa di amatoriale, a informazioni o meme che girano in modo naturale in gruppi su WhatsApp o Facebook. Tuttavia, come dimostrato dall’ultimo report del progetto Mapping Italian News, coordinato proprio dal professor Giglietto, le fake news sono spesso figlie di azioni coordinate, di network di disinformazione che agiscono insieme, con l’obiettivo di diffondere il più possibile i contenuti.
Negli ultimi due anni, questi stessi network hanno trovato, un campo di azione nuovo, inedito e ancora poco indagato dalla ricerca scientifica: TikTok. Su cui “non abbiamo dati: l’algoritmo della piattaforma, così evoluto, rappresenta tra l’altro un problema per i ricercatori, perché rende molto difficile ottenere informazioni chiare e univoche. Tuttavia, si tratta di uno spazio che va indagato, se non altro perché ha la capacità di raggiungere un pubblico molto delicato, composto soprattutto da persone sotto i 30 anni”.
Che cosa possono fare le piattaforme
In questo contesto, i grandi social network si stanno muovendo soprattutto con sanzioni economiche, che hanno l’obiettivo di colpire le possibilità di monetizzazione di chi diffonde propaganda. Tuttavia, resta complesso arginare la disinformazione in senso più ampio: “Il punto fondamentale – ci ha spiegato ancora Giglietto - è che alcune piattaforme hanno da tempo raggiunto una scala per la quale il controllo di quanto viene pubblicato è estremamente difficile. Il problema, in altre parole, è che i social network non hanno la capacità di verificare e moderare i contenuti in tutto il mondo”.
Ancora: “L’unica possibilità che le piattaforme hanno è aprirsi allo scrutinio esterno di ricercatori e giornalisti indipendenti. Ed è questa è la strada che lentamente stiamo iniziando a percorrere. Solo così possiamo fare in modo che le decisioni prese dalla politica sulle piattaforme possano essere supportate da dati e non dettate dall’emergenza”.
Da Facebook a Twitter: le sanzioni economiche dei social network alla Russia

Che cosa possiamo fare noi che navighiamo
In assenza di una capacità delle piattaforme di moderare adeguatamente tutte le informazioni, il compito di fare attenzione all’interno dello spazio digitale spetta però anche all’utente. In questo senso, il professor Giglietto ha un consiglio molto semplice nel contenuto, ma non sempre facile da seguire: “Ogni volta che condividiamo una notizia, dobbiamo riflettere sulle conseguenze, soprattutto se ci sentiamo emotivamente coinvolti. Di fronte a contenuti che ci suscitano emozioni, scatta una sorta di automatismo che ci fa bypassare alcune logiche di controllo: questo spesso conduce alla circolazione di contenuti falsi o problematici”.