“Investiamo continuamente nella formazione dei nostri team di moderatori per rafforzare l'applicazione delle nostre Linee guida”: hanno detto così, da TikTok Italia, per rispondere alle nostre osservazioni su come sulla piattaforma si potrebbe migliorare la moderazione dei contenuti, soprattutto quelli prodotti da giornalisti e fonti di notizie.
L’azienda ha aggiunto che “abbiamo migliaia di professionisti della sicurezza in tutto il mondo” che “lavorano insieme con la tecnologia (cioè l’intelligenza artificiale, ndr) che ci aiuta a individuare i contenuti che potenzialmente non rispettano le Linee guida”.
In particolare, per quanto riguarda il cosiddetto fact-checking e la lotta alle fake news, da TikTok Italia ci hanno ricordato che “attualmente collaboriamo con 13 partner per il fact-checking” che “supportano 33 lingue” e “valutano i contenuti in 64 mercati in tutto il mondo” e che “in Italia collaboriamo anche con Facta News”. Da quel che si capisce, insomma, ci sarebbe davvero un intervento umano nella moderazione dei contenuti, soprattutto quando una persona fa ricorso contro una presunta violazione: “Quando un utente fa ricorso, questo viene rivisto da un moderatore, che lo ripristinerà in caso fosse stato commesso un errore”. In questo caso, il video è compreso fra quelli ripristinati (come si capisce dall’ultimo report dell’azienda).
TikTok ha un problema con i giornalisti? I miei due anni fra fake news, minacce di morte e accuse infondate
TikTok fra moderazione e trasparenza
Resta il fatto che quella della moderazione dei contenuti, del modo in cui viene fatta e da chi viene fatta, è una questione aperta per TikTok. Non solo in Italia (dove sarebbe interessante sapere il reale numero dei moderatori e quali siano i tempi di risposta che possono garantire), quanto a livello globale. Di recente, Vanessa Pappas, Chief Operating Officer dell’azienda, ha annunciato online l’intenzione di permettere a un gruppo ristretto di ricercatori esterni l’accesso al sistema di moderazione, così che possano “valutarlo ed esaminare i contenuti disponibili sulla nostra piattaforma”, anche per capire “come diversi tipi di contenuto siano consentiti, respinti oppure inoltrati ai moderatori per un'ulteriore valutazione”.
Non solo: Pappas ha spiegato anche che i ricercatori potranno simulare l’upload di contenuti di diverso tipo (appunto per vedere come vengono gestiti da TikTok) e anche avranno accesso alla lista delle keyword usate per evidenziare i video non consentiti sulla piattaforma.
Tutto questo succederà “presto”, mentre TikTok continua a darsi da fare per dimostrare di essere una piattaforma trasparente e con pochi contatti con la Cina, che è una questione delicata soprattutto negli Stati Uniti: è recente la richiesta di alcuni senatori americani di aprire un’indagine sulla sicurezza dei dati degli iscritti, mentre riecheggiano le parole dell’ex presidente Trump sugli “americani spiati dal governo cinese”. Su questo, come su Italian Tech abbiamo raccontato spesso, l’azienda ha risposto più volte che “non abbiamo mai condiviso i dati degli utenti statunitensi con il governo cinese né lo faremmo se venisse chiesto”, anche ricordando il recente accordo con Oracle per la conservazione dei dati degli iscritti americani su server americani.