I Piccoli Fratelli

Giornalista

Scrivi all'autore | Pubblicato il 14 Dicembre 2018
13 minuti

Esistono nel mondo decine di migliaia di persone che ogni giorno, ogni ora, controllano e verificano i contenuti dei social media. Facebook, Twitter, YouTube…non ci sono solo macchine ed algoritmi a filtrare milioni di post, video, immagini, frasi. L’intelligenza artificiale non basta e, paradossalmente, tanto più aumentano gli utenti quanto più è necessario che anche occhi umani vigilino sull’enorme flusso di dati che attraversa il pianeta. Il loro lavoro è segreto, oscuro, nascosto. Ma qualcosa negli ultimi tempi inizia a emergere.

Ritmi elevatissimi, altissime condizioni di stress, ambienti di lavoro isolati, stipendi bassi e inquadramenti contrattuali ambigui. Sono tantissimi in paesi come India e Filippine per il ‘filtraggio’ più semplice, ma ci sono addetti specifici in ogni singolo paese, a seconda delle esigenze del caso e delle limitazioni, delle leggi e delle caratteristiche specifiche di ogni nazione. Non ci si può aspettare da un operatore di Manila che colga la sfumatura offensiva di un dialetto italiano…

Un mondo nascosto e sommerso ma sempre più decisivo. Perché i social media vivono e fanno business su due pre-condizioni irrinunciabili: engagement e costumer experience. Ovvero, grado di coinvolgimento emotivo e di ‘soddisfazione’ dell’utente-cliente mentre utilizza la piattaforma social. Nel caso di Facebook, più di ogni altro social, qualcosa si sta incrinando. Il livello di conflittualità, di rabbia e di divisione in ‘branchi’ in competizione tra loro è tale che sempre più persone abbandonano il giochino di Zuckerberg per rivolgersi altrove. Un meccanismo di ‘rifiuto’ simile si sta sviluppando anche su Twitter e YouTube affacciandosi anche su quello che era considerato il più neutro dei social, Instagram, diventato il punto di riferimento principale per gli under 20. Davanti al progressivo ‘incattivimento’ dei social il ruolo dei ‘checkers’, dei controllori, è dunque sempre più importante.

Chi per prima ha analizzato e studiato questi lavoratori e ne ha definito le mansioni coniando anche uno specifico acronimo (CCM – Commercial Content Moderation) è Sarah Roberts, Assistant Professor of Information Studies presso l’università californiana UCLA https://gseis.ucla.edu

Ecco l’intervista esclusiva di EC:

-Da quanto tempi si studia questo fenomeno dei ‘checkers’?

Roberts: “Il livello di interesse verso questi temi sta crescendo da poco. I miei studi, le mie ricerche convergono su chi svolge questo lavoro di ‘checker’ in modo organizzato e pagato. Lo dico perchè fino a poco tempo fa questo tipo di ruolo veniva spesso gestito da volontari. L’esempio più forte in questo caso resta Wikipedia. Le grandi compagnie social hanno, invece, bisogno di personale organizzato, stipendiato. E segreto. Parliamo di un numero significativo di persone distribuite in tutto il mondo. Un calcolo approssimativo parla di almeno centomila ‘checkers’. Ci sono diverse strategie, diventa importante la conoscenza della lingua e delle caratteristiche culturali di ogni singolo paese. È molto probabile che ci sia un anche ‘team italiano’, come uno francese o uno tedesco, perchè l’orientamento delle grandi compagnie è di avere personale sempre più competente e localizzato. Per alcuni contenuti visivi il meccanismo di filtraggio è più semplice, ma quando si entra nel contesto culturale e politico c’è bisogno di persone che capiscano il contesto in cui ciò avviene.

-Perché tanta segretezza davanti a queste figure, tanto che difficilmente i singoli paesi rispondono a richieste di informazioni?

“Le ragioni di questa segretezza sono diverse. Le prime ammissioni sulla presenza di questo tipo di lavoratori dentro Facebook, YouTube etc risale agli inizi del 2017, quindi è passato davvero poco tempo. Penso che la ragione per renderlo pubblico sia stato il fatto che la gente si sia sempre più interrogata su come funzionassero i social in particolare dopo la campagna di Trump. A quel punto le persone hanno cominciato a chiedere ‘ma c’è qualcuno che controlla?’ E le grandi compagnie hanno dovuto rispondere ‘sì, abbiamo del personale dedicato’. La segretezza era data dal fatto che le compagnie volevano risolversi i problemi da soli, non volevano anzi pubblicizzare né il problema né il rimedio, perché in primo luogo sarebbe stata una ammissione del problema. E, quindi, per non poter essere criticati sulle soluzioni che trovavano al loro interno. Hanno difeso per anni il concetto che il social media è un luogo di espressione libera e aperta a tutti e gestire la ‘censura’ soprattutto per ragioni commerciali, per evitare fastidi agli inserzionisti. C’è poi un terzo elemento, meno tangibile ma altrettanto importante: queste aziende si considerano come imprese tecnologiche, come aziende informatiche più che come imprese di comunicazione. Si sentono dei ‘tecnologici’ più strumenti di comunicazione di massa. Quindi, al loro interno, credono fermamente di poter risolvere tecnicamente i problemi. Per loro è stato un passaggio epocale: comprendere che la risoluzione di alcuni aspetti non poteva più passare attraverso un nuovo algoritmo o dal controllo di una macchina ma che erano per forza necessari degli esseri umani. La loro ideologia sono i numeri, l’intelligenza artificiale, passare alle persone è stato un fatto traumatico. Questo è un ribaltamento della loro ideologia e non vale solo per i social media ma anche, per esempio, nel costruire smartphone. È come se la traiettoria già scritta di una possibile futura gestione esclusivamente artificiale di queste ‘macchine’ sia stata intercettata da problemi di altra natura”.

Cosa è censurabile cosa no?

“Partiamo dal fatto che ogni regola è variabile e viene costantemente aggiornata. Da una parte ci sono contenuti palesemente illegali e socialmente non accettabili, come la pedopornografia, stupri, scene di dichiarata violenza, bullismo, immagini violente e disturbanti, incitamenti all’odio, dove la rimozione del contenuto è un obbligo di legge da parte delle aziende. Qui è dove si concentra la gran parte del lavoro dei ‘checkers’. Visionano decine di video al giorno o altri contenuti violenti. Da qui nasce il loro stress, perché per 8-10 ore al giorno devono assistere a visioni o letture raccapriccianti da utenti anonimi che sanno bene come usare i social.

Le condizioni in cui lavorano sono molto diverse a seconda del Paese, a seconda delle leggi sul lavoro di quella specifica nazione, ma se dobbiamo immaginare un modello standard pensiamo a un classico call center in India o Filippine, con centinaia di persone in un unico luogo, generalmente sottopagate. Oppure, nei paesi occidentali, questi lavoratori hanno condizioni migliori, si trovano magari all’interno delle modernissime sedi di Google o Facebook ma non sono mai pagati direttamente da loro, i loro contratti passano attraverso altre società. E questo è un problema. C’è stato un caso abbastanza clamoroso negli USA in cui due ‘checkers’ hanno fatto causa a Microsoft proprio su questo, ovvero sul fatto che pur lavorando su loro piattaforme in realtà Microsoft li considerasse come ‘esterni’ con tutte le differenze contrattuali e salariali del caso. È stato abbastanza incredibile che la vicenda sia venuta alla luce perché avrei pensato che Microsoft avesse preferito risolversela internamente senza farsi pubblicità negativa, come credo sia avvenuto in molti altri casi a noi sconosciuti, e alla fine hanno trovato un accordo davanti al giudice senza andare a processo. Un caso è aperto con Facebook https://mashable.com/article/facebook-moderator-sues-ptsd/?europe=true. Ci possono essere casi in cui questi lavoratori operano in piena solitudine, magari in remoto, e penso sia ancora più pericoloso. Questi lavoratori dovrebbero avere una assistenza psicologica garantita e le grandi aziende dovrebbero essere obbligate a fornirla, cosa che oggi non avviene. Ma siamo appena agli inizi, non esiste nessuno studio sui danni di una prolungata esposizione a questo tipo di contenuti violenti. Sarà necessario farlo perché i ‘checkers’ sono destinati ad aumentare nei prossimi anni. E costeranno sempre di più alle aziende perché dovranno essere meglio tutelati e meglio pagati.

-Le grandi aziende avranno voglia di spendere su questo molti più soldi?

“Lo vedremo”.

-E cosa altro controllano?

“C’è un altro universo fatto di fake news, propaganda, informazioni deviate e parziali e questo è l’universo più complicato perché spesso le stesse aziende non hanno linee guida precise su come affrontare questi contenuti. Nessuno su questo ha le idee chiare o una policy definita. È indubbio che questo sia un terreno scoperto. Ed ecco perché credo che aumenteranno i ‘checkers’, penso che il controllo, la ‘moderazione’ a monte del flusso di informazioni sia destinata a crescere, con buona pace della illusione di trovarsi in un luogo aperto e senza censure.

Perché il vero problema alla base è il meccanismo per cui i social funzionano, ovvero l’engagement dell’utente, il volume di visualizzazioni legato a un contenuto che crea gruppo (ma sarebbe meglio dire branco) e che favorisce inevitabilmente aspetti negativi rispetto a quelli positivi. I social funzionano molto meglio con l’odio, l’odio aggrega di più. Ma questo meccanismo viene sempre messo più in crisi dalla società perché sta creando disastri in tutto il mondo, lo vediamo ogni giorno. Ora le grandi compagnie si trovano a un bivio: la soddisfazione del ‘branco’ e la crescente insoddisfazione degli utenti nel trovarsi in un contesto sempre più violento ed aggressivo e, infatti, il numero di utenti ‘maturi’ che sta gradualmente abbandonando i social nei paesi più avanzati è in aumento. Al momento il primo obiettivo di Facebook e di YouTube è di mantenere costante il numero di utenti più che di aumentarlo. E anche qui il ruolo dei ‘checkers’ sarà fondamentale, ovvero cercare di mantenere un ambiente gradevole e non disturbante all’interno dei social.

L’intelligenza artificiale avrà sempre un ruolo e anzi, probabilmente troveranno il modo per implementarla. Ma questo, forse, vorrà dire che serviranno ancora più occhi umani per verificare un volume maggiore di dati elaborato dalle macchine!”

-Come vede il futuro dei social?

“Le grandi aziende stanno per raggiungere l’apice di massa critica di utenti. Credo che saranno obbligati a puntare sui contenuti, sulla qualità, a scapito del numero di utenti. Credo che saranno in primo luogo gli utenti a pretendere un ‘ambiente’ migliore e a considerare sempre più responsabile il mezzo stesso, il social network, di quello che viene messo online. Quindi, sempre più filtri, più checkers, più dati disponibili ma meno utenti in numeri assoluti per ogni singolo social network, che tenderanno sempre più a differenziarsi”.

Per conoscere meglio il lavoro di Sarah Roberts: https://illusionofvolition.com

Condividi questo articolo:

Giornalista

Daniele De Luca ha lavorato per 15 anni come redattore a RadioPopolare di Milano, passando dalle notizie locali ai GR nazionali. E’ stato corrispondente dagli Stati Uniti per Radio Popolare. Ha collaborato con Diario e il settimanale L’Espresso. Caporedattore a CNRMedia. E’ direttore di ‘FuoriDiMilano’, il primo magazine free-press composto da una redazione di utenti dei servizi di salute mentale.

Commenta con Facebook