“Quel che i social non dicono”: ignora o cancella. La democrazia è tutta qui?

In Cinema, Weekend

Dal 14 al 17 aprile in sala “Quel che i social non dicono”, imponente documentario sui cleaners, i moderatori di contenuti di Facebook e altri social, molti dei quali lavorano per pochi dollari l’ora a Manila. L’inchiesta sul campo racconta di un lavoro ad altissimo stress e con pesanti conseguenze per chi lo fa, e affronta la questione delicatissima della libertà d’espressione e della trasparenza nella sfera pubblica digitale, ora totalmente nelle mani di Zuckerberg e soci

L’ultimo aggancio stretto di cronaca, nella grande discussione su cosa e da parte di chi viene pubblicato ogni giorno on line, ma soprattutto su chi e con quale mandato e motivazioni lo rimuove, viene dalla politica italiana. Qualche giorno fa i dirigenti di CasaPound hanno annunciato la cancellazione dei profili pubblici personali (in realtà si tratta solo di alcune pagine) di molti dirigenti dell’organizzazione di estrema destra, mettendola in relazione con la loro candidature alle prossime elezioni europee e gridando alla censura di Facebook contro le “voci dissidenti” rispetto alla “narrazione dominante”. Una nota di risposta ha chiarito che il social network può rimuovere i contenuti “che incoraggiano la violenza reale, che può causare danni fisici, finanziari ed emotivi” e quelli che contengono “discorsi di incitazione all’odio”. È la policy della company a prevederlo, alla quale partiti politici e candidati devono attenersi: “Quando veniamo a conoscenza di contenuti che violano questi standard, quando una pagina o una persona infrange ripetutamente queste regole, li rimuoviamo».

E mentre appare difficile non contestare questi addebiti a CasaPound, è sempre più in discussione nell’universo dei social, che conta due miliardi e mezzo di iscritti solo su Facebook, la più grande “nazione” mediatica mai esistita al mondo, il tema del controllo di ciò che ogni giorno viene offerto in rete dagli enti più vari, singoli o organizzati. Perché, nonostante l’attiva opera di “cleaning” delle diverse piattaforme, ha dimensioni quasi inarrestabili l’invasione di filmati e testi violenti, pornografici (spesso con minori protagonisti), di esibizioni terroristiche e di bullismo, in molti casi ma non sempre velocemente rimossi. Si pone quindi un tema duplice: le diverse task force messe in campo dai vari Instagram, YouTube, Facebook, hanno le dimensioni e la competenza per fronteggiare tutto questo? E in parallelo, chi può davvero garantire di esercitare una corretta procedura di “delete”, che non elimini, con la marea di spazzatura, anche, seppur raccapriccianti, testimonianze di attualità che l’opinione pubblica mondiale avrebbe invece diritto di conoscere? Per capire, per esempio, chi e come fa le guerre, e con quali esiti in termini di distruzione in generale e di perdite di vite umane.

A una parte di queste domande fornisce, se non risposte certe, sicuramente molto materiale su cui riflettere, The Cleanersche dopo aver sconvolto il Sundance Festival esce in Italia tradotto dalla distributrice I Wonder Pictures con il titolo Quello che i social non dicono. Un documentario imponente: “Per trovare qualcuno disposto a parlare ci sono voluti trenta ricercatori e sei mesi di lavoro sul campo“, spiega il producer Georg Tschurtschenthaler. “E ci è voluto del tempo anche per capire che queste persone, formalmente assunte da società con nomi diversi, in realtà offrono i loro servizi a Facebook, Twitter etc”. Firmano il film, che per ora sarà in sala dal 14 al 17 aprile, Hans Block e Moritz Riesewieck, due registi teatrali e cinematografici tedeschi, oggi 33enni entrambi, che dopo aver messo in scena Dostoevskij, Don Chisciotte e Buchner, sono passati all’attualità scottante, il secondo forte anche di un saggio, Digital Dirt Work, pubblicato in Germania nel 2017.

Che ne è dei 450mila tweet prodotti ogni giorno nel mondo in ogni minuto, e delle 500 ore di video caricate su YouTube ogni 60 secondi: e soprattutto, chi decide veramente, e con quali linee di intervento, cosa vediamo (o no) sulle bacheche? È davvero un algoritmo a selezionare le nostre impronte digitali contemporanee? La risposta di questa inchiesta, di grandi dimensioni, è certamente no. E la forniscono soprattutto cinque testimoni, in diretta, che vivono tra i grattacieli e gli slum di Manila, cinque content moderator incaricati da Facebook di vedere e giudicare ciò che passa on line. Esprimendo un verdetto secco, che ripetono come un mantra ossessivo: “Ignore”, o “Delete”, lascia stare o cancella. Sui loro schermi passa ogni genere di bullismo, pedofilia, violenza più o meno bellica, ma anche vignette satiriche e opinioni politiche forti, estreme. Insomma tutto ciò che in qualche modo è stato segnalato a Facebook dagli utenti come “fuori dalla regole”, dunque passibile di cancellazione.

La quota di cleaners che sta a Manila vive una vita d’inferno: in turni di dieci ore arrivano a vedere fino a 25mila frame, e in pochi secondi devono scegliere se potranno continuare a vivere o morire on line. E la consuetudine drammatica, l’esposizione a questi orrori e la pressione psicologica di dover scegliere continuamente, li trasforma. Una ragazza cattolica si sente investita della missione di purificare la rete, in qualche modo per conto di Dio, ma al tempo stesso confessa d’essere stata attratta dalla curiosità per l’indecenza, di provare un “piacere peccaminoso” di fronte ad alcune scene. Un collega, fan del sanguinario presidente filippino Duterte, vuole emularlo, per fortuna “sparando” non a degli uomini ma a dei post. C’è chi ha perso il sonno a furia di vedere civili massacrati dalla guerra, o bambini in balia di bruti, e uno di loro si è suicidato mentre faceva questo lavoro, davanti al suo schermo. Ma ovviamente Facebook e la ditta appaltatrice per cui lavorava hanno cercato di tenere nascosta la notizia. Uno di loro racconta di quando dovette assistere al un suicidio in diretta, e fino all’ultimo sperò che non accadesse, ma non poté comunque bloccarlo perché le regole impongono di non interferire. Qualcuno infine ha deciso di dire basta, e lo rivela ai due registi: “Mi devo fermare, mi chiedo perché faccio tutto questo. Ci stiamo schiavizzando, dobbiamo risvegliarci nella realtà”. Insomma chi fa le “pulizie digitali” e osserva il fiume di rifiuti scorrere sul monitor incarna un destino da “rovistatore di spazzatura” scritto nelle baracche in cui è nato: e che l’ha seguito lì dentro, nel candido ufficio del centro dove ora lavora. Quegli scarti non puzzano ma sono tossici per la psiche. Chi lavora in questo campo, dicono gli psicologi, presenta gli stessi sintomi di chi ha combattuto al fronte.

Sottopagati, stressati, angosciati, i moderatori parlano a loro rischio e pericolo: ogni contatto con l’esterno è proibito, le loro identità, i luoghi di lavoro dovrebbero restare segreti, mentre i ritmi sono quasi disumani. Le imprese che lavorano per Facebook tendono a privilegiare la quantità, non la qualità, e una produttività alta non consente di soffermarsi troppo sul contesto della conversazione che si vede. E questo è nell’interesse dell’azienda (che fattura a Facebook in base alla quantità di segnalazioni analizzate), come in quello degli analisti (che ricevono incentivi per la velocità con cui svolgono il loro lavoro), ma non certo nell’interesse degli utenti. Qualcuno ragiona su questa esperienza: “Ho visto centinaia di decapitazioni. E sono rimasto perplesso dal fatto che l’impiccagione di Saddam Hussein è stata lasciata in rete, mentre il video che mostra ciò che succede al suo corpo morto, dopo, no”. Esiste anche un controllo di qualità, per esempio da parte dei dirigenti di Facebook, sull’attività di questi “spazzini digitali”, impegnati a rimuovere dalla rete post, immagini, video “inappropriati”, ma riguarda solo il 3% delle decisioni prese dei moderatori. I quali, pur muovendosi sulla base di un protocollo e di direttive comuni, sono poi anche influenzati inevitabilmente dall’ambiente e delle loro idee e valori. A Manila come altrove. Poi c’è il tema della lingua: gran parte di loro ovviamente non capiscono cosa dicono le persone di tutto il resto del mondo che appaiono a ritmo vertiginoso sui loro computer, e questo ostacola anche la comprensione del senso di ciò che stanno vedendo, inducendo forse ad errori.

Il film di Block e Riesewieck interpella poi molti commentatori e un paio di ex dirigenti dei social network, che spesso “ricordano con rabbia”. In Turchia, racconta Nicole Wong, già direttore legale di Twitter ed ex vicepresidente di Google, una delle poche intervistate che può rivelare la sua identità essendo uscita dal giro, “i contenuti anti-Erdogan subiscono sistematiche epurazioni, e chi scrive un messaggio “sbagliato” rischia di ritrovarsi all’istante in prigione. Già nel 2007 il governo turco approvò una legge che consentiva di censurare internet e bloccò Twitter per fermare le notizie scomode. La compagnia, che stava avviando buoni affari laggiù, dovette chinare il capo e obbedire ai diktat. Fummo costretti a bloccare preventivamente gli IP degli utenti turchi. Fu una scelta che mi costò molto”. “Non puoi permetterti di sbagliare”, aggiunge nel documentario Tristan Harris di Google Design. “Un tuo errore può costare la vita di una persona, spingere a un suicidio, far scoppiare una guerra”. O perfino un genocidio. È il caso del dramma dei Rohingya, la minoranza islamista messa in fuga dal Myanmar (lo racconta un altro film interessante, uscito in queste settimane, Il venerabile W di Barbert Schroeder): “è la minoranza più perseguitata al mondo e questo lo si deve anche a Facebook, colpevole di amplificare fake news, contenuti di odio, con massacri e/o esodi di massa provocati da operazioni partite, più o meno consapevolmente, da un gruppo di ingegneri bianchi come me in California”, conclude amaramente Harris.

Ma quando la necessità di garantire un ambiente di navigazione sicuro per gli utenti si rovescia in una limitazione alla libertà d’espressione? “Meno informazione tagliente”, dice un altro intervistato, produce “società politicamente, culturalmente più povere”. Di fronte a una commissione del Senato Usa, il legale di Facebook difende la sua azienda: i contenuti che noi oscuriamo spesso sono in contrasto con le leggi dei paesi dove vengono messe on line. E poi, la maggior parte non hanno contenuti politici. Ma già la faccia, la scarsa convinzione con cui l’avvocato dice queste cose, con l’ansia dello scolaro di fronte a una possibile punizione, fanno presumere che non sia esattamente così. Spesso in realtà le company decidono da sole cosa è legale e cosa no, o comunque cosa “ignore” o “delete”: e tutto questo, quanto è democratico? Intanto un pittoresco, inquietante supporter di Trump, travolto dalla sua stessa foga anti-Islam nel difendere gli haters, “solo per la libertà di espressione, loro dicono cose che non volete sentire”, minaccia di sparare contro chi lo contraddice con la sua pistola.

Il rassicurante e asettico Zuckerberg, ripreso in uno dei suoi speech motivazionali, garantisce che se ci sono dei problemi, si troveranno le soluzioni adeguate, tecniche e umane. Ma nel film qualcuno segnala che la prevalenza dell’odio on line “è un fatto tecnico: i social media sono meccanismi fatti per attirare più gente possibile, più contatti e like. E, che lo voglia o no Facebook, le pagine con più offese attraggono più pubblico. Quindi queste piattaforme dovrebbero riflettere sul fatto che accrescono più l’odio che la comprensione tra le persone”. È un po’ la vecchia parabola dell’apprendista stregone, o se volete del dottor Frankenstein, che non sa più controllare le forze da lui stesso evocate: un algoritmo allo stesso tempo può fomentare odio e violenza e agire come una scure sulla libera informazione. Lo denuncia l’ong Airwars, società che racconta i crimini di guerra in Siria e non solo: i suoi attivisti hanno scoperto come più di un centinaio di clip video che documentavano l’attività militare in quel Paese sono state rimosse da Youtube, eliminando così le prove stesse dei crimini che i video testimoniavano.

Un’interessante inchiesta di Valigiablu  racconta come il 2017, anno segnato dall’evoluzione continua di Facebook nella lotta al clickbait e alle notizie false, al linguaggio d’odio e al razzismo, abbia anche mostrato il tallone d’Achille del network riguardo alle problematiche legate al rischio di censura dei video in diretta. La trasparenza è a rischio sotto le pressioni dei governi, e questo soprattutto in tema di moderazione dei contenuti. Un problema reso più acuto dall’esternalizzazione di queste operazioni a imprese specializzate nell’analisi e gestione delle conversazioni online, come Arvato, Cpl Recruitment,  BCforward,  Accenture. Così oggi la vera priorità non è rendere gli algoritmi più “intelligenti”, ma selezionare team altamente qualificati per svolgere questo lavoro, trovare cleaners capaci di lavorare, pur in tempi stretti, fronteggiando anche i propri pregiudizi e gap culturali e linguistici. Lo conferma anche Ciò che i social network non dicono.

Nel riassumere il loro lavoro, i due registi la prendono larga, e nobile: “Collaboriamo, sotto l’etichetta Laokoon, usando diversi mezzi d’espressione: spettacoli teatrali, libri e film. Laocoonte, l’indovino, fu l’unico uomo a smascherare la vera natura del cavallo di Troia: una truffa pericolosa. Abbiamo voluto seguire le sue orme rivelando il cavallo di Troia di oggi: il nostro film di debutto svela il doppio fondo dell’Internet sicuro di cui miliardi di utenti fanno esperienza ogni giorno. Sembrerebbe una cosa scontata, ma ha un prezzo molto alto: lo sfruttamento nascosto di centinaia di giovani lavoratori nel mondo dello sviluppo e il silenziamento del pensiero critico nel mondo digitale. Quando alcuni moderatori hanno deciso di partecipare al nostro film, ci siamo commossi del loro coraggio nel mostrarci quali foto si stampano nelle loro memorie, e di quali contenuti non riescono a sbarazzarsi. Per affrontare adeguatamente le esperienze subìte da loro abbiamo consultato psicologi dell’Università delle Filippine, e un centro del trauma a Berlino”.

Passando dai traumi dei lavoratori a quelli degli utenti globali, aggiungono: “I social network si sono dimostrati, dopo 15 anni, degli strumenti potenti e pericolosi allo stesso tempo, capaci di dividere le società, escludere le minoranze e promuovere genocidi. Il pericolo sta nel futuro che ci aspetta se lasciamo la responsabilità della sfera pubblica digitale a compagnie private, che trasformano tumulti oltraggiosi e collettivi in guadagno, e nonostante le promesse non fanno il minimo sforzo contro questi sviluppi. Vogliamo mostrare che non è una coincidenza se l’evoluzione politica nel mondo facilita l’eliminazione e l’esclusione di tutto ciò che “disturba”: è un accordo per nascondere i problemi di fondo. Questa ideologia sta raggiungendo il consenso globale, analogico e digitale, ed è nostro dovere fermarla prima che sia troppo tardi. Non possiamo più permetterci di delegare ogni forma di responsabilità. La questione della democrazia e della libertà di parola non deve avere due sole opzioni, “Ignora” o “Cancella”.

(Visited 1 times, 1 visits today)