Da circa 24 ore (speriamo finisca presto), sulla pagina Facebook di Left non compare più nulla. Non è perché la redazione sia andata in vacanza. E neppure perché stiamo lavorando freneticamente a un numero che dopo Parigi è per forza di cose è cambiato rispetto a quello che avevamo in mente. No, è perché l’algoritmo del social network ha deciso che postavamo troppe cose con foto di jihadisti e titoli contenenti le parole Parigi, jihad e ISIS.
Tutto è cominciato con un post ritratto di Abdelhamid Abaaoud, presunto cervello degli attentati parigini. L’articolo è corredato da un video girato da France24 nel quale non sono mostrate scene truculente e neppure messaggi di propaganda – a differenza di altri canali Tv Fr24 sceglie di essere selettiva sul tipo di cose che manda in onda. E poi da una foto, quella che troverete su tutti i siti dei giornali del mondo, nella quale il terrorista posa con una bandiera dell’ISIS. Si chiama informazione. Buona o cattiva, lo decidono i lettori.
Dopo quel post abbiamo tentato di postare cose sull’università, un appello per la pace sottoscritto da sindacalisti e articoli che riguardano altri temi. Niente da fare, anche avessimo postato un gattino, non saremmo riusciti a farlo. Facebook non dice che ti sta censurando il post ma invia i seguenti messaggi: “il tuo computer potrebbe essere infettato da un virus”, “se vuoi programmare un post devi farlo” … segue spiega, oppure “il post che stai cercando di pubblicare potrebbe contenere materiale non conforme alle nostre regole”. I messaggi arrivano random, non è un escalation e non è un chiaro segnale di censura. Poi c’è la possibilità di segnalare. Cosa che abbiamo fatto. Senza ottenere risposta (sono passate almeno 15 ore).
Il censore di Facebook non è un signore con gli occhiali, ma un computer che scandaglia i contenuti e cerca immagini e parole chiave che non gli piacciono. Comprensibile. Sappiamo anche che il social network, come appunto France 24, ha scelto di non far pubblicare video dei bombardamenti francesi. Legittimo. Avere un censore fatto di circuiti stampati presenta però almeno due problemi.
Il traffico di molti siti dipende ormai, anche per volontà e strategia di Google e di Facebook, dai click catturati sui social network. L’immagine qui sotto parla degli Stati Uniti, ma la cosa vale in maniera crescente per tutto il mondo. Il 41% degli americani si informa anche o esclusivamente sul social network
Non poter pubblicare è quindi come non andare in metà delle edicole dove la gente di cercherà. Con un danno in più: se per caso via Facebook indovini un articolo giusto, questo verrà letto molto, molto più del solito e il tuo marchio, la tua rivista, verrà conosciuta da gente che non la conosceva.
Il secondo problema riguarda la censura: un censore, per quanto stolto e bigotto, sa distinguere. Facciamo un esempio religioso da Italia anni ’50. Mettiamo che il censore veda allo stesso tempo un film di ispirazione democristiana sulla vita di un santo e un film provocatorio che sostiene che i vangeli contengono solo balle. Bene, nel primo caso il nostro censore metterà un bollino verde, nel secondo caso imporrà il divieto ai minori e il taglio delle scene più provocatorie. Un algoritmo no. Sceglie alcune parole chiave o immagini e censura. Non ha un cervello stupido, è proprio che non ha un cervello.
In questi anni il social è cresciuto a dismisura e ora si appresta a impegnarsi più che in passato sul mercato delle notizie. Così il mercato cambia e Facebook diventa un attore determinante. Lo è già. Avere un ruolo significa avere delle responsabilità: assumere più persone per far controllare le notizie che si pubblicano, ad esempio. E aumentare il personale che risponde alle segnalazioni. Le notizie sono un bene prezioso, Facebook può anche giocare un ruolo impoirtante nel veicolarle laddove non sarebbero arrivate. Ma deve imparare a farlo. Una notizia non è un gattino.
[social_link type=”twitter” url=”https://twitter.com/minomazz” target=”on” ][/social_link]@minomazz