Quello che sta raccontando Frances Haugen, ex data scientist di Facebook, è un tema politicissimo

Abbiamo passato (giustamente) anni a discutere di odio applicato alla politica, alla società. Stiamo discutendo degli effetti che l’odio ha sulle nostre vite e sulla nostra economia. Poi, improvvisamente, ci siamo convinti che l’odio sia così e soprattutto che i social possano essere così. Una resa incondizionata di fronte all’architettura del web: ci siamo detti che il mondo va così e la gente è fatta così.

Quello che sta spiegando in giro per il mondo Frances Haugen, ex data scientist di Facebook, ora definita “talpa” perché ha deciso di raccontare ciò che ha visto all’interno del colosso è un tema politicissimo. Haugen nel Regno Unito di fronte ai legislatori che stanno lavorando a norme sui social media ha spiegato in che modo i gruppi di Facebook amplificano l’odio online: gli algoritmi, in sintesi, danno la priorità all’engagement e spingono ai margini le persone con interessi generali. In sostanza più odi e più funzioni, su Facebook e poi a cascata nella vita e nella politica, dove gli algoritmi social si sono fatti forma mentis.

Ha detto Haugen: «Il social network vede la sicurezza come una fonte di costo, celebra la cultura delle startup di ‘accorciare i percorsi’»e “senza dubbio” peggiora il clima di odio. «Gli eventi che stiamo vedendo in tutto il mondo, come in Myanmar e in Etiopia sono i capitoli iniziali perché la classifica basata sull’engagement fa due cose: dà priorità e amplifica i contenuti estremi che dividono e polarizzano e li concentra».

Haugen aveva già consegnato al Congresso americano documenti di ricerca interna che aveva copiato di nascosto prima di lasciare il suo lavoro in Facebook. Un consorzio di 17 testate giornalistiche americane ha ricevuto i documenti, già in parte raccontati nelle scorse settimane dal Wall Street Journal che rivelano come Menlo Park abbia in modo riservato e meticoloso ‘tracciato’ i conflitti nel mondo reale esacerbati sulla piattaforma, ignorato i consigli dei dipendenti sui rischi di alcune pratiche, esponendo comunità vulnerabili in tutto il mondo a messaggi pericolosi e incendiari.

Haugen aveva detto di fronte al Congresso americano: «Quando abbiamo capito che le compagnie di tabacco nascondevano i danni che provocavano, il governo è intervenuto. Quando abbiamo capito che le auto erano più sicure con le cinture di sicurezza, il governo è intervenuto. E oggi, il governo sta intervenendo contro le compagnie che hanno nascosto le prove sugli oppioidi. Vi imploro di fare lo stesso in questo caso. In questo momento, Facebook sceglie le informazioni che miliardi di persone vedono, modellando la loro percezione della realtà. Anche coloro che non usano Facebook sono influenzati dalla radicalizzazione delle persone che lo usano. Un’azienda che ha il controllo sui nostri pensieri, sentimenti e comportamenti più profondi necessita di una supervisione reale».

Non sembra anche a voi che non si parli solo di Facebook ma del mondo qui intorno, perfino delle proteste che attraversano il Paese in questi giorni?

Buon martedì.

Nella foto: attivisti a Taguig a est di Manila, nelle Filippine, protestano davanti alla sede di Facebook

 


Per approfondire, Left del 22-28 ottobre 2021

Leggilo subito online o con la nostra App
SCARICA LA COPIA DIGITALE

SOMMARIO

 

🆙  Bastano pochi click!

🔴  Clicca sull’immagine oppure segui questo link > https://left.it/abbonamenti

—> Se vuoi regalare un abbonamento digitale, vai sull’opzione da 117 euro e inserisci, oltre ai tuoi dati, nome, cognome e indirizzo mail del destinatario <—