Salute fisica e mentale dei minori: la società di Zuckerberg è al centro di una nuova indagine in base alle nuove regole del Digital service act, dopo quella sugli eventuali rischi di disinformazione in occasione delle elezioni europee

Meta ancora sotto controllo da parte dell’Ue. Giovedì 16 maggio è partita, infatti, un’indagine sulla conformità delle piattaforme social della società di Zuckerberg – Facebook e Instagram – con il Digital service Act, il nuovo regolamento europeo sui servizi digitali. L’indagine agisce sui rischi che riguardano i dati dei giovani e arriva un mese dopo quella commissionata per gestire eventuali rischi di disinformazione in occasione delle elezioni europee.
«Non siamo convinti – scrive il Commissario europeo per il mercato interno Thierry Breton su X – che Meta abbia fatto abbastanza per mitigare i rischi di effetti negativi sulla salute fisica e mentale dei giovani europei su Facebook e Instagram. Non risparmieremo alcuno sforzo per proteggere i nostri figl».
Saranno tempi duri per Meta, che ha vita facile negli Usa dove la tutela dell’assoluta libertà di espressione, con uno scarso bilanciamento rispetto al diritto passivo a un’informazione corretta, hanno limitato le regolamentazioni sui grandi della tecnologia. L’Ue si sta invece dotando di strumenti per la trasparenza che colpiranno soprattutto le grandi piattaforme (VLOPs – very large online platforms nel gergo del regolamento).

Con l’indagine del 16 maggio la Commissione teme che i sistemi di Facebook e Instagram, con i loro algoritmi, possano stimolare dipendenze nei bambini, nonché creare i cosiddetti “effetti tana del coniglio” in cui i giovani vengono spinti a rimbalzare da un contenuto all’altro, portandoli a volte a elementi molto lontani dalla motivazione del loro accesso al web o della loro ricerca, che non consentono vie di fuga dalle app. Per ragioni simili qualche settimana fa l’Antitrust italiano ha multato TikTok, sempre a tutela dei giovanissimi.
La Commissione teme anche per i metodi di assicurazione e di verifica dell’età messi in atto da Meta che considera «non ragionevoli, proporzionati ed efficaci».
Attraverso le indagini si vuole garantire un elevato livello di privacy, sicurezza e protezione per i minori. I funzionari dell’Ue, a seguito della richiesta di informazioni a Meta e della conseguente relazione sulla valutazione del rischio presentata dall’azienda, temono che Facebook e Instagram «possano sfruttare i punti deboli e l’inesperienza dei minori e provocare comportamenti di dipendenza». Comportamento non più consentito in Europa.

Elezioni europee 2024: una seconda Cambridge Analytica?
L’indagine ne segue un’altra iniziata alla fine di aprile per quel che riguarda i rischi di disinformazione in occasione delle elezioni europee.
La procedura di moderazione di Meta sui contenuti politici è risultata “insufficiente” e “mancante di trasparenza”, secondo la Vicepresidente esecutiva della Commissione Ue con delega alla Concorrenza Margrethe Vestager. Inoltre i verificatori dell’Ue hanno dichiarato di fare molta fatica ad ottenere i dati dalle piattaforme, in particolare per quel che riguarda la pubblicità di contenuti politici i cui archivi non sono facilmente accessibili.
Un report di CheckFirst, commissionato da Mozilla Foundation (la società creatrice del motore di ricerca Firefox) rileva i risultati di alcuni stress test effettuati sui contenuti pubblicitari delle principali big company: tra i social media compaiono LinkedIn, Meta (Facebook and Instagram), Pinterest, Snapchat, TikTok, X.
Gli scopi dei ricercatori erano di scovare account falsi e comportamenti non autentici sui social media, pratiche di micro-targeting e di testare l’efficacia delle misure di autoregolamentazione per contrastare la disinformazione. Nelle loro linee guida, pubblicate da Mozilla, viene richiesta maggiore trasparenza sui criteri di targeting degli utenti, sulle informazioni geografiche, sui dati Api (interfacce che consentono agli esperti di conoscere il funzionamento delle applicazioni), anche risalenti a 10 anni prima, che devono rimanere consultabili e aperti, infine sul costo degli annunci pubblicitari politici che Meta è obbligato a dichiarare.
Proprio lo scorso 8 novembre era stato raggiunto un accordo dal Parlamento europeo, dal Consiglio Europeo e dalla Commissione, sulla trasparenza della pubblicità politica sul web, una definizione da cui sono escluse opinioni o contenuti editoriali di natura politica. L’accordo mira a tutelare i dati personali e il targeting mirato affinché a ricevere i contenuti di questo genere tramite newsletter siano solo gli utenti che lo consentono. È stata inoltre introdotta una limitazione per i soggetti di Paesi terzi: nei tre mesi precedenti un’elezione o un referendum dell’Ue, gli sponsor extra-Ue non possono «fornire finanziamenti nel contesto delle elezioni».
È stato inoltre istituito un archivio pubblico dell’Ue per la pubblicità online.

Carenza di informazioni e di trasparenza
Quello che i ricercatori di Mozilla hanno riscontrato su Facebook sono informazioni carenti sul 13% degli annunci pubblicitari. Sebbene l’archivio di pubblicità online sia stato giudicato “abbastanza completo” dai ricercatori, non si può dire lo stesso del meccanismo di feedback da parte dell’utente, ritenuto insufficiente. L’opzione “Segnala come illegale”, l’unica disponibile, secondo i verificatori potrebbe essere fuorviante e dissuasiva per l’utente, ma non esiste un modo diretto con cui fornire un feedback più accurato. «I dati di Meta sono accessibili esclusivamente agli utenti con un account Facebook, un account sviluppatore e, per accedere agli annunci politici, anche un’identità verificata. Questo limita di molto l’accessibilità. Solo una volta effettuato l’accesso, il set di dati è ricco e comprensivo di informazioni sui costi, sugli enti e associazioni che hanno promosso le pubblicità, su parametri di targeting tra cui età sesso e geografia. È possibile accedere ai dati per un periodo massimo di un anno» sostengono i controllori.
Non è l’unico tentativo di Meta di eludere il controllo. La società di Zuckerberg ha in programma di chiudere CrowdTangle, uno strumento di indagine pubblica che consente a ricercatori, giornalisti e altri soggetti che si occupano di disinformazione di monitorare la diffusione di notizie false. Con un tempismo perfetto, CrowdTangle chiuderà ad agosto, pochi mesi prima delle elezioni Usa.
Diverse altre società che hanno fatto parte dell’indagine, pur con risultati peggiori rispetto a quelli di Facebook Meta, destano meno preoccupazione: il motivo? L’influenza russa sulle elezioni europee.
Un recente rapporto di AI Forensics (società no-profit che si occupa di monitoraggio e trasparenza degli algoritmi) ha rivelato una rete di informazione russa che acquistava pubblicità attraverso account falsi e altri metodi: si tratta di una rete di 3.826 pagine che diffondevano “propaganda filo-russa”, per una campagna aveva raggiunto in totale 38 milioni di utenti tra agosto 2023 e marzo 2024.
Oltre il 65% degli annunci collegati a questioni politiche e sociali non etichettati come tali sono stati diffusi da Facebook in oltre 16 Paesi dell’Unione Europea e Meta ne ha rimosso meno del 5%.
Se i rischi per i minori sono particolarmente gravi, una disinformazione imperante che può influenzare il voto di miliardi di cittadini europei ci riporta alla memoria lo scandalo Cambridge Analytica. Si spera solo che la nuova regolamentazione Ue racchiusa nel Digital service act sia sufficiente ad arginare lo strapotere sui dati sensibili quali sono le opinioni politiche dei cittadini europei.

Nella foto: la sede di Facebook a Dublino