Abbiamo chiesto al collettivo Ippolita, un gruppo di ricercatori indipendenti che da anni si occupa di tecnologie digitali, di aiutarci a capire se e in che modo può essere utile la app scelta dal governo per tracciare e individuare tramite i nostri smartphone eventuali casi di Covid-19 quando entreremo nella fase 2

Della app che, secondo il governo, sarebbe fondamentale per affrontare con successo la Fase 2 della pandemia, non si sa ancora molto. Ma quel poco che è trapelato, tra dichiarazioni e indiscrezioni, fa già molto discutere. Immuni – questo il nome del software selezionato dai 74 membri della task force tecnologica della ministra dell’Innovazione Pisano – è considerato un supporto tecnologico all’attività di contact tracing, ossia al tracciamento dei contatti attraverso il quale, quando viene individuata una persona contagiata, si ricostruiscono i suoi precedenti incontri per rintracciare ed informare rapidamente le persone che potrebbe avere infettato.

Già, ma che fine fanno i nostri dati? Dove verranno conservati? Che rischi ci sono per la nostra privacy? Si tratta veramente di un metodo efficace?

Ad inizio aprile la ministra Pisano aveva dichiarato che l’app anti-contagio avrebbe dovuto rispettare alcune condizioni, tra cui la «volontarietà di partecipazione», e poi che i dati sarebbero dovuti essere «resi sufficientemente anonimi da impedire l’identificazione dell’interessato». Troppo poco. Poi c’è stato l’annuncio del 17 aprile del commissario Domenico Arcuri della selezione del software Immuni prodotto da Blending Spoons, infine solo il 21 aprile in una lunga nota del ministero dell’Innovazione sono stati diffusi alcuni elementi in più. L’app sarà gestita da uno o più soggetti pubblici, il suo codice sarà aperto, non accederà alla rubrica né manderà sms, i dati raccolti saranno cancellati «con l’eccezione di dati aggregati e pienamente anonimi a fini di ricerca o statistici» e il sistema dovrà «tenere in considerazione» gli standard internazionali (Pepp-Pt, Dp-3t, Robert) e l’evoluzione del modello annuciato da Apple e Google.

Tutto ciò sulla carta, visto che l’app ancora non c’è. E queste garanzie non sgombrano il campo rispetto a numerose questioni aperte. Tecnologiche, come l’uso reale dei dati raccolti e la loro modalità di stoccaggio, e non: «Il bug dell’app è concettuale» dice a Left il collettivo Ippolita, un gruppo di ricercatori indipendenti che si occupa di tecnologie digitali e che negli anni, con le proprie opere di divulgazione, ha contribuito a svelare i meccanismi distopici che si nascondono dietro ai social network, ai big della profilazione, alla sharing economy. Ci siamo rivolti a loro per valutare con attenzione i rischi di questa operazione. Ma partiamo dall’inizio.

Come dovrebbe funzionare, in poche parole, l’app per il contact tracing selezionata dal ministero per l’Innovazione? Dove saranno conservati i nostri dati?
Per noi questa applicazione è propaganda politica atta a mistificare e togliere l’attenzione dalle gravi mancanze tecniche, organizzative e culturali che hanno caratterizzato la gestione di Covid-19. Infatti per ora non c’è alcuna chiarezza sulle specifiche tecniche del progetto. Compreso il server a cui saranno trasmessi e in cui verranno conservati almeno una parte dei dati. Da quello che abbiamo capito dalle poche informazioni attendibili, ognuno di noi potrà scaricare un’app il cui codice sorgente forse sarà disponibile, ma questo è pressoché irrilevante perché certamente non sarà aperta e analizzabile l’intera infrastruttura. Attraverso il protocollo bluetooth (che non è il massimo della sicurezza) questo software comunicherà con altre app delle stesso tipo nel raggio di circa un metro. A questo punto ogni telefono conserverà una lista degli Id (identificativi univoci) con cui la app è entrata in contatto. Dunque ci pare logico che queste liste dovranno essere trasmesse a un server che le tratterrà ad libitum, e si dice in forma anonima. Quando una di queste persone/app dovesse risultare positiva a Covid è ragionevole ritenere che lo comunicherà al server per mezzo della app stessa, il server trasmetterà un avviso ai soggetti che sono entrati in contatto con l’individuo infetto. A questo punto cosa faranno le persone/app? A parte farsi venire una crisi di panico prontamente registrata dallo smartwatch che indossano, chi li aiuterà? Il frigo collegato alla rete? L’aspirapolvere intelligente? L’efficacia del progetto, in mancanza di un insieme di azioni coordinate volto alla salute dei cittadini, e sempre sostenendo che funzioni, è pari a un pollo di gomma che ci possiamo sbattere in faccia. C’è poi un problema di massa critica, per funzionare la app deve raggiungere una certa soglia di diffusione, vedremo quali strumenti persuasivi saranno messi in gioco, anche qui la questione etica è labile. Per chi non scarica la app scatterà lo stigma sociale? (secondo il mantra “chi non ha nulla da temere non ha nulla da nascondere”). Inoltre, con tutto questo giro di dati, è difficile pensare che chi gestisce il server non possa risalire all’identità dei soggetti tracciati e che non ci siano falle sfruttabili da terzi per fare analisi basate sulla correlazioni tra i dati.

Dal governo viene ribadito che le informazioni dei cittadini saranno anonimizzate e poi cancellate dopo un certo tempo: quali sono i rischi dell’app rispetto alla privacy e alla nostra libertà?
Il bug dell’app è concettuale, non tecnico, tecnicamente potrebbe anche funzionare benissimo e rispettare tutti gli standard che il governo si vuole dare. Il punto è un altro: perché si ritiene che la prevenzione sanitaria possa essere garantita da una applicazione su un telefono cellulare? La app sarà soprattutto l’ennesimo “diario” da riempire di informazioni, in questo caso riguardanti la “percezione” che si ha della propria salute. Siamo ancora nell’illusione che attraverso il racconto di sé, la tecnologia possa prendersi cura di noi, come abbiamo descritto nel volume Anime elettriche. Ma quando stai male hai bisogno che ci siano persone competenti e in forze vicino a te, non l’assistente vocale.

Avete scritto che «non esistono tecnologie di controllo che siano anche “etiche”», ma Oms e comunità scientifica concordano nel dire che per allentare le misure di lockdown sia importante rilevare rapidamente i nuovi focolai, e in questo la tecnologia potrebbe fornire un grande aiuto. Qual è il modo migliore di utilizzare gli strumenti digitali, se si vuole tutelare al contempo la democrazia e la vita delle persone?
Gli strumenti digitali di cui stiamo parlando, che sono quelli oggi più in uso, non sono un modello di riferimento per tutelare la privacy delle persone, questa tecnologia non è interessata al loro benessere psico-emotivo o fisico. Certo, gli strumenti digitali possono aiutare, ma qui si registra soprattutto l’ansia di accumulare dati per analisi predittive a buon mercato. Come se la predizione di per sé costituisse un valore assoluto. Ma il pronostico senza organizzazione territoriale è irrilevante. La prevenzione non si fa con gli algoritmi, ma con la diffusione di pratiche anti-infettive condivise in un network fisico di luoghi e persone. Il modo migliore di usare la tecnologia certe volte è una sua applicazione metodologica, organizzativa. Una rete de-centralizzata infatti è la sola organizzazione in grado di creare unità autonome locali che possano reggere grossi attacchi esterni. E la rete dei servizi socio-sanitari locali ha già in se queste caratteristiche, occorre prendersene cura, potenziarla, innovarla anche attraverso la tecnologia. Ma non pensare che la tecnologia possa sostituirla. La sicurezza la fanno gli umani quando sono messi nella condizione di agire in modo autonomo, rapido e competente, non i droni che fanno i video in piazza Duomo a Milano.

Alcune compagnie di Big tech già avrebbero a disposizione strumenti e informazioni per monitorare il contagio. Penso ad Google ed Apple. Chiedere loro di renderli un bene pubblico, ipotizzando finalmente forme di esproprio e riconquista dei nostri dati – per quanto sarebbe una battaglia ardua – potrebbe essere una proposta giusta da mettere in campo a sinistra?
È una strada per la quale nutriamo da anni un profondo scetticismo. Certo, viviamo pur sempre in un contesto apparentemente democratico in cui i diritti della nostra carta costituzionale incontrano la dimensione sovranazionale dell’Unione Europea, dell’Euro e delle politiche economiche e finanziare connesse. Per cui appare ragionevole compiere uno sforzo da autentici socialdemocratici e tentare di strappare al capitale – con leggi e norme – le risorse che accumulano grazie alle nostre interazioni digitali. Ma per farci cosa? Capitalismo di Stato? È un film già visto, non ci interessa. Le Big tech, Gafam (Google, Apple, Facebook, Amazon et Microsoft, ndr),  hanno costruito gli strumenti che tutti usano affinché potessero estrarre le informazioni più utili a loro stesse. Così come non è etico che queste informazioni siano di loro proprietà, allo stesso modo non esse non dovrebbero essere nelle mani di nessuno. Se ci interessa un approccio etico, quei dati andrebbero immediatamente cancellati. Con una battuta potremmo dire: cancelliamo i dati e teniamoci i server, usiamo quella potenza di calcolo per scopi più utili, fuori dalla logica del capitale. Ma siamo in una dimensione fantascientifica che non si realizzerà mai – e quei server inquinano, solo tenerli accesi è un costo altissimo.C’è chi al primato del platform capitalism oppone il recupero statale della sovranità digitale. Premesso che nella progettazione e nello sviluppo di questa questa app, Immuni, la presenza dello Stato pare assai minoritaria rispetto ai privati, perché questa ipotesi non vi convince?
C’è da ragionare su cosa intendiamo con recupero della sovranità digitale. Qui non stiamo parlando di un bene comune come l’acqua, ma di una serie di servizi offerti da privati che diventano “di Stato” per supposte necessità. Lo vediamo bene con le piattaforme di Google in uso nella scuola pubblica. Il problema principale riguarda lo stoccaggio dei dati e l’uso che ne viene fatto. È vero che il Gdpr (il Regolamento europeo generale sulla protezione dei dati, ndr) impone di esplicitare le finalità per cui vengono assorbiti i dati e fornire all’utente l’opportunità di scegliere, ma non è abbastanza. Vogliamo usare applicazioni private a livello statale? Che non sia permesso loro di immagazzinare alcun dato, al di là delle finalità. E lo stesso vale per un’eventuale infrastruttura digitale statale. Non ci sono differenze se c’è profilazione, che sia di Stato o privata. Detto più chiaramente: la sfida non è produrre più dati, ma non produrne affatto. D’altronde cosa vuol dire sovranità digitale? Qualche anno fa questa formula era usata in alcuni contesti antagonisti con un significato preciso, adesso non siamo più sicuri che voglia dire la stessa cosa. Sarebbe interessante capire, per esempio, se oggi contempli una prospettiva eco-logica. L’enorme clone dei dati di Facebook e Google è utile solo al capitale. Se invece parliamo di creare infrastrutture pubbliche che non conservano dati e che possono essere usate con formule anche anonime la cosa comincia ad essere interessante.

Molte persone a cui sarà proposto di partecipare al contact tracing non avranno ahimé gli strumenti teorici per valutare con consapevolezza il compromesso a cui staranno aderendo. In Italia (e non solo) la cultura scientifica e informatica è patrimonio di pochi. Come fare per rendere queste conoscenze sempre più a disposizione di tutti?
È chiaro che la cultura – anche quella scientifica – non sarà mai democratica se si risolve solamente in un sapere tecnico come strumento di potere. A questo aggiungiamoci l’istruzione – privata o statale che sia – che prima di tutto insegna a diventare competitivi in termini economici, con voti e punteggi, e capiamo perché la conoscenza non è più concepita come un bene comune. Parallelamente le tecnologie commerciali da anni sembrano essere diventate il principale dispositivo di “civilizzazione”, e pare quasi che la società civile si risolva nell’adozione di uno strumento digitale, nell’essere connessi digitalmente. Ma non è così. Il punto è che l’addestramento commerciale tutto fa tranne che chiederci di interrogarci sul funzionamento dei suoi strumenti. Anche qui il contesto non è democratico. La consapevolezza si crea con un approccio curioso, problematizzante e critico, come da anni facciamo attraverso le nostre formazioni, i corsi di studio e i libri, che proponiamo sia come autori che come consulenti editoriali. Per affrontare il dispotismo, circonfuso di luci, della tecnologia del controllo il sapere non può essere solo tecnico, ma deve essere interdisciplinare. Non c’è studio tecnologico destinato ad avere senso se non è associato alla consapevolezza che, accanto al sapere scientifico, esistono verità e razionalità “altre”. Le nuove generazioni sono chiamate a strappare questo mondo all’ecocidio. Per affrontare le sfide del presente occorre avere una casetta degli attrezzi composita e l’attitudine a mettere in discussione ogni certezza ideologica.