Si è aperto un fronte nuovo nel nostro rapporto con la scienza e la tecnologia. Seppure i loro impatti siano stati crescentemente costanti negli ultimi lustri, d’improvviso, le performance di prodotti realizzati attraverso l’intelligenza artificiale (IA) generativa stanno scatenando una reazione diffusa e difforme – persino tra gli stessi scienziati – sul ruolo futuro delle macchine intelligenti e le loro interferenze nello svolgimento delle nostre vite individuali e sociali. (È di ieri la lettera diffusa dal Center for AI safety che parla di “minaccia per l’umanità” Ndr)
L’IA generativa è così chiamata perché realizza sistemi capaci di generare, a partire da dati precedentemente analizzati e appresi, nuovi dati o nuove versioni di dati esistenti. ChatGPT, il prodotto più diffuso e di successo di generazione di testi è un esempio di questi sistemi, anche detti Llm (Large language models). Questi sofisticati strumenti, addestrati su enormi moli di dati, offrono risposte spesso del tutto indistinguibili da quelle degli umani. Sappiamo che fanno questo in quanto, avendo accumulato uno straordinario patrimonio informativo, sono in grado di prevedere quale parola sia la più probabile comparire dopo una certa sequenza di altre. Detta in questo modo la loro perfomance sarebbe il solo risultato di un processo sintattico-probabilistico. In realtà si sta cercando di capire se gli algoritmi di apprendimento con cui questi sistemi vengono realizzati, i famosi algoritmi di “deep learning”, determinino anche una qualche implicita rappresentazione del significato dei contenuti su cui il linguaggio si esprime.
Nel frattempo però, in attesa di queste indagini essenziali per comprendere il futuro dell’IA e delle sue ulteriori evoluzioni, dobbiamo affrontare la diffusione pervasiva di questi sistemi nelle nostre vite quotidiane. E comprendere come interagire con essi. Gli umani utilizzano da sempre un’essenziale attitudine sociale che chiamano fiducia. Tanto per cooperare quanto per evitare di farlo (diffidare).
Questa attitudine, evolvendosi nel tempo, ha sviluppato supporti esterni alla cognizione, di ordine interazionale, organizzazionale, normativo.
C’è da chiedersi come si possa adeguare la nostra fiducia alla rapidità e portata della mutazione attualmente in corso.
In particolare due punti: 1) Quanto possiamo considerare queste tecnologie intrinsecamente affidabili? 2) Quanto possiamo considerare affidabile l’utilizzo che ne viene fatto nella nostra società? Due problemi differenti ma la cui convergenza indirizza complessità e problematiche significative.
Rispetto al primo punto, va considerata la difficoltà di interpretazione dei risultati prodotti dai sistemi di AI. Non si tratta semplicemente del fatto che ci troviamo di fronte a sistemi complessi. La nostra capacità nel fidarci in queste situazioni è già esercitata: ci fidiamo, per fare qualche esempio, di farmaci, di macchine distributrici di soldi (bancomat) o di sistemi frenanti delle auto, anche senza spesso avere una chiara comprensione di come essi funzionino. Ci è sufficiente saperlo in modo approssimativo, avere un’idea delle loro macro-funzioni e l’impressione, fondata, di affidabilità, sicurezza, usabilità.
In questi casi, accettiamo l’assenza di trasparenza del loro funzionamento, ci basta avere fiducia nella progettazione del sistema.
Con i sistemi di AI generativa invece, ci troviamo di fronte ad un fenomeno differente. Non si tratta di assenza di trasparenza ma di vera e propria mancanza di interpretabilità di come il sistema opera. È questa una caratteristica tipica dei modelli di “deep learning”: gli stessi progettisti possono avere difficoltà a comprendere perché i loro modelli facciano previsioni specifiche. L’attribuzione di fiducia diventa un processo cognitivamente più complesso da esercitare.
Spesso questi sistemi non sono neppure in grado di fornire stime dell’incertezza dei loro risultati.
Sul secondo punto invece, si coagulano sfide etiche e politiche. Abbiamo detto che la straordinaria efficacia delle performance dei nuovi sistemi di AI è il risultato della elaborazione di enormi moli di dati. Sono questi dati effettivamente rappresentativi dei mondi che si vogliono interpretare? E nel caso in cui questi mondi contengano pregiudizi sociali e culturali, è possibile neutralizzarli, oppure essi continueranno a riprodurli e a reiterare stereotipi, conformismi e riproposizione di schemi considerabili influenti sulla morale condivisa?
Come si vede il problema delle fonti e della loro gestione rappresenta un’enorme questione per l’affidabilità e per l’etica di questi nuovi sistemi.
Per fidarci come società dobbiamo difenderci da un uso scorretto di questi strumenti, da un loro utilizzo manipolatorio che può rappresentare un rischio assai alto nella limitazione di alcune prerogative essenziali degli esseri umani come, ad esempio, quella di scelta e decisione autonoma.
Uno studio della Stanford School of Humanities and Sciences ha mostrato che Chat-GPT-3 può essere persuasivo (nei confronti degli umani), con la stessa o maggiore efficacia di quella degli umani.
Si comprende allora come possano questi sistemi essere in grado di realizzare campagne di disinformazione o creare contenuti fuorvianti per scopi politici non prevedibili.
Quanto è quindi necessario allarmarsi?
Le interpretazioni sono varie e non del tutto convergenti. Ma è bene riflettere anche su quelle più estreme e per certi versi catastrofiche. Tra queste, va citata quella di Byung-Chul Han secondo cui le piattaforme sociali stanno restringendo «i nostri orizzonti e divorando le fondamenta stesse della democrazia rappresentativa».
Altri segnali di preoccupazione si sono concretizzati negli ultimissimi tempi: si consideri l’appello, sottoscritto inizialmente da un migliaio di scienziati e imprenditori hi-tech, per chiedere ai laboratori scientifici di fermare temporaneamente lo sviluppo dei sistemi di AI generativa. O la sospensione del servizio di Chat-Gpt per gli utenti che si collegano dall’Italia, da parte del Garante per la protezione dei dati personali.
In particolare nell’appello si parla di «una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può capire, prevedere o controllare in modo affidabile». Scenari inquietanti su cui va posta seria attenzione ma che non è affatto chiaro quanto siano realmente credibili. Certamente la lettera è più condivisibile dove si afferma: «Tali decisioni non devono essere delegate a leader tecnologici non eletti».
In questo senso, rapidità, impatto e portata della mutazione in corso deve ricevere risposte urgenti. L’affermarsi di un capitalismo digitale in cui prevalgano, oltre alla potenza manipolatoria dei gestori dei dati, anche un approccio generalizzato degli umani defraudato dalla cognizione critica e analitica, sostituita sostanzialmente dagli algoritmi di previsione, può rappresentare un rischio profondo per le strutture portanti della socialità partecipata e della democrazia politica.
L’autore: Rino Falcone è dirigente di ricerca presso l’Istituto di Scienze e tecnologie della cognizione del Consiglio nazionale delle ricerche