Ricordate questa data: 2 agosto 2025. Quel giorno sarà segnato in modo significativo dall’entrata in vigore dell’AI Act nell’Unione Europea. La normativa impone agli sviluppatori e fornitori di grandi modelli di intelligenza artificiale generativa (General Purpose AI) precisi obblighi di trasparenza e gestione del rischio. In tal modo, l’Unione Europea sarà la prima istituzione statuale al mondo a regolare questo vorticoso settore tecnologico. Per capire quanto pesi questa normativa basta segnalare che tra le Big Tech, Meta – la Corporation guidata da Mark Zuckerberg che controlla Facebook, Instagram e WhatsApp e che ha introdotto in queste applicazioni l’assistente virtuale Meta AI – ha dichiarato di non voler firmare il Codice di condotta Ue sull’IA per i modelli ad uso generale, criticando l’approccio europeo che ritiene introduca “incertezze legali” e il rischio di frenare lo sviluppo dei modelli di IA nel mercato continentale.
E per capire quanto sia necessaria, invece, una regolamentazione del settore basta leggere l’estratto di un post pubblicato su X, il 17 luglio, da Sam Altman, Ceo di OpenAI, l’azienda che ha creato e opera con ChatGPT. “Oggi – scrive Altman – abbiamo lanciato un nuovo prodotto chiamato ChatGPT Agent. Agent rappresenta un nuovo livello di capacità per i sistemi di intelligenza artificiale e può svolgere per te compiti straordinari […] Anche se l’utilità è significativa, lo sono anche i rischi potenziali. Abbiamo integrato molte salvaguardie e avvisi, oltre a misure di mitigazione più ampie rispetto a quelle che abbiamo mai sviluppato prima, dalla formazione robusta alla protezione del sistema, fino ai controlli per l’utente, ma non possiamo prevedere tutto. Avvertiremo massicciamente gli utenti e daremo loro la libertà di agire con cautela, se lo desiderano. Alla mia famiglia lo descriverei come qualcosa all’avanguardia e sperimentale: un’opportunità per provare il futuro, ma non qualcosa che userei per attività di alto rischio o con molte informazioni personali, finché non avremo avuto l’opportunità di studiarlo e migliorarlo nella pratica”.
Insomma, questo è l’atteggiamento delle Big Tech. Far fare ai propri clienti i topolini da laboratorio su un prodotto che Altman considera potenzialmente rischioso. Leggi le avvertenze, ma i cocci sono, comunque, tuoi. Amen. L’intelligenza artificiale è un utensile che può essere di straordinaria utilità. Ma come tutti gli utensili deve essere utilizzato correttamente. E un uso corretto non può essere affidato all’accortezza di chi lo manovra. Le compagnie che ne sviluppano i software devono esserne responsabili, come stabilisce l’IA Act dell’Unione europea. Sviluppata, rilasciata e gestita con precisi criteri di responsabilità l’AI ci sarà di grande aiuto. Inclusi gli usi nei posti di lavoro. Sia per l’organizzazione del lavoro stessa, sia per aumentare la tutela della salute e della sicurezza nei luoghi di lavoro.
Perciò non possono essere trascurati, nella sua implementazione, i diritti umani personali. Ad esempio, mai deve essere in alcun modo utilizzata per profilare i lavoratori. E l’AI Act è pensato a questo scopo. Non per mettere le redini al mercato, come disinvoltamente sostengono le Big Tech, tanto vicine a quel Donald Trump che, già in gennaio, ha cancellato l’Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence adottato dall’Amministrazione Biden nel 2023. Ma perché il mercato si sviluppi dentro una cornice di diritto che salvaguardi la persona, nella logica dell’utilizzo antropocentrico delle tecnologie. 25 luglio 2025.
L’autore: Cesare Damiano, già sindacalista e parlamentare in tre legislature, è stato ministro del Lavoro ed è presidente dell’associazione Lavoro & Welfare





