«Questa non è una nuova arma, è un nuovo mondo». Così il 9 aprile 2024 Margrethe Vestager, commissaria europea per l’Innovazione e la Ricerca, ha parlato dell’intelligenza artificiale (IA) e dei suoi rischi, citando il film Oppenheimer, all’Institute for Advanced Study di Princeton, diretto proprio dal padre della bomba atomica tra il 1947 e il 1966. Verstager ha rivendicato il lavoro che ha portato il Parlamento europeo ad approvare la prima legge al mondo sull’IA ed esortato la comunità internazionale ad adottare un approccio «universale». L’European AI Act è una proposta normativa introdotta per la prima volta dalla Commissione europea il 21 aprile 2021, il cui iter di approvazione ha ricevuto una spinta significativa dai recenti sviluppi dell’IA generativa. L’obiettivo è definire un quadro giuridico comune, classificando i sistemi di intelligenza artificiale in quattro livelli di rischio che possono rappresentare per la sicurezza e i diritti dei cittadini: inaccettabile, alto, limitato e minimo.
I sistemi con rischio inaccettabile, come l’identificazione biometrica in tempo reale negli spazi pubblici e i meccanismi di credito sociale, sono vietati. I sistemi di alto rischio, come i veicoli autonomi e i dispositivi medici, devono rispettare normative rigide, che includono test rigorosi e una documentazione completa della qualità dei dati. I sistemi che presentano un rischio limitato richiedono alcune forme di trasparenza per garantire che gli utenti siano consapevoli dell’interazione con un sistema IA, mentre la maggior parte dei sistemi rientra nella categoria a rischio minimo (ad esempio, videogiochi e filtri antispam).
Il 9 dicembre 2023, dopo 35 ore di negoziati, il Parlamento europeo ha trovato un accordo sul testo finale: approvato il 13 marzo 2024, entrerà pienamente in vigore tra due anni. Tuttavia, le disposizioni diventeranno applicabili con tempi differenti a seconda della loro natura: sei mesi per i divieti su sistemi AI di rischio inaccettabile, nove mesi per i codici di condotta, dodici mesi per i sistemi IA di uso generale, e trentasei mesi per alcune obbligazioni legate ai sistemi IA ad alto rischio.
La normativa europea include meccanismi per il controllo e l’applicazione di sanzioni, mediante la costituzione di un ente specifico per l’intelligenza artificiale presso la Commissione europea. Questo organo avrà l’autorità di erogare multe fino al 7 per cento del fatturato annuo delle aziende non allineate alla normativa, con un importo minimo di 35 milioni di euro per le violazioni più serie.
European AI Act tra innovazione e regolamentazione
L’European AI Act è il primo tentativo al mondo di regolamentazione di una tecnologia che cresce a ritmi inediti rispetto ad altre innovazioni del passato e di cui conosciamo ancora poco le potenzialità.
«Daniel Kahneman diceva che a volte usiamo il verbo “sapere” a sproposito. Noi non sappiamo cosa accadrà in futuro e, tuttavia, immaginiamo scenari possibili», spiega Luciano Canova, divulgatore e docente di Economia comportamentale presso la Scuola Mattei. «Di intelligenza artificiale parlano tutti, il che mi porta a pensare che chi ne sa sia una sparuta minoranza. Nella complessità di un tema che genererà impatti su larga scala, qual è l’approccio migliore per incorniciare il contesto? Insomma, usiamo il freno o l’acceleratore? L’Ue si è assunta la responsabilità di legiferare in un mare inesplorato e credo sia sensato per due motivi: battere una rotta che va percorsa comunque e proporre un impianto normativo che punti sui freni, ma con uno stop and go basato intelligentemente su una griglia di rischi. Non si è mai capito chi l’abbia detto per primo, ma slow down, we are in a hurry. O, come dicevano i saggi di una volta, festina lente. Percorriamo con speranza la strada dell’innovazione segnando la mappa con i paletti giusti per accelerare in tutta sicurezza».
L’Ue ha deciso di intraprendere un percorso inedito ma inevitabile, introducendo delle misure di tutela rigorose ma non rigide, per seguire passo dopo passo l’evoluzione della tecnologia. Tuttavia, il rischio è costruire una splendida cornice attorno a una tela bianca. «Ritengo che parlare della regolazione europea sull’intelligenza artificiale sia una perdita di tempo. Il ritardo europeo sulla tecnologia riguarda la scarsa capacità imprenditoriale in una fase di concentrazione su alcune imprese che difficilmente è superabile e che comunque non sarà mai superata sulla base di azioni europee»,afferma Alessandro Aresu, consigliere scientifico della rivista di geopolitica Limes, che prosegue: «Riguarda poi la scarsa capacità finanziaria, accentuata dal fatto che progetti importanti come l’unione dei mercati dei capitali sono stati sempre rallentati e mai varati. Inoltre, coinvolge una ancora ridotta capacità di attrarre talenti dal resto del mondo, soprattutto se paragonati agli Stati Uniti. Per gli europei, a livello politico ma anche culturale, è importante occuparsi di questi temi, dare priorità a essi e alla valorizzazione della propria presenza in nicchie industriali e tecnologiche e pertanto smettere di dedicare tempo prezioso e attenzione eccessiva alla regolazione e alla sua discussione».
In altri termini, rischiamo di dedicare troppo tempo e risorse a regolare una tecnologia disruptive che avrebbe bisogno innanzitutto di una politica industriale, ancora prima che di un quadro normativo. Ancora una volta l’Ue dimostra di eccellere in campo burocratico, mostrando però un debole profilo strategico-industriale.
Inoltre, esiste la preoccupazione che una regolamentazione eccessivamente rigida possa rappresentare un ostacolo per gli investimenti, impedendo così di competere efficacemente con le aziende tecnologiche cinesi e americane. Tra i critici dell’approccio regolatore ci sono state infatti Germania e Francia, Paesi che vantano alcune tra le più promettenti start-up europee nel settore dell’intelligenza artificiale. Vi è il rischio di una conferma del detto secondo cui the Usa innovates, China replicates and Europe regulates.
Come si stanno muovendo Stati Uniti e Cina
Nel 2023, importanti figure del settore tecnologico, tra cui Sam Altman, Ceo di OpenAI, sono state coinvolte per assistere i legislatori nell’identificare rischi e opportunità delle nuove tecnologie. La task force sull’intelligenza artificiale del senato degli Stati Uniti, istituita nel 2019, ha dato il via libera ad almeno quindici proposte legislative focalizzate sulla ricerca e sulla valutazione dei rischi associati all’IA. Tuttavia, confrontando queste iniziative con la regolamentazione europea, il quadro regolatorio statunitense appare piuttosto moderato.
Il quadro normativo cinese in materia di intelligenza artificiale si sviluppa, invece, attraverso una serie di leggi, tra cui la Personal Information Protection Law (Pipl), la Cybersecurity Law e la Data Security Law. Questo sistema normativo mira a regolare attentamente l’uso dell’IA, con particolare attenzione alle fasi di addestramento degli algoritmi, alla selezione dei set di dati e al rispetto della privacy e della proprietà intellettuale. Pechino però si distingue per un controllo draconiano dell’informazione, nonché per le limitazioni al capitalismo privato.
Angela Huyue Zhang, nel suo libro High Wire: How China Regulates Big Tech and Governs Its Economy, descrive la regolamentazione cinese sull’intelligenza artificiale secondo un modello ricorrente, già applicato con le big companies Alibaba e Tencent. Inizialmente lo Stato permette una grande libertà alle aziende, poi impone restrizioni severe e infine allenta nuovamente le norme. Al momento l’intelligenza artificiale è in una fase di espansione, in linea con gli obiettivi del governo cinese di conseguire la supremazia tecnologica in materia.
Confucianesimo, mercato, diritto
Gli approcci all’intelligenza artificiale di Cina, Usa e Ue possono essere descritti con la formula “confucianesimo, mercato, diritto”. Il sistema normativo cinese persegue un allineamento strategico tra lo Stato-partito e le aziende private, favorendo una presunta armonia sociale ai diritti individuali dei cittadini. Gli Stati Uniti, dall’altra parte, adottano un approccio più permissivo, favorendo l’innovazione e le dinamiche di mercato, in un settore con profonde implicazioni dual-use, come è ben chiaro anche a Pechino. L’Unione europea, seguendo una terza via, pone al centro la tutela dei diritti dei cittadini, rispecchiando la sua storica tradizione giuridica. Tuttavia, se l’intenzione europea è nobile, ancora una volta si conferma l’arbitro di una partita globale in cui i giocatori sono altri.