La spinta alla regolamentazione dell’AI vive oggi un rallentamento, in particolare sulle due sponde dell’Atlantico. Quella stessa forza civile e politica che ha portato in Europa all’entrata in vigore dell’AI Act nell’agosto 2024 sembra oggi frenare di fronte alle molte voci critiche, che associano alla regolamentazione il ruolo di freno alla spinta innovativa delle imprese.
L’Europa tra norme e innovazione: il dilemma della regolamentazione dell’AI
Le più ascoltate in questo senso sono state quelle del Report sulla competitività europea di Mario Draghi, che ha avuto la capacità di cambiare il tono dell’Ue rispetto alla regolamentazione delle nuove tecnologie, e l’insediamento del Presidente Trump negli Stati Uniti, che ha ulteriormente rafforzato le correnti più critiche rispetto alla regolamentazione dell’AI a livello legislativo.
Questi nuovi approcci sono stati tenuti in considerazione da Bruxelles, dove le parole d’ordine sull’innovazione sono oggi la semplificazione e il supporto all’innovazione. In questo senso, sono da guardare con particolare attenzione il recente ritiro dell’AI Liability Directive, che mirava a regolamentare le responsabilità civili per gli incidenti causati dall’AI, e il “fitness check” previsto per l’AI Act. Questa è un’iniziativa politica promossa dalla Commissione Ue per il 2025, con l’obiettivo di portare ad una parziale revisione – anche se non significativa, secondo quanto affermato dall’AI Office – di alcune misure dell’AI Act per ridurre gli oneri di compliance all’AI Act, in particolare per le piccole e medie imprese.
Questa dinamica politica fortemente improntata all’innovazione si regge sulla percezione che le politiche regolatorie sull’AI si pongano come un dilemma tra innovazione e sicurezza. Una scelta su una scala unidimensionale, dove innovazione e sicurezza sono agli estremi opposti. Ma è davvero così? Stati Uniti, Cina e Ue hanno intrapreso strade molto diverse in questo senso. È utile quindi confrontarle, guardando al loro impatto su innovazione e sicurezza.
AI e governance globale: scenari divergenti e frammentazione normativa
Con l’IA destinata a diventare un pilastro dell’economia globale, i modelli regolatori adottati dalle principali potenze influenzeranno non solo la governance tecnologica interna, ma anche gli standard globali. La presunta deregulation statunitense, il controllo statale cinese e l’approccio europeo basato sulla tutela dei diritti fondamentali riflettono priorità strategiche e valori sociali profondamente diversi.
L’attuale corsa globale all’innovazione per conquistare la leadership nell’AI potrebbe esasperare queste differenze con approcci regolatori distinti e una scarsa governance condivisa. Questo scenario potrebbe accentuare la competizione tra blocchi economici e ridurre la possibilità di individuare standard condivisi, con implicazioni per la sicurezza, l’interoperabilità e l’equità nell’accesso delle tecnologie.
Regolamentazione Ue dell’IA: tra rischio e responsabilità
Allo stesso tempo, l’approccio regolatorio dovrebbe essere considerato in un’ottica diversa, non come freno all’innovazione ma come standard di sicurezza. L’AI Act europeo è un buon esempio in questo senso: la legislazione europea definisce un quadro normativo specifico che favorisce lo sviluppo responsabile di tecnologie AI, stabilendo regole e obblighi proporzionali ai livelli di rischio dei sistemi considerati e al contesto di utilizzo dei sistemi AI. Pertanto, anche se le disposizioni previste per i sistemi ad alto rischio possono risultare stringenti, di fatto tali obblighi si applicano a una porzione limitata di fornitori e deployer che applicano soluzioni AI ad alto rischio per i diritti fondamentali dei cittadini. Viene inoltre garantita certezza giuridica per le aziende del settore.
Stati Uniti: deregolamentazione apparente e frammentazione normativa
Gli Stati Uniti sono percepiti in questo contesto come l’area geografica che più di tutte ha promosso la deregulation sulla sicurezza dei sistemi AI, favorendo l’innovazione. L’unica politica trasversale sull’AI intrapresa a livello federale è stato l’Executive Order sull’AI firmato da Biden nel 2023, e ritirato da Trump nel suo primo giorno di mandato da Presidente. L’Executive Order, a differenza di una legge approvata dal Congresso, non ha carattere vincolante, ma serve come politica di indirizzo. Una scelta molto diversa rispetto all’AI Act dell’Ue, che invece si applica direttamente in tutti i 27 Stati membri.
L’assenza di una politica federale trasversale sull’AI ha portato negli Stati Uniti, da una parte, alla proliferazione di proposte di regolamentazione settoriale dell’AI, e dall’altra ad una molteplicità di politiche AI nei vari Stati e agenzie federali Usa.
Ad oggi al congresso degli Stati Uniti sono in discussione più di 120 proposte di legge sull’AI, che mirano a regolare l’uso in diversi settori e sotto diversi ambiti. Ad esempio, il Quiet Act, proposto con supporto bipartisan, imporrebbe un requisito di trasparenza per le chiamate generate tramite AI, in linea con le previsioni dell’AI Act. Oppure, il Preventing Algorithmic Collusion Act del 2025 proibirebbe “l’uso di algoritmi di pricing che possono facilitare la collusione attraverso l’utilizzo di dati non pubblici dei concorrenti”. Questa galassia di iniziative legislative riprendono o espandono sotto molti aspetti le pratiche vietate o gli obblighi procedurali imposti dall’AI Act per i sistemi ad alto rischio.
Iniziative legislative statali sulla regolamentazione dell’intelligenza artificiale
Un ulteriore elemento di complessità negli Stati Uniti riguarda le iniziative legislative a livello statale, che si sovrappongono a quelle federali. La più rilevante portata avanti a livello statale è il Safe and Secure Innovation for Frontier AI Models Act (SB 1047), presentato e discusso in California. La proposta di legge mira a regolare lo sviluppo di modelli AI molto grandi, ricalcando in parte la disciplina dell’AI Act per i modelli di AI con finalità generali. La legge proposta sarebbe applicabile alle imprese che vendono i loro servizi su territorio californiano, a prescindere dalla sede legale dell’impresa. A settembre del 2024, la proposta è stata bloccata dal governatore Newsom, che si è però impegnato per una nuova iniziativa legislativa, ora in fase di preparazione, meno impattante sull’innovazione.
I rischi della frammentazione nella regolamentazione dell’IA
Le agenzie federali statunitensi hannointrodotto 59 normative relative all’intelligenza artificiale, più del doppio rispetto al 2023; come evidenziato dall’AI Index Report dell’Università di Stanford, le normative sono state emesse da un numero di agenzie due volte maggiore. Questo sottolinea un certo livello di proliferazione legislativa, portando ulteriore entropia ad un panorama legislativo già molto frammentato.
La presunta deregulation degli Stati Uniti, quindi, sta portando ad una ramificazione settoriale e geografica della regolamentazione dell’AI. Il forte rischio è che le imprese offrano i loro prodotti AI in modo orizzontale in più settori, o pubbliche amministrazioni, e più Stati debbano gestire una molteplicità di obblighi normativi, magari sovrapposti o contrastanti, pagando ingenti oneri di compliance e offrendo standard di sicurezza eterogenei.
Strategia normativa cinese: controllo statale e ambizione globale
A inizio 2025, l’intelligenza artificiale cinese è stata sotto i riflettori con il caso DeepSeek, una chatbot in grado di competere con ChatGPT di OpenAI, ma sviluppata con costi significativamente inferiori. Questo successo ha dato lustro alle iniziative che Pechino sta portando avanti ormai da anni volte a regolamentare e incentivare l’innovazione AI. Infatti, risale al 2017 il National New Generation AI Plan, ovvero la strategia nazionale in ambito AI con cui la Cina ambisce a diventare il leader mondiale del settore entro il 2030 e che ha dato vita ad oltre 20 iniziative legislative in materia.
Il bilanciamento tra agilità normativa e regolamentazione nell’IA cinese
La legislazione cinese sull’AI punta a bilanciare agilità normativa e regolamentazione, stabilendo standard nazionali per lo sviluppo uniforme della tecnologia nel paese. Tra gli interventi regolatori più significativi dell’ultimo periodo rientrano le normative su sicurezza, algoritmi e AI generativa. Un esempio emblematico è fornito dalle Regulations on the Administration of Internet Information Service Recommendation Algorithms, ovvero 35 disposizioni applicabili a numerosi ambiti della società, dall’informazione a social media, e-commerce e lotta contro le frodi informatiche. La normativa impone alle aziende che utilizzano sistemi di raccomandazione basati su AI l’obbligo di presentare gli algoritmi usati alle autorità cinesi, che li valutano e inseriscono in un apposito “registro degli algoritmi”. Questo strumento ha il potenziale per essere base per future regolamentazioni, contribuendo allo sviluppo di quadro normativo cinese sull’AI sempre più strutturato e comprensivo.
L’etica nell’intelligenza artificiale con caratteristiche cinesi
Un ulteriore elemento distintivo della strategia cinese è l’attenzione verso una gestione etica dell’AI con caratteristiche cinesi. La creazione della Sottocommissione Intelligenza Artificiale all’interno della Commissione Nazionale dell’Etica nella Scienza e nella Tecnologia è un esempio di tale approccio così come lo sviluppo dei Principi per l’IA (2019) per la promozione di sicurezza, trasparenza, responsabilità e privacy nello sviluppo e gestione di soluzioni IA. In questo ambio, nel 2023 il governo cinese ha adottato le Deep Synthesis Provisions e le Ethical Review Measures. Mentre le prime regolamentano l’uso delle tecnologie di deep synthesis, come il deep learning e i deep fake, così da creare un cyberspazio sicuro, le seconde invitano agenzie pubbliche, università e imprese che conducono attività di ricerca e sviluppo in aree eticamente sensibili a istituire comitati di revisione etica per la valutazione e l’approvazione di tali soluzioni.
La continua evoluzione della regolamentazione dell’IA in Cina
La forte spinta normativa cinese non sembra essere vicina a una battuta d’arresto: lo scorso 14 marzo, l’Amministrazione del Cyberspazio della Cina ha rilasciato le Misure finali per etichettare i contenuti generati dall’AI, che da settembre 2025 rafforzeranno il controllo statale sulle tecnologie. Sebbene, quindi, l’Occidente interpreti le politiche cinesi principalmente in chiave di competizione geopolitica, il framework di governance dell’AI che la Cina sta sviluppando trasformerà significativamente la progettazione e l’implementazione dei sistemi AI, con un impatto sulle esportazioni tecnologiche cinesi.
I gap nella regolamentazione dell’intelligenza artificiale cinese
Tuttavia, se da un lato alcune aree risultano regolamentate, dall’altro vi sono dei campi in cui la legislazione cinese in materia di AI presenta gap e differenze sostanziali con le normative occidentali. Primo fra tutti, vi è il tema della sicurezza dei dati biometrici. Nonostante la Legge sulla Protezione delle Informazioni Personali (2021) abbia introdotto restrizioni sulla raccolta di dati personali, tra cui quelli biometrici, è stata attribuita ad organi di sicurezza pubblici la possibilità di censire e usare tali dati. Questo approccio centrico verso la sicurezza ha dato vita al database di dati biometrici gestito da polizia più grande al mondo, che viene regolarmente ed estensivamente impiegato dalle forze di sicurezza cinesi, e risulta in contrapposizione con l’AI Act, in cui la sorveglianza biometrica real-time è vietata nella maggior parte delle applicazioni, ad eccezione di alcune casistiche legate alla sicurezza pubblica (es., terrorismo), e comunque seguendo obblighi procedurali che limitano il suo uso da parte delle forze dell’ordine.
La tutela del copyright nell’intelligenza artificiale in Cina
Un’altra controversia del sistema cinese riguarda la tutela del copyright, come dimostrato dal caso DeepSeek. Infatti, la chatbot è stata accusata di aver violato il diritto d’autore da OpenAI, secondo cui il modello cinese è stato addestrato copiando le funzionalità e le procedure dei modelli di ChatGPT. Al contempo, una sentenza della Corte di Pechino del novembre 2023 ha riconosciuto la protezione del diritto d’autore per le immagini generate dall’intelligenza artificiale. Tuttavia, in maniera quasi antitetica, la stessa sentenza ha stabilito che un’immagine generata da AI e modificata dall’utente può essere considerata un’opera d’arte e, pertanto, non rappresentare una violazione del diritto. Questi casi, come peraltro anche in Occidente, mettono in luce le sfide legate alla protezione della priorità intellettuale in ambito AI e la mancanza di una tutela legale certa nella normativa cinese per il rispetto dei diritti individuali.
Le caratteristiche della governance cinese in materia di intelligenza artificiale
L’approccio usato dalle diverse normative riflette un modus operandi tipico della governance cinese in materia di AI: ogni misura rappresenta un tassello propedeutico per lo sviluppo del framework di governance dell’AI, suggerendo dunque la presenza di un disegno regolamentare prospettico. In aggiunta, le regolamentazioni riconoscono un ruolo prioritario ai possibili impatti degli algoritmi e dei sistemi AI sul benessere e sulla sicurezza dell’intera società anziché adottare un approccio “individualista” concentrato sui diritti fondamentali dei cittadini, come invece spesso accade nelle legislazioni occidentali, a partire dagli sforzi normativi dell’UE.
Soft power europeo e regolamentazione come leva geopolitica
A fronte delle politiche divergenti di Stati Uniti e Cina, l’Ue sta intraprendendo una terza via, unica nel suo genere. Un crocevia importante per l’Ue è stato il Global AI Summit di Parigi dello scorso 10 e 11 febbraio, che si è concluso con la firma dello Statement on Inclusive and Sustainable Artificial Intelligence for People and the Planet da parte di 60 paesi. Nonostante il Summit non abbia raggiunto l’obiettivo di istituire una Governance globale sull’AI, concludendosi con un semplice riconoscimento “del bisogno di una cooperazione tra paesi nello sviluppo dell’AI”, Stati Uniti e Regno Unito non hanno sottoscritto il documento sostenendo come un’eccessiva regolamentazione soffochi l’innovazione.
Se, da una parte, l’ampio consenso sulla dichiarazione finale – anche di Paesi come la Cina, l’India e il Giappone – getterebbe le basi per lo sviluppo di una governance globale dell’AI a guida europea, dall’altra l’Unione non è immune al dilemma tra regolamentazione e innovazione. La mancanza del consenso transatlantico sulla Governance dell’AI ha un significativo peso politico in un momento in un cui il tema della competitività è in cima all’agenda europea e la deregolamentazione si fa strada in quella della Commissione come ricetta per il rilancio dell’economia.
Prima dell’elezione di Trump, delle tensioni commerciali e della crescente crisi del multilateralismo, l’Unione Europea aveva preso le redini nella regolamentazione dell’AI fissando i più alti standard globali di sicurezza e tutela dei diritti umani. Dalla pubblicazione del “Libro bianco sull’intelligenza artificiale” nel febbraio 2020 all’AI Act dello scorso agosto, l’Unione Europea ha, infatti, definito una regolamentazione pioneristica in grado di bilanciare innovazione e sicurezza. L’approccio adottato dall’Unione è coerente con la strategia geopolitica europea, il c.d. “soft power normativo”, di porsi come leader mondiale nella regolamentazione nei settori strategici spingendo – così come avvenuto in passato con il GDPR, Digital Service Act e Digital Markets Act – gli altri Paesi ad adeguarsi agli alti standard europei.
La risposta europea alla deregolamentazione nell’intelligenza artificiale
La corsa globale per la leadership dell’IA ha determinato una ventata di deregolamentazione che rischia non solo vanificare l’influenza normativa europea ma anche di frenare gli investimenti e lo sviluppo delle tecnologie IA. Per tali ragioni, l’Unione ha deciso di sviluppare una strategia per lo sviluppo dell’IA che, senza rinunciare alla tutela dei diritti e alla sicurezza, promuova lo sviluppo tecnologico europeo nel settore.
Gli investimenti europei per l’intelligenza artificiale
“Troppo spesso sento dire che l’Europa è in ritardo nella corsa, mentre gli Stati Uniti e la Cina sono già in vantaggio. Non sono d’accordo. La corsa all’IA è tutt’altro che finita. La verità è che siamo solo all’inizio”. Con queste parole, Ursula von der Leyen annunciava investimenti da 200 miliardi tramite il programma “Invest AI” che, lo scorso 9 aprile, è stato rafforzato con il piano “AI Continent” per realizzare l’obiettivo di “diventare il continente dell’intelligenza artificiale con regole più semplici e più infrastrutture”.
Il piano AI Continent prevede, oltre alle molte iniziative per promuovere l’AI tramite infrastruttura computazionale, dati e talenti, anche alcune azioni per ridurre i costi di compliance delle imprese. Tra queste iniziative, ad esempio, la Commissione ha annunciato un AI Act Service Desk per fornire alle imprese strumenti come linee guida, check-list di conformità e consulenza legale al fine di rendere accessibile il quadro normativo e aumentare la fiducia degli investitori.
Il valore strategico della regolamentazione europea dell’intelligenza artificiale
Nella corsa all’intelligenza artificiale l’Europa sta, dunque, cercando un equilibrio tra progresso tecnologico, tutela dei diritti fondamentali e sicurezza, rafforzando al contempo la cooperazione con gli altri paesi per la definizione di una governance condivisa dell’AI. La regolamentazione europea ha, infatti, un alto valore strategico per posizionare l’Unione alla guida di una “terza via” per l’AI, rafforzando la cooperazione con tutti quei paesi firmatari della dichiarazione del Summit di Parigi – in particolare potenze medie come Brasile, Giappone e India – che vogliono definire un quadro normativo internazionale che garantisca regole chiare alle imprese e allo stesso tempo sicurezza e alti standard di tutela dei diritti dei cittadini.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link