Il peso dell’intelligenza artificiale (AI) sui rapporti fra i Paesi è e sarà sempre più determinante: per restare competitivi gli Stati devono investire ingenti somme nell’evoluzione dell’AI, che procede a ritmo serrato, lasciando indietro i Paesi più deboli. Investire ora comporta un enorme vantaggio politico, economico e militare futuro, ma non basta avere le risorse da investire. Lo sviluppo dell’AI impone agli Stati di bilanciare l’interesse all’innovazione con la tutela dei diritti fondamentali dei cittadini.
I modelli di regolamentazione adottati sono, ad oggi, profondamente diversi. L’Unione Europea ha scelto di regolamentare preventivamente, mettendo al centro la tutela dei diritti fondamentali, mentre gli Stati Uniti stanno adottando un modello basato sull’autoregolamentazione, con interventi limitativi minimi.
Il modello UE: regolamentazione preventiva con l’AI Act
L’Unione disciplina per la prima volta la materia in modo organico con l’AI Act, approvato nel 2024. Dal sito ufficiale del Parlamento europeo leggiamo:
«La priorità del Parlamento europeo è garantire che i sistemi di intelligenza artificiale utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. I sistemi di IA dovrebbero essere supervisionati da persone, piuttosto che da processi automatizzati, per prevenire conseguenze dannose».
Una logica precauzionale, coerente con la tradizione giuridica europea. Il principio chiave nell’UE è verificare che la tecnologia non rappresenti una minaccia per la sicurezza, i cittadini e la democrazia prima di lasciare campo libero all’evoluzione.
Come bilanciare la necessità di innovare e non restare indietro con la tutela dai rischi che una tecnologia così dirompente può comportare? L’AI Act lo fa con un sistema differenziato di obblighi per fornitori e utenti: viene valutata la possibile pericolosità dei vari sistemi AI europei, per imporre obblighi graduati che permettano di non bloccare lo sviluppo di applicazioni poco pericolose, limitando invece quello dei sistemi più rischiosi.
Il sistema differenziato di obblighi: che cosa prevede la classificazione
La classificazione prevede un divieto assoluto per i sistemi a rischio inaccettabile. Si tratta di tutti quei sistemi possono manipolare i minori da un punto di vista cognitivo e comportamentale, oppure mirati alla sorveglianza di massa non proporzionata, o ancora sistemi di social scoring, ossia di valutazione delle persone in base a comportamento, status socioeconomico e caratteristiche personali, per assegnare un punteggio sociale individuale atto a determinare l’accesso a servizi, benefici e opportunità.
Ci sono poi i sistemi ad alto rischio, ossia quelli che operano nei settori sensibili, come sanità, trasporti e giustizia. In questi ambiti l’AI potrà essere applicata, ma solo rispettando requisiti stringenti e controlli sia preventivi che lungo tutto il ciclo di vita. Obbligo rilevante per questa categoria è la supervisione umana.
Infine, per i sistemi a rischio limitato sono previsti solo obblighi di trasparenza nei confronti degli utenti, che devono essere informati di star interagendo con un contenuto creato dall’intelligenza artificiale o con un chatbot. Liberi da vincoli particolari restano i sistemi a rischio minimo, usati per le applicazioni comuni come i filtri antispam.
L’AI Act non contiene solo limitazioni. Sono previsti strumenti che incentivano lo sviluppo dell’AI, come Digital Europe e Horizon Europe, che finanziano ricerca e innovazione, programmi e borse di studio per formare specialisti e accrescere le competenze tecnologiche dei cittadini europei, oltre a sostegni alle startup del settore.
Il modello degli Stati Uniti: America’s AI Action Plan
L’approccio statunitense alla regolamentazione dell’AI è profondamente diverso. Gli Stati Uniti non hanno una regolamentazione organica e fanno affidamento principalmente sul livello federale e sugli standard tecnici delle singole agenzie. Documento programmatico fondamentale per capire la linea guida presidenziale è l’America’s AI Action Plan, sottotitolato emblematicamente Winning the Race (“vincere la gara”). Con questo piano Washington fissa tre obiettivi fondamentali: accelerare l’innovazione, costruire infrastrutture nazionali solide e rafforzare la leadership internazionale, definendo più di 90 azioni federali per raggiungerli.
Il modello di sviluppo USA mette al primo posto la velocità, soprattutto per restare competitivi nei confronti della Cina. Per perseguire questo fine, Trump punta anche sul controllo dell’export di chip e model weights. Il piano prevede inoltre la semplificazione delle leggi federali considerate “onerose” e quindi rallentanti per le imprese, l’incentivo alla creazione di data center e semiconduttori e, infine, l’utilizzo della spesa pubblica per guidare il mercato.
La gestione dei rischi è affidata al NIST (National Institute of Standards and Technology). Questo ente pubblico aggiorna l’AI Risk Management Framework. Si tratta di linee guida volontarie per le imprese e la pubblica amministrazione per gestire responsabilmente i rischi legati all’intelligenza artificiale. Qui il problema è che non si tratta di una legge vincolante, ma di un semplice standard di riferimento. Inoltre, è previsto che le agenzie e il Dipartimento di Giustizia intervengano solo ex post, quindi a posteriori, contro abusi di mercato, pratiche ingannevoli e intese anticoncorrenziali. Altro elemento critico dell’Action Plan è l’uso di strumenti geopolitici aggressivi, come i controlli sull’export di chip e model weights, che potrebbero alimentare una “guerra tecnologica” con la Cina.
Modelli a confronto
USA e UE scommettono su due modelli totalmente diversi, che riflettono due culture politiche e giuridiche opposte. La discussione su quale dei due modelli sia migliore è complessa e polarizzata in base al valore che si ritiene prioritario: l’evoluzione tecnologica e la competitività sul mercato, o l’etica e la sicurezza dei cittadini. In un contesto fortemente globalizzato, però, non è più sufficiente chiedersi quale modello sia preferibile. Ogni scelta politica americana si riflette sull’Unione Europea e, anche se non in modo perfettamente simmetrico, viceversa, così come avranno ricadute globali le decisioni delle altre potenze mondiali.
La storia dimostra che, nell’evoluzione tecnologica, quando si fa un passo avanti diventa molto difficile farne uno indietro. Ormai sono passati due anni dalla lettera aperta del 22 marzo 2023, con cui oltre 100 personalità del mondo tecnologico e accademico chiedevano di sospendere per sei mesi lo sviluppo dei sistemi AI più potenti di ChatGPT-4. In quella lettera venivano espresse preoccupazioni sui rischi che l’intelligenza artificiale può avere per l’umanità e si denunciava la mancanza di governance e cooperazione internazionale. Oltre al forte impatto mediatico, l’appello non ha prodotto risultati concreti e l’addestramento dell’AI non è mai stato realmente messo in pausa.
L’intelligenza artificiale sta già cambiando il mondo a un ritmo sempre più serrato. Forse la vera domanda oggi è un’altra: in che direzione vogliamo che vada questo cambiamento?