AI Act: La Nuova Era dell’Intelligenza Artificiale tra Regole Ferree e Sfide Globali
- Lavinia Morgante
- 21 feb
- Tempo di lettura: 5 min
Negli ultimi anni, l’Unione Europea ha intensificato una produzione normativa sull’Intelligenza Artificiale (IA), imponendosi come pioniere nel settore. L’obiettivo? Tracciare il confine tra innovazione e tutela dei diritti fondamentali, garantendo un progresso senza compromessi sulla privacy e sulla sicurezza.
A tal proposito, l’AI Act è stato pubblicato nella Gazzetta Ufficiale dell’Unione Europea il 12 luglio 2024 ed è entrato in vigore il 1º agosto 2024. Tuttavia, l’applicazione delle sue disposizioni è scaglionata nel tempo:
● 1º agosto 2024: il regolamento entra ufficialmente in vigore.
● 2º febbraio 2025: diventano applicabili le disposizioni relative alle pratiche di IA vietate.
● agosto 2025: entreranno in vigore alcuni obblighi per i sistemi di IA ad alto rischio.
● agosto 2026: ci sarà piena applicazione delle restanti disposizioni, comprese le prescrizioni complete per i sistemi di IA ad alto rischio.
Ormai in fase di attuazione dopo l’entrata in vigore delle prime disposizioni (2 febbraio 2025), questo regolamento rappresenta un punto di svolta in questo processo, imponendo standard rigorosi per lo sviluppo, la commercializzazione e l’uso dell’IA nel mercato unico europeo e stabilendo nuove regole che aziende e sviluppatori dovranno seguire attentamente.
L’obiettivo dell’AI Act è chiaro: creare un ambiente normativo solido e prevedibile per le imprese, senza compromettere la sicurezza e la protezione dei cittadini.
“Non-compliance with the prohibition of the AI practices referred to in Article 5 shall be subject to administrative fines of up to 35 000 000 EUR or, if the offender is an undertaking, up to 7 % of its total worldwide annual turnover for the preceding financial year, whichever is higher”
Il regime sanzionatorio è particolarmente severo: le violazioni più gravi, come quelle relative alle pratiche vietate (es. social scoring), possono comportare multe fino a 35 milioni di euro o fino al 7% del fatturato globale dell’impresa colpevole, superando perfino le sanzioni previste dal GDPR (General Data Protection Regulation, o Regolamento Generale sulla Protezione dei Dati), che si fermano al 4%.
Per questo motivo, il regolamento classifica i sistemi IA in base al livello di rischio, imponendo vincoli stringenti al fine di evitare gli abusi e l’utilizzo pericoloso della tecnologia.
Il regolamento classifica i sistemi di Intelligenza Artificiale in quattro categorie di rischio principali:
● Rischio inaccettabile: tecnologie completamente vietate, come il riconoscimento facciale in tempo reale per la sorveglianza di massa, tecniche come quella del cd. “social scoring”, i sistemi progettati per manipolare il comportamento umano in modo subliminale e quelli che sfruttano vulnerabilità cognitive per influenzare persone fragili, come minori o anziani.
● Alto rischio: include sistemi utilizzati in ambiti critici, come la selezione del personale, la valutazione del credito, l’accesso ai servizi pubblici e il sistema giudiziario. Per queste applicazioni, il regolamento prevede elevati standard di trasparenza, sicurezza e supervisione umana.
● Rischio limitato: si riferisce a sistemi IA che, pur non essendo pericolosi, richiedono obblighi di trasparenza. Per esempio, chatbot e assistenti virtuali devono dichiarare chiaramente agli utenti che stanno interagendo con un’intelligenza artificiale.
● Rischio minimo: comprende la maggior parte delle IA utilizzate quotidianamente, come filtri fotografici o sistemi di suggerimento di contenuti, che non necessitano di regolamentazioni particolari.
Le aziende che sviluppano o utilizzano sistemi IA ad alto rischio dovranno rispettare una serie di obblighi stringenti. L’Articolo 23, ad esempio, recita che “È altresì opportuno che il presente regolamento si applichi alle istituzioni, agli organi e agli organismi dell'Unione quando agiscono in qualità di fornitori o deployer di un sistema di IA”. Un altro articolo dell’ACT, invece, stabilisce che qualsiasi contenuto generato dall’IA (testi, immagini, video) debba essere chiaramente identificato per prevenire la diffusione di fake news.
Mentre alcune imprese vedono queste normative come un passo verso un’IA più etica e sicura, altre si mostrano più critiche. Un esempio è Meta, la società madre di Facebook, Instagram e WhatsApp, la quale ha ritenuto di non aderire all’AI Pact, un’iniziativa parallela all’AI Act, che promuove l’adozione volontaria di buone pratiche nel settore.
Meta ha investito enormi risorse nello sviluppo di modelli IA generativi e nel metaverso e teme che norme troppo rigide possano frenare l’innovazione. Secondo l’azienda, un quadro regolamentare eccessivamente restrittivo potrebbe limitare la sperimentazione tecnologica e la crescita di nuove soluzioni, soprattutto se le sanzioni più pesanti dovessero scoraggiare gli sviluppatori dall’operare in Europa.
Il Dilemma: Regolamentazione vs. Innovazione
Questo scenario solleva un dibattito più ampio: la regolamentazione dell’IA può proteggere i cittadini da rischi etici e sociali, ma rischia di rallentare la competitività dell’Europa rispetto ad altri attori globali.
La Cina, in particolare, sta adottando un approccio completamente diverso.
Mentre l’UE punta sulla regolamentazione per garantire il rispetto dei diritti individuali, la Cina accelera lo sviluppo dell’IA. Un esempio è la start-up DeepSeek, supportata dal governo cinese, che ha sviluppato un modello IA paragonabile a ChatGPT, ma con costi e consumi energetici inferiori. Questo ha destato preoccupazione negli Stati Uniti, causando un calo delle azioni delle Big Tech come Microsoft, Google, Meta e OpenAI.
DeepSeek rappresenta una delle innovazioni più avanzate nel campo del linguaggio naturale e della gestione automatizzata dei dati, ma il suo utilizzo è incentrato su ottimizzazione industriale, sorveglianza e intelligence statale, con una minore attenzione alla privacy rispetto agli standard europei. Questo modello consente uno sviluppo più rapido delle tecnologie IA, ma solleva importanti questioni riguardo sicurezza e diritti umani.
Nuovi orizzonti per il mercato del lavoro
L’AI Act non sta soltanto ridefinendo le regole per le aziende, ma sta anche creando nuove opportunità nel mercato del lavoro. La crescente complessità normativa sta generando una forte domanda di professionisti specializzati in diritto dell’IA e protezione dei dati. Studi legali e aziende stanno ampliando i propri team per includere esperti in conformità e gestione del rischio, mentre nuove figure emergenti come l’AI compliance officer e l’AI ethics advisor diventano sempre più richieste.
In tal senso, anche il mondo accademico sta rispondendo a questa esigenza, con un aumento dei corsi di specializzazione in diritto dell’IA, machine learning e governance tecnologica. Invero, questa crescente interdisciplinarità tra diritto, tecnologia ed etica sta plasmando nuove professionalità capaci di muoversi con agilità in un panorama normativo in continua evoluzione.
L’AI Act rappresenta un passaggio cruciale verso una regolamentazione più strutturata dell’Intelligenza Artificiale in Europa. La sfida principale sarà quella di trovare il giusto equilibrio tra regolamentazione e innovazione, per garantire che l’Europa rimanga competitiva rispetto agli altri colossi globali.
Il successo dell’AI Act dipenderà non solo dalla sua implementazione, ma anche dalla capacità dell’UE di adattarsi a un settore in costante trasformazione, mantenendo un ecosistema in cui progresso tecnologico e diritti fondamentali possano coesistere in modo armonioso.
Bibliografia:
● DLA PIPER: EU AI Act’s ban on Prohibited Practices takes effect
● WILSON SONSINI, THE DATA ADVISOR: The EU’s AI Act Starts to Apply as of February 2, 2025
● POLITICO: Meta, Apple snub EU’s AI Pact
● HDBLOG: INTELLIGENZA ARTIFICIALE
● REUTERS: Meta will not immediately join EU's AI Pact ahead of new law
● EUR-LEX: Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio
The contents of the article represent solely the ideas and opinions of the author and in no way the opinions of Bocconi University or the IUS@B association.
Comments