Un nuovo capitolo per l’intelligenza artificiale: l’AI ACT
Dal 2 febbraio 2025, l’Unione Europea sta applicando gradualmente l’AI ACT, il primo regolamento al mondo dedicato alla regolamentazione e all’uso dell’intelligenza artificiale. Il nuovo atto normativo intende assicurare un utilizzo etico dell’IA, classificando i sistemi in base al livello di rischio e imponendo restrizioni su quelli considerati a rischio inaccettabile.
L’obiettivo principale è garantire un uso sicuro, etico e trasparente dell’IA, proteggendo i diritti fondamentali dei cittadini senza soffocare l’innovazione tecnologica.
Divieti e pratiche non concesse nell’AI ACT
L’articolo 5 dell’AI ACT regolamenta le pratiche di Intelligenza Artificiale vietate, di seguito un breve estratto: “È vietato immettere sul mercato, mettere in servizio o utilizzare i sistemi di intelligenza artificiale che:
- utilizzano tecniche subliminali oltre la soglia della percezione cosciente per influenzare il comportamento di una persona in modo da causare o poter causare danni fisici o psicologici;
- sfruttano le vulnerabilità di gruppi specifici di persone a causa della loro età, disabilità o condizione mentale, per distorcere materialmente il comportamento di una persona appartenente a tali gruppi, in modo da causare o poter causare danni fisici o psicologici;
- sono utilizzati per la valutazione o classificazione della affidabilità delle persone fisiche per un periodo prolungato basata sul loro comportamento sociale o sulle caratteristiche personali, con l’obiettivo di:
- determinare se una persona merita fiducia;
- concedere o negare a tale persona determinati benefici o trattamenti;
- utilizzano il riconoscimento biometrico a distanza in tempo reale in spazi accessibili al pubblico a fini di applicazione della legge, salvo eccezioni strettamente definite.”
L’articolo, tra i più importanti da analizzare, mira a prevenire l’uso di sistemi di intelligenza artificiale che possano manipolare o sfruttare gli individui, con la chiara intenzione di garantire la protezione dei diritti fondamentali e della dignità umana.
Le categorie di rischio dell’AI ACT
L’AI ACT suddivide i sistemi IA in quattro categorie di rischio: minimo, limitato, alto e inaccettabile; quelli ad alto rischio, come i sistemi di IA impiegati nella sanità, nella giustizia e nei servizi pubblici, dovranno rispettare rigidi standard di trasparenza e sicurezza, per esempio un software medico per la diagnosi di malattie deve dimostrare un tasso minimo di accuratezza e sicurezza prima di essere utilizzato negli ospedali (art. 9).
I sistemi di rischio inaccettabile, invece, verranno vietati, ad esempio tutti quei sistemi IA che influenzano il comportamento delle persone senza che se ne rendano conto, causando possibili danni psicologici o fisici, come un assistente virtuale che spinge inconsapevolmente gli utenti ad acquistare prodotti sfruttando bias cognitivi; oppure il riconoscimento facciale in tempo reale negli spazi pubblici (salvo eccezioni per sicurezza nazionale), la manipolazione occulta del comportamento umano e lo scoring sociale ispirato al modello cinese.
Le opinioni dei Paesi membri
L’AI ACT ha generato reazioni contrastanti tra i Paesi membri dell’Unione Europea, mentre alcuni lo considerano un passo necessario per la protezione dei diritti fondamentali, altri temono che la rigidità delle norme possa frenare l’innovazione e la competitività tecnologica dell’Europa rispetto a Stati Uniti e Cina. Francia e Germania, le due economie più forti dell’UE, hanno espresso preoccupazioni su alcuni aspetti del regolamento, in particolare sulle restrizioni ai modelli di IA generativa e agli obblighi di trasparenza per le aziende.
Entrambi i Paesi ospitano importanti aziende tecnologiche e istituti di ricerca, e temono che un’eccessiva burocrazia possa rallentare lo sviluppo di start-up e imprese europee rispetto ai giganti americani come OpenAI, Google e Meta.
La Francia, ad esempio, ha insistito affinché il regolamento non soffocasse l’innovazione nel settore dell’intelligenza artificiale generativa, come i modelli linguistici avanzati (LLM). La Germania, invece, ha manifestato preoccupazioni sui costi di conformità per le PMI (piccole e medie imprese).
Il timore è che solo le grandi aziende possano permettersi di rispettare le nuove normative, creando uno squilibrio nel mercato. Berlino ha chiesto che l’AI ACT preveda misure di supporto per le aziende più piccole, affinché possano adeguarsi senza svantaggi competitivi.
Altri Stati, come la Spagna e i Paesi Bassi, hanno sostenuto un approccio più rigido, chiedendo regolamenti chiari per evitare abusi da parte delle aziende e garantire la protezione dei diritti umani. Madrid e Amsterdam vedono il regolamento come un’opportunità per l’Europa di posizionarsi come leader nell’etica dell’IA, evitando problemi come la discriminazione algoritmica e la manipolazione delle informazioni.
I Paesi Bassi, noti per la loro attenzione alla privacy e alla regolamentazione del digitale, hanno espresso forte sostegno al divieto di scoring sociale e all’uso indiscriminato del riconoscimento facciale nei luoghi pubblici. Amsterdam ritiene che la protezione dei diritti fondamentali debba avere la priorità assoluta.
L’opinione dell’Italia
L’Italia ha assunto una posizione più moderata, riconoscendo l’importanza di regolamentare l’IA ma chiedendo al contempo maggiore supporto per le imprese. Il governo italiano ha espresso la necessità di garantire che l’AI ACT non penalizzi le startup e le aziende emergenti, proponendo incentivi e agevolazioni per la transizione alle nuove norme.
Inoltre, l’Italia si è detta favorevole a una regolamentazione chiara sull’uso dell’IA nella pubblica amministrazione, soprattutto per garantire trasparenza nei processi decisionali automatizzati, ma teme che un’eccessiva rigidità possa rallentare la digitalizzazione di settori chiave come la sanità e la giustizia
Critiche degli esperti sull’AI ACT
Gli esperti temono che le nuove norme possano creare un onere burocratico eccessivo per le startup e le piccole imprese europee, favorendo solo i colossi tecnologici con le risorse per adeguarsi rapidamente.
Le piccole e medie imprese temono che le nuove normative possano rappresentare un ostacolo burocratico difficile da superare, mentre i colossi tecnologici sembrano essere meglio attrezzati per affrontare i requisiti imposti dal regolamento; il cuore della critica riguarda gli obblighi di trasparenza e di valutazione del rischio, che richiedono una documentazione dettagliata del funzionamento degli algoritmi, una misura che, seppur ben intenzionata nel voler garantire la sicurezza e la protezione dei consumatori, rischia di diventare un carico insostenibile per le realtà più piccole.
Le startup e le piccole imprese, infatti, spesso non dispongono delle risorse necessarie per attuare tutte le misure richieste dalla legge, come la creazione di sistemi di monitoraggio, l’integrazione di procedure di audit esterni e la documentazione continua sugli sviluppi tecnologici.
Dall’altro lato, i grandi attori del settore tecnologico, che già operano con team dedicati e infrastrutture robuste, sembrano avere un vantaggio netto, con la capacità di investire in compliance normativa e gestione dei rischi, queste aziende non solo si adegueranno più facilmente alla nuova legislazione, ma probabilmente beneficeranno anche di una maggiore protezione del mercato, consolidando ulteriormente la loro posizione dominante.
Particolare attenzione è rivolta alla regolamentazione sull’IA generativa, che include tecnologie come ChatGPT. Qui, le preoccupazioni si concentrano sulla difficoltà di rendere completamente trasparenti algoritmi che operano in modo complesso e che, spesso, non possono essere facilmente spiegati in termini semplici.
L’obbligo di una trasparenza totale rischia di rallentare lo sviluppo delle applicazioni innovative e di minare la competitività delle piccole imprese, costrette a rispettare standard che i grandi competitor possono facilmente implementare grazie a budget più ampi e team di esperti.
I prossimi passi
Dopo il 2 febbraio 2025, l’implementazione del regolamento avverrà in più fasi, con la piena entrata in vigore prevista per agosto 2026. Le aziende dovranno adeguarsi progressivamente, sviluppando strategie di compliance e garantendo la formazione del personale per operare nel rispetto delle nuove normative.
Con l’AI Act, l’Europa punta a diventare un modello globale nella regolamentazione dell’intelligenza artificiale, cercando di bilanciare innovazione e tutela dei diritti fondamentali. Tuttavia, resta da vedere se questo equilibrio sarà davvero efficace o se rallenterà la corsa dell’UE nel settore tecnologico.
Sonia Bono per Questione civile
Sitografia:
- www.key4biz.it
- www.eur-lex.europa.eu
- www.euronews.com
- www.diritto.it
- www.innovazione.gov.it
- www.agid.gov.it
- www.hbr.org