AI Act: il primo quadro normativo globale sull’intelligenza artificiale
elisa2024-11-28T16:49:34+01:00L’AI Act rappresenta il primo tentativo al mondo di regolamentare l’intelligenza artificiale, ponendo l’Unione Europea come leader nella definizione di standard globali per un’AI etica, sicura e trasparente.
Il regolamento introduce un approccio basato sul rischio, classificando le applicazioni dell’AI in diverse categorie di rischio e stabilendo obblighi proporzionati per i diversi attori dell’AI. Questo quadro normativo mira a promuovere innovazione responsabile, proteggendo al contempo i diritti fondamentali degli individui e garantendo un utilizzo sicuro della tecnologia. Una svolta cruciale per il futuro dell’AI in Europa e oltre.
Il regolamento approda in Gazzetta ufficiale europea
Approvato il 21 giugno 2023 e pubblicato in Gazzetta Ufficiale dell’Unione Europea il 12 luglio 2024, il regolamento entrerà in piena applicazione a partire dal 2 agosto 2026. Questo quadro normativo mira a garantire che l’AI sia sviluppata e utilizzata in modo responsabile, trasparente ed etico, tutelando i diritti fondamentali delle persone.
Entro il 2 agosto 2028 e successivamente ogni quattro anni, la Commissione Europea valuterà l’efficacia del regolamento e la necessità di aggiornamenti, in modo da mantenerlo allineato con i progressi tecnologici.
Con il Regolamento 2024/1689 (AI ACT), l’Unione Europea si propone come guida mondiale, stabilendo uno standard che combina l’innovazione con la protezione dei diritti e della sicurezza dei cittadini.
Un regolamento basato sul rischio
Il cuore dell’AI Act è il suo approccio basato sul rischio, che classifica i sistemi di AI in quattro categorie principali:
Rischio inaccettabile: Sistemi vietati perché considerati dannosi per la società, come:
- Social scoring: valutazioni basate su comportamenti o caratteristiche personali che determinano l’accesso a diritti fondamentali.
- Tecniche manipolatorie occulte: sistemi che influenzano decisioni dell’utente.
Rischio elevato: Tecnologie che richiedono una conformità rigorosa, tra cui:
- Sistemi utilizzati in ambiti critici come sanità, giustizia o istruzione.
- Sistemi che classificano le persone in base a caratteristiche biometriche come sesso, etnia o età, utilizzati a scopi di sicurezza o identificazione.
Rischio limitato: Sistemi che necessitano di trasparenza, ad esempio chatbot o strumenti di generazione di contenuti sintetici. Gli utenti devono essere informati della natura artificiale del sistema.
Rischio minimo o nullo: Tecnologie senza impatti significativi, come videogiochi o applicazioni per uso personale, per cui non sono previsti obblighi specifici.
Quali sono gli obiettivi del regolamento?
L’AI Act mira a garantire un uso responsabile dell’intelligenza artificiale attraverso tre obiettivi principali:
- Protezione dei diritti fondamentali: garantire che l’AI rispetti la dignità umana, la privacy e il principio di non discriminazione.
- Sicurezza e trasparenza: obbligare i fornitori e sviluppatori a garantire che i sistemi AI siano sicuri, conformi e monitorati durante tutto il ciclo di vita.
- Promozione dell’innovazione: stimolare la ricerca e lo sviluppo di tecnologie etiche e competitive, creando un ecosistema di fiducia per sviluppatori e utenti.
Principi chiave dell’AI ACT: su cosa si basa il nuovo regolamento sull’intelligenza artificiale
Sono quattro i principi essenziali su cui si fonda il regolamento:
- Precauzione: Minimizzare i rischi anche in situazioni di incertezza.
- Proporzionalità: Adeguare i requisiti normativi al livello di rischio associato alla tecnologia.
- Trasparenza: Informare gli utenti sull’uso dell’AI e sulle sue capacità.
- Accountability: Assicurare la responsabilità di sviluppatori e utilizzatori per garantire la conformità al Regolamento.
Sanzioni per le violazioni
Il mancato rispetto delle disposizioni del regolamento comporta multe significative, proporzionali alla gravità dell’infrazione:
- 35 milioni di euro o il 7% del fatturato globale annuo per pratiche vietate o mancata conformità ai requisiti sui dati.
- 15 milioni di euro o il 3% del fatturato globale annuo per la mancata osservanza di altri obblighi, come le norme sui modelli generali di AI.
- 7,5 milioni di euro o l’1,5% del fatturato globale annuo per informazioni false o incomplete fornite alle autorità competenti.
Il nostro percorso di compliance assessment
Per le aziende, il rispetto dell’AI Act non è solo un obbligo normativo, ma anche un’opportunità per rafforzare la fiducia dei clienti e posizionarsi come leader responsabili nel mercato. In questo contesto, AGM Solutions offre percorsi personalizzati di compliance assessment per supportare le imprese nell’allinearsi ai requisiti del regolamento.