AI ACT: le linee guida del nuovo regolamento sull’Intelligenza Artificiale
elisa2024-04-05T10:30:45+02:00L’Intelligenza Artificiale (AI) sta rivoluzionando numerosi settori in tutto il mondo, dall’assistenza sanitaria alla mobilità, dalla finanza alla produzione industriale mettendo a rischio sia la privacy dei dati che la sicurezza delle informazioni personali.
Per queste ragioni, si è reso necessario l’intervento del Parlamento Europeo che ha adottato il Regolamento cosiddetto AI ACT.
ll regolamento UE sull’intelligenza artificiale è stato introdotto proprio per garantire che l’adozione dell’Intelligenza Artificiale avvenga in modo responsabile, equo e conforme ai principi fondamentali di trasparenza, protezione dei diritti individuali e promozione dell’innovazione responsabile.
Le principali linee guida stabilite dall’AI ACT
I principi fondamentali inclusi nel Regolamento UE sull’intelligenza artificiale sono:
Trasparenza e responsabilità: Il decreto sottolinea l’importanza della trasparenza nei sistemi basati sull’AI, richiedendo che le decisioni automatizzate siano comprensibili e verificabili. Le organizzazioni sono tenute a rendere pubblici i criteri utilizzati dagli algoritmi per prendere decisioni rilevanti per gli individui.
Equità e non discriminazione: Un altro aspetto chiave del decreto è la promozione dell’equità e della non discriminazione nell’uso dell’AI. Le organizzazioni sono tenute a garantire che i loro sistemi non producano o perpetuino discriminazioni basate su caratteristiche protette come razza, genere o origine etnica.
Protezione dei dati e privacy: Il Decreto AI ACT include disposizioni riguardanti la protezione dei dati personali e la privacy. Le organizzazioni devono rispettare le leggi vigenti in materia di protezione dei dati, come il GDPR, e garantire che l’elaborazione dei dati avvenga in conformità con tali normative.
Sorveglianza e monitoraggio: Il decreto prevede l’istituzione di meccanismi di sorveglianza e monitoraggio per garantire il rispetto delle disposizioni normative sull’AI. Questi meccanismi sono finalizzati a identificare eventuali violazioni e ad adottare misure correttive appropriate.
Promozione dell’innovazione: Pur imponendo regole e restrizioni sull’uso dell’AI, l’AI ACT mira anche a promuovere l’innovazione e lo sviluppo tecnologico nel settore. Le organizzazioni sono incoraggiate a utilizzare l’AI in modo responsabile per migliorare i processi aziendali e offrire nuovi prodotti e servizi ai consumatori.
Ambito di applicazione
L’ambito di applicazione dell’AI ACT si riferisce alle persone, entità o organizzazioni direttamente coinvolte nell’uso, nello sviluppo o nella gestione di sistemi basati sull’Intelligenza Artificiale (AI) all’interno del contesto normativo del decreto.
Questo può includere:
- Organizzazioni e imprese: Le aziende che sviluppano, implementano o utilizzano sistemi basati sull’AI per supportare le loro attività commerciali rientrano nell’ambito di applicazione soggettivo dell’AI ACT. Queste organizzazioni sono tenute a conformarsi alle disposizioni del decreto e ad adottare pratiche responsabili nell’uso dell’AI.
- Enti governativi: Le agenzie governative e le istituzioni pubbliche che impiegano l’AI per prendere decisioni automatizzate o per migliorare i servizi pubblici sono soggette alle disposizioni dell’AI ACT. Queste entità devono rispettare i principi di trasparenza, equità e protezione dei dati nell’utilizzo dell’AI.
- Soggetti terzi e fornitori di servizi: Anche i fornitori di servizi e i soggetti terzi che forniscono tecnologie AI o assistenza nell’implementazione e nell’uso di sistemi basati sull’AI possono essere coinvolti nell’ambito di applicazione soggettivo dell’AI ACT. Questi soggetti devono collaborare con le organizzazioni principali per garantire la conformità alle normative sull’AI.
Principali obblighi
L’AI Act impone una serie di obblighi significativi ai fornitori, deployers, importatori e distributori di sistemi di intelligenza artificiale (IA) ad alto rischio.
Questi obblighi includono:
- la conformità ai requisiti tecnici specifici,
- la fornitura di informazioni essenziali sul sistema,
- l’implementazione di un sistema di gestione della qualità
- la preparazione di una dichiarazione di conformità UE.
Conclusione
In conclusione, l’AI Act stabilisce una serie di obblighi fondamentali per garantire che l’uso dei sistemi di intelligenza artificiale ad alto rischio avvenga in modo responsabile e conforme alle normative. Queste disposizioni mirano a proteggere gli individui, promuovere la trasparenza e l’equità e garantire la conformità ai requisiti tecnici e normativi. È essenziale che i fornitori, deployers, importatori e distributori di tali sistemi adottino misure adeguate per soddisfare tali obblighi e contribuire così a un utilizzo sicuro ed etico dell’IA nell’Unione Europea.