AGM Solutions

Il lato oscuro dell’AI. Fra rischi e cyber awareness

L’intelligenza artificiale non è sempre dalla nostra parte: se da un lato apre scenari straordinari di innovazione, dall’altro può diventare un’arma nelle mani dei cybercriminali. Shadow AI, attacchi automatizzati, manipolazione dei dati: come si affrontano questi rischi? Con cultura ed etica e con difese proattive e adattive, consapevoli del fatto che la tecnologia da sola non basta e che il fattore umano è il vero punto di svolta. Ne abbiamo discusso nell’incontro organizzato a Milano in collaborazione con AIPSA e Smartfense.

di Ufficio Marketing AGM Solutions

“Non dobbiamo solo celebrare l’intelligenza artificiale, dobbiamo anche metterla in discussione, perché l’AI può generare vulnerabilità ed è quindi necessario parlare di criticità da dover affrontare e risolvere nel percorso di adozione di questa tecnologia e nella sua intersezione con la cybersecurity. Matteo Franzosi, CEO di AGM Solutions, e Alessandro Manfredini, Presidente di AIPSA, Associazione Italiana Professionisti Security Aziendale, hanno così aperto l’incontro svoltosi presso FACTORY NoLo a Milano lo scorso 25 settembre per discutere del tema “L’AI non è (ancora) la nostra migliore amica”.

Un evento per “fare sistema” tra i CISO e la community dei professionisti della cybersecurity, ha sottolineato Manfredini ricordando l’importanza (come Associazione e non solo) di investire in formazione e divulgazione, e che ha visto l’intervento di Alessandro Piva, Direttore dell’Osservatorio Artificial Intelligence del Politecnico di Milano, per mettere a fuoco i macro temi che stanno caratterizzando l’adozione dell’AI in un contesto di accelerazione del processo di trasformazione digitale delle imprese italiane. La relazione fra AI e cybersecurity, questo il messaggio condiviso con la platea, è quanto mai forte e si concretizza nell’applicazione degli strumenti algoritmici e generativi a supporto dei sistemi di difesa da una parte e dell’attività malevola degli attaccanti dall’altra. Tanti i fattori da tenere in considerazione, non ultimo l’utilizzo e l’applicazione non consapevole e non controllata di queste tecnologie in azienda, con il rischio evidente di una crescita del fenomeno dello “shadow AI”. C’è da riflettere inoltre, come ha evidenziato Piva, anche su un altro indicatore che emerge dall’Osservatorio, vale a dire la percentuale di aziende che ancora non ricorre all’AI per aumentare il livello della propria cybersecurity, che arriva al 48% e rivela un “preoccupante” snobismo da parte dei Chief Information Security Officer.

Parola agli esperti

Cultura, etica e consapevolezza degli utenti aziendali sono concetti fondamentali e sulla “keyword consapevolezza” è intervenuto Cristian Fassi, Account Manager e Sales Engineer di Smartfense, rimarcando come le azioni dei cybercriminali siano architettate per colpire il fattore umano e come la percezione di questo pericolo sia ancora troppo bassa fra i dipendenti o comunque non sufficiente per contrastare in modo efficace l’evoluzione costante delle minacce. Competenze e cultura della sicurezza sono quindi alla base della sfida per gestire al meglio l’intersezione dell’AI con la sicurezza informatica e il fattore umano rimane l’elemento centrale per educare e formare le persone in modo consapevole.

Il panel che ha visto partecipare Andrea Agosti, CISO di Assicurazioni Generali, Matteo Macina, CISO di TIM, e Arturo Di Corinto, consulente di ACN (Agenzia Cybersicurezza Nazionale) ha toccato invece tre argomenti che sono parte integrante della cybersecurity, ma che non sono sempre centrali al dibattito, ovvero sia l’omogeneità AI e il rischio di creare un ecosistema in cui tutti usano gli stessi modelli e in cui si deleghi troppo alla tecnologia, il fatto che l’intelligenza artificiale utilizzata in fase difensiva possa essere manipolata dagli strumenti di attacco e il costo nascosto della complessità dell’applicazione e della gestione dell’AI nella cybersecurity 

Dai due responsabili della sicurezza è arrivata la conferma che gli attacchi sono (e saranno) sempre più automatizzati e che gli investimenti per attrezzare gli arsenali di protezione dalle minacce debbano essere di conseguenza di livello, basati su sistemi proattivi e adattivi e non solo su barriere statiche. “I malware poliformi – ha specificato in proposito Macina – sono la vera sfida della sicurezza e mettono a dura prova anche le difese più evolute, perché si trasformano di continuo e non basta bloccarli una volta, ma serve un monitoraggio costante e intelligente”. Per contrastare la propagazione dei malware pilotati dall’AI e proteggere milioni di dati e di informazioni critiche, ha aggiunto Agosti, occorre destinare grandi risorse sulla governance dei modelli LLM, sulla cifratura dei canali di comunicazione interni, sulle certificazioni, sul blocco delle free chatboat, con il fine ultimo di mettere in completa sicurezza tutto il perimetro.

Pericoli cognitivi e sovranità dei dati

Pungenti, oltre che altrettanto stimolanti, sono le osservazioni regalate alla platea da Di Corinto, attento a ricordare come gli strumenti di intelligenza artificiale più avanzati, come quelli di tipo generativo, possano essere usati per manipolare dati e sistemi informatici al fine di produrre falsità e disinformazione e come, soprattutto, il rischio che l’AI rappresenti un pericolo cognitivo per i singoli utenti non sia in realtà ancora abbastanza esplorato. “Le intelligenze artificiali possono essere hackerate, manipolandone i dati di addestramento, rimuovendo le regole di censura e riprogrammando quelle esistenti per scopi illeciti e criminali. Le tecnologie di AI – ha aggiunto – sono un rischio emergente per la sovranità digitale in quanto il loro impiego può servire a creare nuove armi informatiche come i malware polimorfi e a individuare più facilmente le vulnerabilità sia dei sistemi umani sia di quelli software”. La sicurezza della sovranità dei dati, secondo Di Corinto, è il tema topico, quello “che oggi ci angoscia”, perché non stiamo parlando di una questione tecnica ma di un pilastro fondamentale della sicurezza collettiva. “Se i dati critici e personali scorrono liberamente al di fuori dei nostri confini giuridici – ha infatti concluso l’esperto di ACN – perdiamo controllo, trasparenza e responsabilità, e questo apre spazi alla sorveglianza estera e ad abusi normativi e vulnerabilità strategiche che mettono a rischio non soltanto la privacy dei cittadini, ma l’integrità nazionale nel suo complesso”.

Il sistema Italia un modello

L’evento ha portato infine ad altre considerazioni “non di facciata” in merito al rapporto fra AI e cybersecurity, ponendo per esempio l’accento sull’esistenza o meno di un rischio legato alla monocultura della sicurezza (e di conseguenza a una sua minore efficacia per contrastare gli attacchi), rischio che dovrebbe essere scongiurato dall’esistenza di oltre due milioni di modelli di AI generativa su scala globale. Il problema, semmai è l’uso non consapevole di questi strumenti, che impone di elevare a priorità l’awareness e la formazione sui rischi/benefici dell’AI e sul valore dei propri dati

Oggi molte progettualità si scontrano con una serie di vincoli legati al costo e al rapporto fra costi e benefici, al change management e a normative che contribuiscono a rendere la curva di adozione meno ripida. Per capire a fondo l’AI e i possibili impatti sulla cybersecurity, serve necessariamente partire dal fatto che le sue principali capacità – di scrivere codice, di produrre contenuti e di fare ricerca – sono le stesse di cui possono disporre i cybercriminali. E allora? Il messaggio che esce da questo evento è un invito a guardare avanti con responsabilità e ottimismo, perché l’Italia (come ha giustamente ricordato Di Corinto) può essere un Paese modello: abbiamo una strategia cyber, un ottimo rapporto fra PA e impresa privata, un quadro legislativo armonico e coerente, le risorse per produrre ed elaborare dati sintetici grazie a uno dei supercomputer più potenti al mondo (il riferimento è a Leonardo, il calcolatore in dotazione al Cineca che rappresenta oltre l’80% della capacità di calcolo nazionale e circa il 20% di quella europea).

La strada per affrontare il lato oscuro dell’AI è ben definito. Alle istituzioni, alle imprese, ai CISO e ai provider di tecnologia come AGM Solutions il compito di seguirla.

 A questo link il video dell’evento: https://youtu.be/6AaQXR5-fDI