Copia/incolla disponibile con abbonamento Enterprise

Approfondimenti

Comprendere e governare la sicurezza dell’intelligenza artificiale in Italia

Nella Sala della Regina di Palazzo Montecitorio si è svolto l’evento “Comprendere e governare la sicurezza dell’intelligenza artificiale in Italia”, promosso dal Segretario di Presidenza della Camera dei Deputati e presidente dell’Intergruppo parlamentare sulla Sicurezza informatica e tecnologica, On. Alessandro Colucci, e patrocinato dalla Camera dei Deputati. L’incontro ha riunito istituzioni, forze dell’ordine, mondo accademico e grandi realtà pubbliche e private per affrontare uno dei temi più urgenti della trasformazione digitale: la necessità di accompagnare la diffusione dell’intelligenza artificiale con strumenti adeguati di sicurezza, controllo e governance.

Ad aprire i lavori è stato Alessandro Colucci, segretario di Presidenza della Camera dei Deputati e presidente dell’intergruppo parlamentare sulla sicurezza informatica e tecnologica, il quale ha sottolineato il valore simbolico del luogo scelto per l’incontro. La Sala della Regina, ha ricordato, è uno degli spazi più rappresentativi di Montecitorio e della vita democratica italiana.

Una tecnologia già entrata nel presente

Nel suo intervento introduttivo, Colucci ha chiarito il punto politico e istituzionale dell’intera giornata: oggi non si parla di una tecnologia “in arrivo”, ma di una tecnologia già presente, già operativa e già capace di condizionare processi essenziali. L’intelligenza artificiale, ha spiegato, è ormai parte dei sistemi che regolano infrastrutture, servizi pubblici, attività economiche e decisioni che riguardano i cittadini. Proprio per questo, secondo il presidente dell’intergruppo parlamentare, non può essere affrontata come una materia tecnica confinata agli addetti ai lavori. La sicurezza dell’AI investe direttamente la tenuta dello Stato, la capacità della pubblica amministrazione di funzionare, la protezione dei dati, la continuità dei servizi essenziali e la competitività del sistema produttivo.

“L’intelligenza artificiale non è più una promessa del futuro, è già parte del presente”, ha affermato Colucci, da qui la domanda che ha attraversato gli interventi successivi: il Paese è pronto a governarla in modo sicuro? Secondo Colucci, la risposta richiede un lavoro articolato su tre livelli. Il primo è la consapevolezza: il Parlamento deve comprendere a fondo le trasformazioni in corso e non limitarsi a legiferare su ciò che è già avvenuto. Il secondo è la regolamentazione: il quadro europeo offerto dall’AI Act rappresenta un punto di partenza avanzato, ma non sufficiente da solo. Il terzo è la cooperazione: la sicurezza dell’intelligenza artificiale non può essere affidata esclusivamente al settore pubblico né al solo mercato, ma richiede una collaborazione stabile tra istituzioni, imprese, ricerca e operatori della sicurezza.

Dati, ritardi e bisogno di governance

Molte organizzazioni, pubbliche e private, adottano già sistemi di intelligenza artificiale senza aver prima valutato con sufficiente rigore i rischi di sicurezza. Solo una quota ridotta dispone di un framework di governance adeguato, mentre una parte consistente di chi ha già introdotto questi strumenti ha sperimentato problemi legati a violazioni di dati, incidenti di sicurezza e perdita di informazioni sensibili. Parallelamente, ha osservato, anche chi attacca utilizza l’intelligenza artificiale per rendere le offensive più rapide, più precise e più difficili da individuare.

Da questo punto di vista, il messaggio lanciato dalla politica è stato chiaro: non è più possibile affrontare il tema in ritardo. La sicurezza deve entrare nella progettazione e nella gestione dell’AI fin dall’inizio. Pertanto, Colucci ha insistito sull’approccio human in the loop, indicandolo come un elemento centrale della gestione responsabile dei sistemi di intelligenza artificiale. La supervisione umana non è stata descritta come un semplice presidio formale, al contrario, è stata presentata come parte attiva del processo decisionale automatizzato, attraverso funzioni di validazione, correzione, interpretazione e contestualizzazione. L’idea di fondo emersa è quella di un sistema ibrido, in cui la velocità e la capacità di elaborazione della tecnologia si integrano con il giudizio critico umano.

Da questo impianto politico e istituzionale è nato il passaggio verso il progetto AI Sicura, l’iniziativa è stata presentata come una risposta concreta a una lacuna oggi evidente: l’Italia non dispone ancora di una fotografia sistemica, attendibile e condivisa del livello di maturità delle proprie organizzazioni sul fronte della sicurezza dell’intelligenza artificiale.

A spiegare il senso dell’iniziativa è stato, tra gli altri, Marco Proietti, presidente della Cyber Security Foundation, il quale ha ricostruito il percorso della fondazione e il quadro nel quale si inserisce il nuovo progetto. La Cyber Security Foundation è nata come fondazione indipendente no profit con l’obiettivo di diffondere cultura della sicurezza digitale in Italia, lavorando su più piani: dalla formazione specialistica ai programmi nelle scuole, dai percorsi inclusivi rivolti a persone con disabilità ai progetti negli istituti di detenzione minorile, fino alle attività di ricerca e ai rapporti sullo stato dell’esposizione del Paese alle minacce digitali.

In questo contesto, AI Sicura è stata presentata come uno strumento capace di colmare un vuoto conoscitivo. Secondo Proietti, oggi non si sa con precisione quali settori siano più esposti, dove si concentrino i gap più critici, dove invece esistano già buone pratiche replicabili. Senza una base di dati condivisa, è stato osservato, ogni organizzazione rischia di muoversi da sola, spesso senza percepire con esattezza il proprio livello di vulnerabilità. La piattaforma sviluppata dalla fondazione consentirà alle organizzazioni di autovalutarsi, confrontarsi con benchmark di settore e ricevere indicazioni operative prioritarie. In questo senso, l’iniziativa non è stata descritta come l’ennesimo report teorico, ma come un dispositivo di lavoro, pensato per restituire informazioni utili sia a chi governa sia a chi opera ogni giorno in prima linea nella protezione dei sistemi.

Proietti ha insistito sul fatto che la sicurezza digitale non possa più essere considerata una materia esclusivamente tecnica. Ogni attacco informatico che colpisce una pubblica amministrazione, ha osservato, non danneggia soltanto server o infrastrutture, ma colpisce cittadini, fiducia istituzionale e continuità dei servizi. Da qui l’idea di un lavoro che tenga insieme formazione, ricerca, sensibilizzazione, partenariati e produzione di strumenti operativi.

Il contributo del Governo

Il sottosegretario Alessio Butti, ha riportato il tema sul piano della strategia nazionale; nel suo intervento ha definito la sicurezza una delle sfide più complesse e affascinanti della fase tecnologica attuale, aggiungendo che parlare di intelligenza artificiale sicura non significa scegliere tra accelerazione e prudenza. La formula usata è stata molto chiara: “Senza sicurezza non può esserci nemmeno velocità”.

Butti ha spiegato che l’entusiasmo verso le nuove tecnologie tende spesso a produrre un’adozione rapida delle soluzioni disponibili, ma questo slancio rischia di trasformarsi in dipendenza e in vulnerabilità sistemica. Da qui la necessità di domandarsi non solo se un modello AI funzioni, ma se funzioni in modo sicuro, trasparente e affidabile anche sotto pressione. Il sottosegretario ha richiamato la legge 132/2025 come passaggio rilevante nella costruzione di una disciplina nazionale coerente con il regolamento europeo e ha ricordato il lavoro in corso con AgID e ACN per monitorare adozione e impiego dei nuovi modelli. L’Italia ha avuto un ruolo nel contesto europeo affinché l’AI Act non si limitasse a codici di condotta affidati alle Big Tech ma includesse un sistema di norme e sanzioni gestito dalle istituzioni dell’Unione. 

Sulla stessa linea si è collocato anche il contributo video dell’onorevole Salvatore Deidda, presidente della Commissione Trasporti, Poste e Telecomunicazioni, il quale ha richiamato la necessità di affrontare il tema della sovranità digitale e di accompagnare l’evoluzione normativa europea senza introdurre misure che possano penalizzare le imprese italiane ed europee.

Il ruolo della ricerca e della metodologia

A entrare nel merito del progetto è stato poi Fabio Battelli, responsabile di AI Sicura, che ha spiegato struttura, obiettivi e metodo dell’iniziativa. Battelli ha insistito sul fatto che l’AI si sia diffusa con una velocità enorme, mentre la sicurezza non ha seguito lo stesso ritmo. A suo giudizio, è proprio questa sproporzione a rendere urgente uno strumento capace di orientare organizzazioni e decisori.

Il progetto si fonda su un framework multidisciplinare che tiene insieme dimensione tecnica, organizzativa, normativa e operativa. Attraverso un questionario sintetico, composto da venti domande, le organizzazioni potranno ottenere uno score di maturità e ricevere raccomandazioni aggiornabili nel tempo. Il punto chiave non è solo misurare, ma permettere il confronto con il proprio settore di riferimento e offrire indicazioni concrete su come intervenire. La raccolta dei dati porterà poi alla pubblicazione di un rapporto nazionale sullo stato della sicurezza dell’AI in Italia, ma la piattaforma continuerà a vivere come strumento dinamico.

Battelli ha chiarito che la sicurezza dell’intelligenza artificiale va osservata da due prospettive. Da un lato, i rischi introdotti dall’AI stessa: manipolazione dei sistemi, inquinamento dei dati, diffusione impropria di informazioni, autonomia crescente dei modelli agentici. Dall’altro lato, le opportunità che l’AI può offrire alla difesa, soprattutto in contesti come la cyber security, dove l’analisi di enormi quantità di dati rende questi strumenti particolarmente efficaci. Il progetto nasce proprio in questo spazio, come tentativo di dare ordine a un panorama in rapido mutamento.

Giovanna Capilli, avvocata e docente di diritto privato, ha affrontato il nodo della responsabilità giuridica nell’uso dei sistemi di intelligenza artificiale. Il quadro che ha tracciato è quello di una trasformazione profonda della tradizione giuridica: se normalmente il danno viene ricondotto a un soggetto individuabile, con l’AI questo schema si complica perché l’azione può dipendere da una catena di soggetti che progettano, addestrano, certificano, immettono sul mercato e utilizzano il sistema.

Secondo Capilli, la sicurezza non è più una questione tecnica ma una categoria giuridica centrale. La responsabilità, in questo ambito, tende a spostarsi da reazione al danno a dovere di prevenzione. L’AI Act europeo ha già introdotto obblighi stringenti in materia di valutazione del rischio, qualità dei dati e supervisione umana, ma sotto il profilo dell’imputazione della responsabilità e della prova, il quadro attuale non offre ancora risposte pienamente certe. Si apre così una fase nella quale le categorie tradizionali del diritto devono essere adattate alla complessità dell’intelligenza artificiale, con soluzioni progressivamente calibrate sui diversi domini applicativi: sanità, finanza, lavoro, pubblica amministrazione, consumo.

Le forze dell’ordine e la necessità di essere proattivi

Un altro filone emerso con forza è stato quello della sicurezza pubblica e dell’attività investigativa. Il generale Paolo Aceto, capo del Terzo Reparto del Comando Generale dell’Arma dei Carabinieri, ha spiegato come il contesto geopolitico e criminale imponga alle forze di polizia di superare una logica soltanto reattiva. In uno scenario segnato da minacce ibride, conflittualità asimmetriche e crescente estensione della dimensione cyber, l’Arma sta lavorando per integrare l’AI nelle attività di digital forensics, cyber investigation, comando e controllo, logistica e gestione operativa.

Il presidio del territorio, che da sempre caratterizza i Carabinieri, non viene meno con la digitalizzazione. Al contrario, si estende a una “prossimità digitale” che accompagna quella fisica. Anche qui è tornato con forza il tema della supervisione umana, dell’etica, della sovranità del dato e del rifiuto di affidarsi in modo cieco a singoli fornitori o a soluzioni chiuse. L’obiettivo descritto è quello di costruire una sorta di AI Factory interna all’istituzione, capace di offrire servizi intelligenti e sicuri mantenendo però il controllo sui dati più sensibili.

In chiusura di giornata è intervenuto anche Ivano Gabrielli, direttore del Servizio Polizia Postale e per la Sicurezza Cibernetica, che ha descritto un contesto investigativo in cui il cybercrime utilizza già in modo evoluto deepfake, automazione, phishing avanzato e strumenti AI-powered. Gabrielli ha parlato di una vera industrializzazione dell’offerta criminale, con strutture in grado di produrre malware, sistemi di frode e campagne malevole su larga scala. Da qui la necessità, per le forze di law enforcement, di dotarsi a loro volta di strumenti basati sull’intelligenza artificiale per analizzare contenuti audio-video, individuare precocemente attacchi e accelerare attività investigative complesse.

Le esperienze di imprese e amministrazioni

Gli interventi di Poste Italiane, Sogei, Ferrovie dello Stato, ATM, Lazio Crea e del Ministero del Lavoro hanno messo in luce diversi aspetti di questa trasformazione. Da un lato, l’AI è già utilizzata per migliorare analisi, difesa, monitoraggio, gestione delle vulnerabilità, automazione dei processi e interazione con i cittadini. Dall’altro, cresce la consapevolezza che non esiste innovazione utile senza servizi sicuri.

Sogei ha trattato il tema della valorizzazione dei patrimoni informativi strategici, come quelli legati alla fiscalità e alla sanità, da trattare dentro infrastrutture controllate e secondo rigorosi criteri di protezione. Dal fronte dei trasporti, il dibattito ha mostrato quanto la diffusione di modelli intelligenti in reti sempre più automatizzate imponga una riflessione profonda su responsabilità, continuità operativa e dipendenza tecnologica. Nel caso delle amministrazioni regionali e del Ministero del Lavoro, è emerso invece il tema della governance multilivello: non basta inserire AI nei sistemi esistenti, serve un presidio che unisca sicurezza, privacy, etica, trasparenza e controllo umano, soprattutto quando si trattano dati sensibili e servizi rivolti a milioni di cittadini.

Molto significativo, in questo senso, è stato il richiamo del Ministero del Lavoro all’idea di una “etica by design”, accanto ai paradigmi già noti di security by design e privacy by design. L’intelligenza artificiale, è stato osservato, non deve soltanto funzionare e proteggere i dati, ma anche produrre risultati trasparenti, comprensibili e non discriminatori, soprattutto in ambiti come il lavoro, il welfare e le politiche di inclusione.

Accanto alla dimensione normativa e tecnica, la giornata ha dedicato ampio spazio anche al tema delle competenze. Da più interventi è emersa la convinzione che l’Italia non possa affrontare la sicurezza dell’intelligenza artificiale senza investire in formazione diffusa, capacità manageriale e cultura organizzativa.

Il contributo dell’università e del management

In questa direzione si è mosso l’intervento di Mattia Siciliano della Luiss Business School, il quale ha spiegato come l’università stia lavorando per integrare AI e cyber security sia nella ricerca sia nella formazione di studenti, manager e consigli di amministrazione. L’obiettivo, ha affermato, è creare competenze che non si limitino all’uso dello strumento ma comprendano i suoi impatti sui processi aziendali, sui modelli di governance e sulle responsabilità connesse.

L’attenzione alla formazione è apparsa come uno dei punti di convergenza più forti dell’intero evento. Non solo specialisti di sicurezza, ma anche dirigenti pubblici, membri dei board, operatori del diritto, responsabili di processo e studenti sono stati indicati come soggetti che dovranno acquisire nuove chiavi di lettura. Il nodo, in sostanza, non è più decidere se usare l’intelligenza artificiale, ma imparare a farlo con consapevolezza e con strumenti adeguati.

Un’agenda comune per la sicurezza dell’AI in Italia

L’Italia dispone di competenze, istituzioni, capacità industriali e scientifiche per affrontare la trasformazione in atto, ma deve mettere la sicurezza dell’intelligenza artificiale al centro della propria agenda. Non come freno all’innovazione, ma come condizione che rende l’innovazione affidabile, sostenibile e utile al Paese.

Servono cooperazione pubblico-privato, misurazione del livello di maturità delle organizzazioni, regole chiare, capacità di attuazione, controllo umano, tutela dei dati, formazione e visione strategica. In questo quadro, AI Sicura è stata presentata come un primo passo concreto per trasformare un tema spesso affrontato in modo astratto in un percorso operativo, misurabile e condiviso.

Il confronto non è stato presentato come un punto di arrivo, ma come l’avvio di un lavoro comune. Ed è forse questo il dato più rilevante emerso dall’evento: la sicurezza dell’intelligenza artificiale in Italia non può essere costruita da un solo attore. Va progettata, verificata e rafforzata insieme, nella consapevolezza che dalla qualità di questo lavoro dipenderanno non solo la tenuta dei sistemi digitali, ma anche la fiducia dei cittadini, l’efficacia delle istituzioni e la capacità del Paese di affrontare da protagonista la prossima fase dell’innovazione.

Take the Date è un prodotto di Nomos

Take the Date è il portale che promuove gli eventi istituzionali e pubblici di rilievo che si tengono ogni giorno in Italia. Nato da un progetto di Nomos Centro Studi Parlamentari azienda leader nel settore delle relazioni istituzionali.

Nomos

Iscriviti a Take The Date

Free

Per Sempre

Gratis

  • Consultazione di tutti gli eventi
  • Iscrizione alla newsletter generica, che verrà inviata con cadenza settimanale 
  • Inserimento gratuito dei tuoi eventi
  • Sponsorizzazione dei tuoi eventi (si applicano costi e condizioni)

Professional

€ 200/anno+IVA

€150/anno+IVA fino al 14/4/26

  • Consultazione di tutti gli eventi
  • Iscrizione alla newsletter generica, che verrà inviata con cadenza settimanale 
  • Iscrizione a 2 newsletter tematiche 
  • Inserimento gratuito dei tuoi eventi
  • Sponsorizzazione dei tuoi eventi con uno sconto del 10%
  • Accesso all’archivio storico degli eventi
  • Accesso all’agenda istituzionale 

Enterprise

€ 300/anno+IVA

€250/anno+IVA fino al 14/4/26

  • Consultazione di tutti gli eventi
  • Iscrizione alla newsletter generica, che verrà inviata con cadenza settimanale  
  • Iscrizione a tutte le newsletter tematiche
  • Inserimento gratuito dei tuoi eventi
  • Sponsorizzazione dei tuoi eventi con uno sconto del 20%
  • Accesso all’archivio storico degli eventi
  • Accesso all’agenda istituzionale
  • Area riservata con calendario interno, archivio e alert personalizzati
  • Copia/Incolla abilitato
  •  

Nato da un’iniziativa di Nomos Centro Studi Parlamentari - società di consulenza specializzata in public affairs, advocacy, lobbying e monitoraggio istituzionale e comunicazione - Take The Date è il primo portale che promuove tutti gli eventi di rilievo istituzionale e pubblico, che si tengono ogni giorno in Italia.

SOCIAL