Roma, 30 gennaio 2026 - Nella seconda giornata della settima conferenza del Soft Power Club, presso l'Aula dei Gruppi parlamentari alla Camera dei Deputati, istituzioni, mondo della ricerca, imprese e società civile hanno discusso il rapporto tra soft power e intelligenza artificiale, con un’attenzione specifica a informazione, disinformazione e uso responsabile delle tecnologie.
Dialogo, regole e “valori fondanti”
Il vicepresidente della Camera Giorgio Mulè ha aperto i lavori, e inquadrato il soft power come risposta a un contesto percepito come più instabile, richiamando l’importanza di dialogo, rispetto e principi di sovranità e inviolabilità territoriale. Nella stessa direzione, l’impianto generale della giornata ha insistito su un punto: la dimensione “persuasiva” del soft power non può prescindere da regole condivise, soprattutto quando l’ecosistema informativo è influenzato da tecnologie che producono e distribuiscono contenuti su larga scala.
Il ministro della Cultura Alessandro Giuli ha collegato il tema alla diplomazia culturale e al ruolo della cultura come risorsa internazionale. Ha sostenuto che l’Italia (e, per estensione, l’Europa) disponga di un “plusvalore” culturale che può tradursi in capacità di dialogo, anche in un quadro in cui sicurezza, ricerca e tecnologia si intrecciano. Nel suo intervento è ricorso anche il tema della “cultura della difesa”: l’idea che deterrenza e cultura siano due piani distinti ma comunicanti, con la cultura chiamata a ridurre le condizioni che rendono plausibile l’uso della forza.
Disinformazione, deepfake e “guerra ibrida”
Federico Mollicone, presidente della Commissione Cultura della Camera, ha letto un intervento centrato sulla disinformazione come fattore di instabilità e sulla definizione di “guerra ibrida”. Ha richiamato un precedente storico (Lorenzo Valla e la “Donazione di Costantino”) per sostenere che la manipolazione documentale non è un fenomeno nuovo, mentre nuova è la scala tecnologica che rende più facile produrre e diffondere contenuti falsi.
Nel suo intervento sono stati citati rischi legati ai deepfake e alla scarsa conoscenza del fenomeno, insieme a misure nazionali di contrasto (in particolare nel campo della pirateria digitale). La linea argomentativa è stata quella di una risposta integrata: sicurezza, tecnologia e cultura come elementi che “procedono insieme”.
Il presidente della Camera Lorenzo Fontana, in un messaggio letto in sala, ha sottolineato che l’IA è un asset strategico con ricadute geopolitiche, e che un utilizzo consapevole richiede trasparenza informativa e contrasto alla propaganda basata su notizie false.
Industria e applicazioni: sanità, acqua, città, sicurezza
Francesco Rutelli, fondatore e presidente del Soft Power Club, ha presentato i lavori come un tentativo di “aggiornare” il concetto di soft power (reputazione, persuasione, capacità di rendere efficace il multilateralismo) nel contesto dell’IA.
Alberto Tripi (Almaviva) ha proposto una lettura pragmatica: l’IA come “intelligenza aumentata” e non come sostituzione dell’umano, con esempi di applicazione in sanità, gestione delle reti idriche e progetti di riduzione dell’inquinamento urbano. Ha anche richiamato un punto ricorrente della giornata: la vulnerabilità di infrastrutture e sistemi di sicurezza in scenari di accelerazione tecnologica, e la necessità di soluzioni che includano protezione e resilienza.
Energia e IA: la “corsa” passa dall’elettricità
In un intervento registrato, Fatih Birol (Agenzia Internazionale dell’Energia) ha posto il tema della sicurezza energetica come componente crescente della sicurezza nazionale. Ha collegato l’IA alla domanda di elettricità (soprattutto per data center), sostenendo che disponibilità, costo e tempi di realizzazione della generazione elettrica influenzeranno la posizione dei Paesi nella competizione sull’IA. Ha sintetizzato tre “regole d’oro” per la sicurezza energetica: diversificazione delle fonti e delle rotte, prevedibilità normativa per attrarre investimenti e partenariati affidabili.
Territorio, satelliti e sovranità: il “catasto” come infrastruttura critica
Giulio Boccaletti (Centro Euromediterraneo sui Cambiamenti Climatici) ha insistito su una trasformazione meno visibile nel dibattito pubblico: l’osservazione del territorio tramite satelliti (in particolare radar) e l’uso di tecniche di apprendimento automatico per interpretare dati e immagini “pixel per pixel”. Questo, nella sua impostazione, rende possibile associare luoghi, funzioni e responsabilità, con ricadute sulla gestione di rischi idrogeologici e sulla pianificazione.
Il punto critico, secondo Boccaletti, è di governance: una parte crescente di questa infrastruttura (satelliti, lancio, cloud e capacità computazionale) è privata e concentrata, con effetti diretti sulla sovranità informativa. Il tema è stato formulato in modo netto: se una parte rilevante dei dati e delle piattaforme si spegne o diventa inaccessibile, alcune capacità di monitoraggio si riducono drasticamente.
Regole europee e “trappola del verosimile”
Massimo Sterpi (Gianni & Origoni) ha collegato IA generativa e rischio manipolativo alla capacità di produrre comunicazioni personalizzate e, in prospettiva, individualizzate (microtargeting). Ha rivendicato la funzione delle norme europee (AI Act e GDPR) come presidi: divieti o limiti alle pratiche manipolative, obblighi di trasparenza per i contenuti sintetici e restrizioni alla profilazione. Nel suo intervento è stato richiamato anche il problema delle risposte “verosimili” ma non necessariamente vere: testi plausibili, formalmente corretti, che possono indurre fiducia indebita e ridurre la verifica critica.
Clima e informazione: il caso dei Paesi vulnerabili
Fatou Geng, attivista ambientale e fondatrice di Clean Earth Gambia, ha descritto la disinformazione climatica come un problema concreto per comunità esposte (anche in Paesi piccoli), dove i social media diventano una fonte primaria di contenuti contraddittori. Nel suo contributo, l’IA è stata presentata come strumento ambivalente: utile per educazione e azione climatica, ma anche capace di amplificare contenuti fuorvianti e sfiducia.
Imprese europee: utilità, sovranità, competenze
Valeria Sandei (Almawave) ha sostenuto che la regolazione europea possa funzionare come “framework” e non solo come vincolo, a condizione di essere tradotta in scelte operative. Il suo intervento si è concentrato su due tesi: l’adozione dell’IA non è automatica (serve integrazione con processi e misurazione dei risultati) e la “sovranità” non coincide con isolamento, ma con equilibrio. In particolare, ha collegato sovranità a competenze e capacità industriale: senza filiere che sviluppano tecnologie, il valore e le professionalità migrano verso chi produce.
Marco Lombardi (Proger) ha trasferito il ragionamento sul piano ingegneristico, usando l’adattamento ai nuovi rischi (eventi estremi, infrastrutture progettate su presupposti non più validi) come cornice. Ha descritto l’IA come potente assistente nel trattamento dati e nella previsione, ma priva di discernimento tra vero e falso; da qui l’accento sul mantenimento dello spirito critico e su nuove figure interne (governo della trasformazione, non solo acquisto di strumenti).
Alessandra Santacroce (IBM) ha richiamato il ruolo delle multinazionali in investimenti, occupazione qualificata e trasferimento di competenze, sostenendo che la responsabilità d’impresa passi da principi come trasparenza, spiegabilità, inclusione e formazione. Ha citato collaborazioni con attori italiani e iniziative internazionali di confronto su regole e governance.
Agentic AI, lock-in e concorrenza
Barbara Carfagna ha portato esempi legati alla ricostruzione post-bellica e all’uso di agentic AI in processi decisionali complessi (pianificazione, appalti, servizi). Nel suo schema, la disponibilità di dati e modelli addestrati può generare dipendenze di lungo periodo: chi fornisce il sistema non fornisce solo “strumenti”, ma può condizionare scelte e standard futuri.
Antonio Nicita (LUMSA) ha collegato l’agentic AI a un problema economico classico: l’aumento dei costi di uscita (lock-in). Se l’agente conosce preferenze e comportamenti dell’utente, cambiare fornitore diventa più oneroso, con ricadute su concorrenza e potere di mercato. Nicita ha anche richiamato la questione linguistica: modelli nativi in una lingua e traduzioni in altre, con effetti culturali e di accesso. Sul copyright ha proposto una distinzione implicita tra tutela del prodotto e barriere all’addestramento che potrebbero ostacolare la capacità di sviluppare nuovi modelli.
Etica, dati e responsabilità organizzativa
Monsignor Vincenzo Paglia ha contestato l’uso del termine “intelligenza” per la macchina, sostenendo che la tecnologia riproduca solo una componente limitata delle facoltà umane e che il rischio principale sia l’uso irresponsabile da parte delle persone. Nel suo intervento ha posto al centro il tema del potere associato al controllo dei dati e la necessità di accordi internazionali sulle tecnologie emergenti, in analogia (per struttura, non per contenuto) a intese su nucleare e clima.
Barbara Quacquarelli (Università Milano-Bicocca) ha tradotto la questione in termini organizzativi: la fiducia non “accade”, va progettata. In particolare: chi decide, con quali criteri, con quale legittimità e con quale responsabilità, quando un sistema produce opzioni e raccomandazioni. Il rischio, nel suo schema, è l’opacità (“ha deciso il sistema”) e la dispersione della responsabilità. Da qui l’invito a usare l’IA non solo per velocizzare, ma per migliorare la qualità delle decisioni e la loro spiegabilità per cittadini e utenti.
Patrimonio culturale e trasformazione digitale
Snezka Mihajlovic (Europa Nostra) ha discusso opportunità e rischi dell’IA per il patrimonio culturale europeo, con un’attenzione alla tutela della diversità, dei diritti dei creatori e al rapporto tra ricostruzione fisica e ricostruzione della storia. Ha sostenuto che l’innovazione debba essere “guidata dalla cultura”, richiamando anche l’importanza del patrimonio intangibile (valori, identità, pluralismo).
IA e guerra: controllo umano e negoziato
Fabrizio Battistelli (Archivio Disarmo) ha riportato la discussione sul controllo degli armamenti: l’IA è già usata come supporto alle decisioni in ambito militare, e la priorità è preservare responsabilità e controllo umano significativo, soprattutto quando le decisioni incidono su vita e morte. Ha citato il lavoro in corso in sede ONU su sistemi d’arma e nuove tecnologie, proponendo una linea di regolazione pragmatica: vietare applicazioni inaccettabili, mantenere responsabilità chiare nelle altre, e sostenere un quadro negoziale tra i principali attori globali.
Informazione, fiducia e consumo di notizie
È stato trasmesso un contributo della direttrice del Reuters Institute for the Study of Journalism (Università di Oxford), basato sul Digital News Report: spostamento dei consumi dai media tradizionali all’online, crescita dell’uso dei social come canale di accesso alle notizie, preferenza dei più giovani per formati video e audio, e aumento dell’“evitamento” delle notizie per sovraccarico informativo. Per l’Italia è stato richiamato un livello di fiducia nelle notizie pari al 36% e un basso tasso di pagamento per contenuti informativi, con l’indicazione che la sfida centrale resta ricostruire fiducia e rilevanza del giornalismo.
Nel saluto finale, il consigliere diplomatico del Presidente della Repubblica Fabio Cassese ha sintetizzato i temi ricorrenti della giornata attorno a due parole: responsabilità e controllo umano nei processi decisionali, in un quadro in cui l’accelerazione tecnologica tende a precedere la capacità di governo pubblico e privato.
