
STORIE DI


ECCELLENZA E INNOVAZIONE NUMERO 70 | DICEMBRE 2025

ITALIA DIGITALE
La spesa Ict delle aziende cresce più del PIL, con il traino dei servizi. E con alcune incognite.
![]()



ECCELLENZA E INNOVAZIONE NUMERO 70 | DICEMBRE 2025

La spesa Ict delle aziende cresce più del PIL, con il traino dei servizi. E con alcune incognite.
Nuovi rischi da gestire, nuovi obblighi, nuove opportunità da cogliere: così sta cambiando il lavoro dei Chief Information Security Officer
Marketing e servizi finanziari sono ambiti di adozione maturi. Molte le promesse ancora da realizzare.
Il Sistema Sanitario Nazionale procede nella trasformazione digitale, ma a doppia velocità.
26-27 marzo 2026
GRAND HOTEL DINO | BAVENO (VB)



STORIE DI ECCELLENZA E INNOVAZIONE
N° 70 - DICEMBRE 2025
Periodico mensile registrato
presso il Tribunale di Milano al n° 378 del 09/10/2012
Direttore responsabile:
Emilio Mango
Coordinamento:
Valentina Bernocco
Hanno collaborato:
Camilla Bellini, Roberto Bonino, Giancarlo Calzetta, Gianluca Dotti, RJ Geukes Foppen, Vincenzo Gioia, Francesco Megna, Elena Vaciago, Sammy Zoghlami
Foto e illustrazioni: Freepik, Adobe Stock, Shutterstock
Editore e redazione:
Indigo Communication Srl
Via Ettore Romagnoli, 6 - 20146 Milano tel: 02 499881
Pubblicità:
TIG - The Innovation Group Srl tel: 02 87285500
Stampa: Ciscra SpA - Arcore (MB)
© Copyright 2024
The Innovation Group Srl
Tutti i diritti di proprietà letteraria e artistica riservati.
Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto.
Pubblicazione ceduta gratuitamente.
Professione sicurezza: un mestiere difficile e necessario
Un nuovo orizzonte per la cyber resilienza
Oltre il ruolo tecnico del Ciso
La cybersecurity è un gioco di squadra
Il delicato equilibrio tra rischi e opportunità
Percorsi inusuali di sovranità digitale
L’unione potente tra gemelli digitali, visori e AI
Il valore nasce nel data fabric
Net zero: una sfida impossibile da ignorare
Tante minacce, una piattaforma unica per la difesa
Una data platform indipendente per andare dove si vuole
Pagamenti elettronici, scatta l’ora delle nuove regole
Agentic AI, le Pmi italiane non perdono tempo
Software, la trasparenza del codice è libertà
La videosorveglianza al servizio della società
Una questione di fiducia (e di curiosità)
Investimenti Ict, la corsa non rallenta
Una trasformazione guidata dal valore
Agenti AI per il marketing, fra attese e delusioni
Identikit della banca del futuro
Sanità italiana: si accelera, ma serve una visione
Il potere dell’AI, dalla radiologia al monitoraggio dei pazienti
Trasparenza e fiducia sono il miglior farmaco
Sisal
Università di Palermo
Salvi Vivai
Aeroporti di Roma

I budget in crescita non bastano a risolvere le molte sfide dei chief information security officer, in uno scenario del rischio sempre più critico.
Il mestiere della cybersicurezza è sempre più difficile, e non c’è tecnologia evolutissima che permetta a chi lo porta avanti di dormire sonni tranquilli e nemmeno di abbassare la guardia. Possiamo chiamarlo chief information security officer (Ciso) o responsabile della sicurezza informatica, o con altre formule dal significato analogo: in ogni caso, è una figura di sempre maggiore importanza nelle aziende. I motivi sono sotto agli occhi di tutti: da un lato c’è la continua crescita quantitativa e qualitativa degli attacchi, che sfruttano automazioni e intelligenza artificiale per
colpire meglio, su larga scala e con minore fatica; dall’altro ci sono gli obblighi di conformità alle normative sulla protezione dei dati e sulla cyber resilienza, come il Gdpr e la direttiva NIS2.
Uno scenario ostico
Per farsi un’idea sullo scenario delle minacce informatiche, nell’ultimo report di Clusit leggiamo che nel mondo gli attacchi e incidenti cyber di medio, grave o gravissimo impatto crescono del 36%, semestre su semestre. Sono, infatti, 2.755 gli episodi mappati nella prima metà del 2025 dall’Associazione Italiana per la Si-
curezza Informatica, considerando solo quelli di gravità media, elevata o critica, resi pubblici da fonti di stampa, agenzie o dai diretti interessati (il report non include, quindi, l’universo sommerso degli attacchi che non vengono comunicati all’esterno). Merita attenzione un altro fatto: cresce non solo il numero, ma anche la capacità di fare danni, ovvero l’82% dei casi mappati nel semestre ha avuto un impatto “critico” (29%) o “elevato” (53%). Restringendo il campo di osser vazione, notiamo che i 280 casi registrati in Italia nella prima metà dell’anno rappresentano un rialzo del 13% semestre su semestre. Siamo sotto alla media mondiale del 36%, ma d’altro canto fa effetto che un Paese piccolo come il nostro attiri il 10,2% degli incidenti di una certa gravità registrati nel mondo. Questo

potrebbe dipendere dalla concentrazione di imprese e target “interessanti” per gli attaccanti, ma va anche considerato che gli obblighi di disclosure non sono gli stessi in tutte le geografie. In ogni caso, nella sua analisi Clusit colloca l’Italia “tra le nazioni che più risultano incapaci di contenere gli attacchi”. Illuminante, per capire l’attuale scenario delle minacce, è l’ultimo “Data Breach Investigations Report” di Verizon, basato sull’analisi di oltre 22mila incidenti di sicurezza (12mila dei quali sono casi di violazioni di dati) ai danni di aziende. Un primo dato è già qui: mai, in 18 edizioni del suo report annuale, Verizon aveva rilevato un numero così alto di episodi. Sul totale delle violazioni (con o senza fughe di dati), il vettore di accesso iniziale più frequente è l’abuso di credenziali legittime, nel 22% dei casi; seguono lo sfruttamento di vulnerabilità, nel 20%, e il phishing, 16%. Il ransomware entra in gioco, in un certo punto della catena d’attacco, nel 44% dei casi (dato in crescita dal 32% della precedente edizione del report), per paralizzare le attività dei sistemi target con la crittografia o con altri metodi. Un fenomeno in chiara espansione sono i cosiddetti attacchi di supply chain, ovvero azioni offensive che coinvolgono o fanno leva su terze parti, diverse dal target finale: tipicamente, fornitori di servizi o di software. Da un anno all’altro i casi rilevati da Verizon sono raddoppiati, passando dal 15% al 30%. Anche nell’annuale studio di Enisa, l’Agenzia dell’Unione Europea per la Cybersicurezza, si legge che “il ransomware resta la minaccia di maggiore impatto”, nonostante un calo dell’11% nell’incidenza percentuale tra un anno e l’altro.
L’AI da tre punti di vista
Sugli utilizzi malevoli dell’intelligenza artificiale si potrebbero citare numerosi studi, ma il “Digital Defense Report
2025” di Microsoft (basato sull’analisi di oltre 100mila miliardi di segnali di cybersicurezza quotidiani, raccolti da dispositivi, software e servizi cloud) ben riassume quanto osservato anche da altri vendor e analisti: l’AI è allo stesso tempo un’arma in mano agli attaccanti e un potente strumento di difesa, nonché un possibile target. Gli avversari la sfruttano per numerose attività, tra cui l’ingegneria sociale su larga scala, l’automazione di particolari fasi d’attacco (come il cosiddetto “movimento laterale” all’interno di un ambiente informatico), la creazione e diffusione di campagne di phishing e di deepfake. Esistono malware automatizzati e anche agenti AI malevoli che possono adattarsi al contesto e modificare sé stessi per sfuggire ai rilevamenti. L’intelligenza artificiale al servizio dei “buoni”, invece, è schierata in tutte le fasi della difesa, dal rilevamento delle minacce alle azioni di risposta. Nel rilevamento, è il machine learning che aiuta a velocizzare enormemente l’elaborazione dei dati, a scremare tra falsi positivi ed eventi degni di nota, a riconoscere le minacce (anche quelle sconosciute) sulla base dei comportamenti anomalie, a inviare alert automatici al personale. Nella risposta, è l’automazione che applica istantaneamente azioni correttive, a velocità di macchina, che blocca dispositivi o utenze per limitare i danni. Nell’indagine forense, è l’algoritmo che trova correlazioni invisibili all’occhio umano, è il chatbot che fornisce risposte. Ma c’è un terzo risvolto nella relazione tra intelligenza artificiale nella cybersicurezza: il rischio che un Large Language Model, un’applicazione di AI generativa o, ancor peggio, un agente AI diventino un bersaglio di attacchi di data poisoning o esecuzione di prompt malevoli. Non si tratta solo di possibilità teoriche o di casi isolati, e basti guardare all’ultimo studio di Cisco della serie “Cybersecurity Readiness”, uscito lo scorso novembre: sul
totale degli intervistati (ottomila professionisti, tra manager e responsabili della sicurezza informatica di 30 Paesi), l’86% ha gestito uno o più incidenti cyber legati all’intelligenza artificiale nei 12 mesi precedenti. E qui arrivano i paradossi, più di uno. Mentre gli attacchi e incidenti legati all’AI aumentano, solo il 48% ritiene che il personale della propria azienda sia consapevole dei rischi connessi a questa tecnologia. In più di metà dei casi, 55%, non esistono competenze sufficienti per fare una completa valutazione dei rischi dell’AI. Il 51% dei responsabili IT chiede ai dipendenti di usare soltanto applicazioni e servizi di intelligenza artificiale approvati, ma c’è un 22% che non impone nessun particolare divieto. Che le aziende se ne preoccupino oppure no, la shadow AI è un problema reale: non soltanto i dipendenti usano strumenti tecnologici non approvati dall’IT, ma li alimentano con dati privati, magari strategici o sensibili, magari proprietà intellettuale. Uno studio del Mit di Boston (“State of AI in Business 2025”, un’analisi di 300 progetti di intelligenza artificiale) indica che nel 90% delle aziende ci sono dipendenti che usano regolarmente chatbot come ChatGpt, Gemini o Claude per lavorare, mentre solo il 40% delle realtà ha acquistato abbonamenti alle versioni “business” di questi strumenti. Per dirla in modo più schietto, rubando le parole all’ultimo “Cloud and Threat Report” di Netskope, la shadow AI “rappresenta la maggioranza degli utilizzi dell’intelligenza artificiale nelle aziende”.
Spendere è una necessità
Di fronte alla crescita numerica degli attacchi e alle nuove minacce legate all’intelligenza artificiale, non stupisce che la cybersicurezza sia tra le priorità delle aziende. Nel già citato studio di Cisco, il 96% delle aziende del campione aveva pianificato un upgrade o una riprogettazione della propria infrastruttura IT,
Non devono soltanto difendere l’azienda, i suoi dati e le sue persone, ma hanno anche la responsabilità di non ostacolare l’innovazione e di promuovere, allo stesso tempo, una cultura della cybersicurezza. Nel farlo, tra cambiamenti tecnologici, normativi e geopolitici, per la prima volta oggi possono scalare la gerarchia aziendale e ambire ai ruoli apicali. È quanto emerge dall’indagine “Il ruolo del Ciso Survey 2025”, realizzata tra luglio e settembre 2025 da TIG – The Innovation Group e AssoCiso su un campione di 172 organizzazioni italiane in prevalenza di grande dimensione. Il quadro è eterogeneo dal punto di vista delle responsabilità, del riconoscimento e anche della collocazione nell’organigramma, e non mancano – anzi –i casi in cui la figura di un Ciso è del tutto assente. Un chief information security officer è presente solo nel 61% delle aziende del campione d’indagine, cioè in quelle che già dispongono di una strategia formale di cybersecurity. Negli altri casi, la responsabilità sulla cybersecurity ricade su altre funzioni, per esempio sul Cio (chief information officer) o sul Cto (chief technology officer).
Quando presente, nel 30% dei casi il Ciso riporta al Cio e nel 29% è a diretto riporto dei vertici aziendali. Solo la metà delle aziende prevede comunicazioni sistematiche e dirette tra il Ciso e il consiglio di amministrazione, mentre altrove il dialogo è sporadico o intermediato. E questo, chiaramente, limita la capacità del Ciso di influenzare le decisioni strategiche. Più precisamente, la comunicazione verso il CdA avviene in modo strutturato (su base trimestrale, semestrale o annuale) nel 48% delle aziende; nelle altre, esiste solo su richiesta o in situazioni particolari oppure con la mediazione di altre figure, o semplicemente tra Ciso e CdA non c’è alcuna comunicazione. Esiste una certa eterogeneità anche per quanto riguarda le mansioni che occupano il tempo e i pensieri dei Ciso. Nelle organizzazioni più strutturate, questi professionisti gestiscono un ventaglio di attività ampio, spaziando dalla threat intelligence alla gestione degli ambienti cloud. Nelle realtà più piccole, invece, possono ricoprire responsabilità che tipicamente afferiscono ad altri ruoli, come le funzioni di compliance. L’indagine ha anche esplorato il contesto di cambiamento tecnologico e organizzativo in cui si colloca il lavoro dei Ciso. Riuscire a reperire personale qualificato è oggi la difficoltà più sentita, indicata dal 57% degli intervistati, e a seguire ci sono la difficoltà di far comprendere l’importanza della cybersecurity (39%), la scarsa valorizzazione del ruolo del Ciso all’interno dell’organizzazione (38%) e la mancanza di budget (36%). Secondo i Ciso italiani l’intelligenza artificiale è il trend tecnologico destinato ad avere maggiore impatto sulla sicurezza informatica negli anni a venire, e tuttavia non è l’unico: bisognerà tenere gli occhi puntati anche su fenomeni non più nuovi ma sempre in divenire, come la migrazione al cloud, l’evoluzione dell’identity management e l’Internet of Things.
I pensieri dei Ciso sono anche rivolti a questioni non strettamente tecnologiche: il contesto geopolitico, le sanzioni commerciali, le normative e le conseguenti esigenze di compliance, e, ancora, le diffidenze verso fornitori extraeuropei. Il 39% dei Ciso ha detto di aver rivalutato o modificato le proprie scelte tecnologiche e di fornitura a causa di dinamiche geopolitiche. Nel complesso, dall’indagine di TIG e AssoCiso emerge la figura di un ruolo sempre più trasversale e strategico per le aziende, un professionista a cui sono richieste competenze tecniche ma anche abilità manageriali e di comunicazione.
da realizzarsi entro due anni. Tre intervistati su quattro, infatti, non nutrivano fiducia nelle proprie capacità di rapida e sana ripresa post attacco, cioè (per dirla con un’espressione cara ai vendor e agli analisti) nelle proprie capacità di cyber resilienza.
Anche per molte aziende italiane la sicurezza informatica necessita di upgrade o ripensamenti. Secondo la “Digital Business Transformation Survey 2025” di TIG – The Innovation Group, per
le imprese italiane medie e grandi (146 quelle del campione d’indagine) la cybersicurezza è stata quest’anno la principale area di investimento nell’ambito dei budget Ict. Nel 55% delle aziende (contro il 47% dell’indagine del 2024) al momento del sondaggio c’erano investimenti in cybersicurezza già portati a termine o programmati per i 12 mesi successivi. Non è da escludere che molte aziende debbano metter mano alle infrastrutture o ai sistemi di backup e disaster
recovery per soddisfare i requisiti delle nuove normative, come la direttiva NIS2 e il regolamento Dora. Nella cybersicurezza cresce anche, in Italia come nel resto del mondo, il ricorso ai servizi gestiti, erogati dai vendor stessi o da intermediari: per alcune aziende, sprovviste di un Security Operations Center o almeno di personale dedicato alla cybersicurezza, è una strada obbligata; per altre, è un potenziamento che garantisce una copertura ininterrotta, “24/7”.


Tra vecchie e nuove preoccupazioni
In questo scenario che abbiamo descritto per sommi capi, il lavoro del Ciso sta cambiando. Uno studio di Proofpoint (“Voice of the Ciso 2025”, basato sulle risposte di 1.600 responsabili della cybersicurezza di aziende di 16 Paesi) evidenzia alcune chiare tendenze. La prima è la conseguenza della continua crescita delle minacce: i Ciso sono disillusi. Fra gli intervistati italiani, l’84% ha ammesso di sentirsi “a rischio di subire un cyber attacco materiale nei prossimi 12 mesi” e il 56% pensa di non essere preparato a rispondere.
La seconda evidenza del report è che il problema sta spesso nel famigerato “fattore umano”, con ampia casistica: imprudenze dei dipendenti (che usano strumenti non ammessi o condividono dati con troppa leggerezza), scarsa
conoscenza delle buone regole della cybersicurezza, incapacità di riconoscere le truffe del phishing o anche vendette dopo un licenziamento. E infatti il 77% dei Ciso italiani ha riferito perdite di dati nell’ultimo anno, indicando come prima motivazione gli incidenti causati da personale interno o in uscita. Il 61% sente di dover soddisfare “aspettative eccessive” e nell’anno precedente il 55% ha assistito a casi di burnout o li ha vissuti in prima persona.
Il problema del fattore umano si somma alla citata questione della shadow AI, a cui i chief information security officer non sono insensibili: tra gli italiani, il 69% pensa che rendere possibile un utilizzo sicuro dell’intelligenza artificiale generativa sia una “priorità strategica per i prossimi due anni”. Il quadro di fondo è quello di una “cre-
scente disconnessione tra fiducia e capacità tra i Ciso,” come illustrato da Patrick Joyce, global resident Ciso di Proofpoint. “Mentre molti responsabili della sicurezza esprimono ottimismo sulla postura informatica della loro organizzazione, la realtà racconta una storia diversa: la crescente perdita di dati, le lacune nella preparazione e il persistente rischio umano continuano a minare la resilienza. Con l’accelerazione dell’adozione della GenAI che porta sia opportunità sia minacce, ai Ciso viene chiesto di fare di più con meno, di navigare in una complessità senza precedenti e di salvaguardare comunque ciò che conta di più”. Lasciamo a Joyce la perfetta sintesi dello scenario attuale: “È chiaro che il ruolo del Ciso non è mai stato così cruciale o così sotto pressione”. Valentina Bernocco

Dai Ciso, l’invito a innestare sulla NIS2 un modello di collaborazione e responsabilità condivisa.
Nel corso del recente CISO
Panel di Milano, il tavolo di lavoro “NIS2, OT/IoT
Cybersecurity e i rischi della supply chain” ha acceso i riflettori su temi cruciali per il panorama della sicurezza attuale. Dalla discussione, guidata da Michele Fabbri, group Ict executive director di De Nora, è emersa una tesi chiara: per le aziende strutturate e con una solida maturità in ambito cyber, l’adeguamento alla direttiva NIS2 non rappresenta una rivoluzione tecnologica, quanto piuttosto un esercizio di formalizzazione e documentazione di pratiche già consolidate. Inevitabilmente l’attenzione si sposta su quello che oggi è il vero epicentro del rischio, ossia fuori dal perimetro aziendale, dove sussiste una fragilità sistemica della supply chain.
Il focus si sposta, dal tema della “postura di sicurezza” e della compliance interna all’azienda, a strategia olistica di gestione del rischio estesa all’intero ecosistema.
La NIS2 nelle aziende mature
Comprendere come le organizzazioni con un’elevata maturità in ambito security stiano interpretando l’arrivo della direttiva NIS2 è di fondamentale importanza. Dalla discussione è emersa una percezione condivisa: le aziende partecipanti, in quanto realtà medio-grandi, si considerano privilegiate, perché già dotate di una struttura di sicurezza informatica consolidata da tempo. In questo
contesto, le misure della direttiva sono state definite come norme di “buon senso”, corrispondenti a pratiche di sicurezza spesso implementate già da tempo, da prima dell’obbligo di compliance. Questa transizione, sebbene meno impegnativa dal punto di vista tecnico, introduce però un significativo onere operativo focalizzato sulla verificabilità e sulla difendibilità legale, con una nuova categoria di costi e di allocazione di risorse per funzioni Grc (Governance Risk e Compliance).
Il lavoro di formalizzazione della NIS2 si articola in attività specifiche: documentare i processi di sicurezza esistenti; proceduralizzare le attività operative per garantirne la coerenza e la ripetibilità; tracciare e registrare ogni azione rilevante ai fini della sicurezza e della conformità; predisporre e formalizzare tutta la documentazione da opporre in caso di ispezione, con un focus sulla dimostrabilità della compliance.
L’anello debole
La raggiunta solidità interna, tuttavia, mette in luce per contrasto la potenziale fragilità dell’ecosistema esterno, introducendo il tema che i partecipanti hanno identificato come la vera frontiera del rischio, come il punto debole del sistema di difesa: la supply chain, ossia l’ecosistema esteso di partner e fornitori. Un caso particolare, menzionato nel dibattito, è quella del settore medicale, descritto come un ambito che, pur partendo da
“Un
piccolo fornitore può avere una rilevanza strategica. Bisogna capire come, grazie al proprio know-how e alla propria postura, portarlo a un livello adeguato. Così si migliora la postura di sicurezza complessiva”.
Michele Fabbri, group Ict executive director di De Nora

Massimiliano Baldessarini, responsabile cyber risk di Alperia
Guido Brucellaria, Cio/Ciso di Bwh Hotels
Massimiliano Colombo, BD manager cybersecurity di Cefriel
Simone Cucchetti, information security officer di E.On Italia
Michele Fabbri, group Ict executive director di De Nora
Antonio Fumagalli, Cio/Ciso di A.S.S.T. Papa Giovanni XXIII Bergamo
Luca Greco, Ciso di Italtel
Pierguido Iezzi, cyber business unit director di Maticmind
Paolo Pomi, group Ciso di Dumarey
Simone Rizzo, Ciso di Carrier Commercial Refrigeration
Marco Rocco, regional sales manager di Opswat
Alessandro Serra, group head of third party risk management di UniCredit
Il confronto tra le esperienze e conoscenze dei chief information security officer, seduti intorno a un tavolo per discutere un tema specifico, è la formula collaudata dei “Ciso Panel” di TIG – The Innovation Group. Durante l’evento organizzato lo scorso 18 settembre a Milano, quattro tavoli di lavoro sono stati dedicati ad altrettanti temi, come da titolo: “NIS2, cyber resilienza e incident response”; “NIS2, OT/IoT cybersecurity e rischi legati alla supply chain”, “Motivare, mantenere, valorizzare il team security” e “Bilanciare AI e Cybersecurity nei percorsi di trasformazione digitale”.

Si è parlato molto, dunque, delle sfide e delle opportunità legate all’attuazione della direttiva NIS2, ma anche di come valorizzare e motivare il team addetto alla sicurezza informatica, e di come poter collaborare al meglio con le altre aree aziendali. I partecipanti hanno sottoscritto una riflessione di fondo: per elevare la cyber resilienza e prepararsi alla compliance europea, è necessario aver adottato un approccio sistemico, che includa tutte le aree del business e che responsabilizzi direttamente i vertici.
una posizione più arretrata e dovendo gestire aspetti che ne rallentano il percorso, sta comunque lavorando attivamente per colmare il gap e raggiungere il livello di maturità richiesto. La discussione ha evidenziato una netta distinzione tra due
tipologie di fornitori, che comportano livelli di rischio molto diversi. I grandi fornitori strutturati sono partner abituati a collaborare con le grandi imprese, consapevoli di obblighi normativi anche precedenti alla NIS2 e dotati di proprie
strutture di sicurezza: questi soggetti rappresentano un rischio gestibile e relativamente basso. Di contro, desta la maggiore preoccupazione la categoria dei piccoli fornitori strategici, che include anche realtà di nicchia specializzate nell’Operational Technology (OT) o nell’Internet of Things (IoT). Si tratta di venditori di componenti hardware o software specifici per ambienti industriali, cruciali per il business, ma che potrebbero non avere la maturità o le risorse per adeguarsi ai nuovi standard di sicurezza. La debolezza di questi partner strategici non è un problema a essi confinato, perché minaccia direttamente la resilienza della grande azienda cliente.
Dall’obbligo alla collaborazione
La proposta emersa dal tavolo di lavoro è di superare la semplice imposizione contrattuale, con un cambio di paradigma: un modello di gestione del rischio basato sulla collaborazione attiva con il fornitore. Si tratta, quindi, di abbandonare l’approccio tradizionale alla gestione del rischio di terze parti, basato su audit e clausole contrattuali, per abbracciare un modello proattivo e collaborativo. La conclusione unanime del gruppo di lavoro è stata che i piccoli fornitori strategici non devono essere solamente “spinti” verso l’obbligo normativo, ma vanno attivamente aiutati a raggiungerlo. Il supporto è particolarmente vitale nel dominio OT/IoT, dove i protocolli di sicurezza differiscono significativamente dall’IT tradizionale e richiedono conoscenze specialistiche che i piccoli fornitori potrebbero non possedere. Questo modello cooperativo riformula la sicurezza della supply chain, trasformandola da un “gioco a somma zero” (basato sul trasferimento della responsabilità) a un investimento a somma positiva, che rafforza la cyber resilienza dell’azienda cliente e dell’intera catena.
Elena Vaciago

La gestione del rischio
è un processo continuo, che richiede la collaborazione di tutta l’azienda.
La direttiva NIS2 è arrivata, portando con sé un’ondata di nuove responsabilità per la sicurezza informatica in tutta Europa. Opinione comune è che si tratti di una sfida prettamente tecnica: un elenco di controlli da implementare, sistemi da aggiornare e processi da formalizzare. Dal dibattito del tavolo di lavoro “NIS2, Cyber Resilienza e Incident Response” è emersa invece una realtà molto più complessa e “umana”: i maggiori ostacoli posti dalla direttiva non risiedono nella tecnologia ma, spesso, nelle sale riunioni e tra le pieghe della burocrazia. La NIS2 sta agendo come un duplice catalizzatore: da un lato impone oneri burocra-
tici significativi (come la complessa registrazione degli organi di vertice tramite SPID sul portale di Acn, l’Agenzia per la Cybersicurezza Nazionale), dall’altro è una leva strategica senza precedenti per accentuare l’attenzione del board, per giustificare investimenti e per formalizzare i modelli organizzativi.Durante la discussione è emerso, inoltre, che un argomento molto efficace per catturare l’attenzione dei vertici è quello delle sanzioni.
Un orchestratore di attività
Le sfide principali, secondo i Ciso, riguardano non solo la sensibilizzazione, ma anche l’esecuzione: sebbene la NIS2 faciliti l’ottenimento di budget, permane il problema di un’efficace allocazione e resta la difficoltà di “mettere a terra” le misure di sicurezza, di gestire la complessità della supply chain e di integrare i requisiti normativi senza paralizzare il business. A livello organizzativo, si è delineato un chiaro spostamento verso un framework di responsabilità condivisa, dove il Ciso non è più l’unico terminale del rischio ma è un orchestratore che collabora strettamente con le funzioni di risk management, con il dipartimento legale e con le singole linee di business. In passato il Ciso è stato percepito come una figura puramente tecnica e non come un compliance manager o un risk manager puro. Oggi è invece diventato un orchestratore di attività, al centro di un modello organizzativo in cui la distribuzione di ruoli e responsabilità è cruciale. Nelle organizzazioni più grandi e mature, la collaborazione con l’Enterprise Risk Management, con le funzioni legal e con l’audit interno è fondamentale per disintermediare il ruolo del Ciso e per dargli maggiore supporto per portare le sue istanze ai vertici.
Tra le sfide implementative citate per la NIS2, innanzitutto, quella di adottare tecnologie e processi necessari per col-
“La resilienza si costruisce padroneggiando sia il complesso sia il banale. La domanda da porsi, per ogni leader, non è quindi solo se la propria tecnologia sia pronta, ma se la propria intera organizzazione (dalla sala riunioni in giù) comprenda veramente la natura olistica della sfida”.
Nicla Ivana Diomede, direttore del dipartimento di cybersecurity e sicurezza di Roma Capitale

Pier Paolo Bortone, cybersecurity program manager di Italiaonline
Paolo Cecchi, regional sales director di SentinelOne
Nicla Ivana Diomede, direttore del dipartimento di cybersecurity e sicurezza di Roma Capitale
Mario Paolo Garofano, Ciso di Fondazione Policlinico Universitario Campus
Bio-Medico
Leonora Macchia, risk management specialist di Gruppo Iren
Ermelindo Mauriello, Ciso di Valentino
Giulia Moschini, head of cybersecurity di Leroy Merlin Italia
Massimo Poletti, Cio del Comune di Ferrara
Valeria Prosser, head of governance, risk & compliance di e-Phors (Fincantieri)
Stefano Ricci, sales engineering manager Italy & Iberia di Rubrik
Paolo Schintu, senior cybersecurity specialist and manager di Sogei
Andrea Solaroli, regional vice president sales di SailPoint
Carmelo Ventre, IT risk manager di Banca Generali
Fabrizio Venturini, head of cyber defense center di Autostrade per l’Italia
mare i gap di sicurezza senza interrompere l’operatività dell’azienda. Questo comporta una pianificazione pluriennale e un aumento graduale della maturità. Inoltre, un investimento in sicurezza può paradossalmente far emergere un livello di rischio più alto di quello percepito inizialmente: aumentando la visibilità sui sistemi, si scoprono vulnerabilità prima ignote. È fondamentale comunicare al board che la gestione del rischio è un processo continuo e non un obiettivo raggiungibile con un singolo investimento. “La conversazione tra i Ciso italiani”, ha osser vato Nicla Ivana Diomede, direttore del dipartimento di cybersecurity e sicurezza di Roma Capitale, “ha svelato che la NIS2 è molto più di una checklist tecnica: è un profondo catalizzatore di cambiamento organizzativo, culturale e strategico, che costringe le aziende a confrontarsi con problemi che vanno dalla burocrazia spicciola alla comunicazione con il board, fino alla gestione di ecosistemi complessi come la supply chain. La resilienza si costruisce padroneggiando sia il complesso sia il banale. La doman-
da, per ogni leader, non è quindi solo se la propria tecnologia sia pronta, ma se la propria intera organizzazione, dalla sala riunioni in giù, comprenda veramente la natura olistica della sfida”.
Il nodo della fornitura
La sicurezza della supply chain è stata unanimemente identificata come la criticità più pressante e complessa, a causa dell’enorme numero di fornitori e della loro eterogenea maturità in ambito cyber. L’adeguamento dei fornitori comporta costi diretti (clausole contrattuali, audit) e indiretti. È stato sollevato il problema della negoziazione con i grandi fornitori (come gli hyperscaler del cloud), dove il potere contrattuale dell’impresa cliente è nullo. Per le grandi aziende c’è anche un’enorme difficoltà nel mappare, valutare e imporre requisiti di sicurezza a una catena di fornitura composta da migliaia di soggetti, molti dei quali sono piccole e medie imprese con maturità cyber quasi nulla. Una questione critica sollevata durante il tavolo di lavoro è la gestione dei fornitori che non rientrano nell’am-
bito di applicazione della NIS2: questi soggetti non hanno obblighi normativi diretti, e ciò aumenta la complessità e l’onere di controllo a carico del cliente. L’imposizione di nuovi requisiti di sicurezza rischia di “bloccare il business”. È necessario un forte appoggio del board per avviare non facili conversazioni con le funzioni acquisti e con i fornitori stessi, scardinando processi consolidati.
Dalla prevenzione al ripristino
Come evidenziato dai Ciso, il panorama delle minacce sta evolvendo verso attacchi sempre più sofisticati, e questo rende indispensabile un approccio basato sulla resilienza, sulla visibilità granulare dell’infrastruttura, su test rigorosi dei piani di recovery e simulazioni di crisi. Per massimizzare la propria efficacia e distribuzione, gli attacchi si concentrano sempre più su canali di fiducia (trusted), come sistemi di autenticazione centralizzati, aggiornamenti software o avvelenamento di librerie open source. Dunque è necessario spostare il focus dalla sola prevenzione alla capacità di ripristino, e infatti molte organizzazioni presenti al panel stanno intensificando le simulazioni di attacco (tabletop exercise) e puntano a coinvolgere direttamente il board e i vertici aziendali in queste esercitazioni. Tuttavia, questo è solo metà del lavoro. I Ciso hanno sottolineato un punto critico spesso trascurato: non basta simulare la gestione della crisi, bisogna testare regolarmente e in modo rigoroso i piani di ripristino tecnico. E bisogna porsi alcune domande fondamentali. Siamo sicuri che i nostri backup siano integri e funzionanti? Siamo in grado di ripristinare le infrastrutture critiche rispettando i tempi richiesti (in termini di Rto/Rpo)? La maturità, su questo fronte, varia enormemente. Alcune organizzazioni più strutturate eseguono test di resilienza ogni tre mesi, mentre altre hanno appena inizianto a pianificare queste attività. E.V.

Motivare il team dei collaboratori e gestire le competenze in azienda: due imprese non banali.
Una squadra di lavoro compatta e motivata può fare la differenza. Al tema della gestione dei collaboratori del Ciso è stato dedicato il tavolo di lavoro “Motivare, mantenere, valorizzare il team security”. Tre i filoni di discussione principali: come avere ottenere dal board l’autorizzazione a creare la struttura, come affrontare il problema della carenza di competenze sul mercato e, infine, come valorizzare e motivare la squadra dei collaboratori esistente.
Partire con il piede giusto Spesso il primo ostacolo, per i Ciso, è convincere i vertici aziendali della necessità di dotarsi di una squadra di risorse de-
dicate alla sicurezza informatica. Un supporto fondamentale arriva dall’evoluzione legislativa, con norme come la NIS2, che ha portato il tema della cybersecurity e della relativa capacity (necessità di personale) direttamente all’attenzione dei consigli di amministrazione. La compliance funge da motore importante poiché è un fatto ampiamente riconosciuto che per gestire normative complesse servano persone. Aziende operanti in settori tradizio-
nalmente meno focalizzati sulla cybersecurity hanno visto nella NIS2 un’ottima opportunità per iniziare a sensibilizzare il board. L’esperienza dimostra che la compliance a norme europee, come già accaduto con il Gdpr, funziona sia perché impone una lunga serie di adempimenti (e quindi richiede l’assunzione di personale) sia perché porta a sviluppare competenze specifiche e ad avere in azienda una più diffusa cultura della cybersicurezza.
“Nel panorama aziendale, il tetto di cristallo legato al posizionamento del Ciso può influire sulla motivazione dei professionisti di ambito cyber. Quando la funzione non riporta direttamente al vertice, il percorso di crescita del team tende a essere tecnico-verticale, rendendo più complesso lo sviluppo manageriale e l’avanzamento verso altri ruoli aziendali”.
Simonetta Sabatino, Head of cyber security di Saras

Raoul Brenna, manager of cyber resilience di Fastweb+Vodafone
Federica Livelli, membro del comitato scientifico di ENIA (Ente Nazionale per l’Intelligenza Artificiale) e del Cyber Resilience Special Interest Group di The BCI
Manlio Longinotti, head of business sevelopment Italy di Sans Institute
Paola Meroni, head of information security di Beko Europe
Alessandro Oteri, fondatore di PensieroSicuro
Gianluca Rossini, cyber security manager di Valentino
Simonetta Sabatino, head of cyber security di Saras
Un ulteriore elemento che aiuta a spiegare al board l’esigenza di strutturare meglio l’area cybersecurity è comunicare con i numeri. È cruciale abbandonare la percezione della funzione cyber come mera “funzione tecnica” e adottare un linguaggio legato al business. Il rischio informatico dev’essere espresso in termini di impatto finanziario, reputazionale o ambientale, un approccio basato sul rischio definito “realistico e probabilistico”.
Le esperienze portate al tavolo di lavoro hanno evidenziato che parlare di impatti potenziali legati a sanzioni e responsabilità personali (anche penali), oltre che di danni alla reputazione, aiuta a intercettare l’attenzione del top management. L’incidente reale rimane l’evento che porta a sensibilizzare maggiormente l’azienda, ma preferibilmente possono bastare una simulazioni dello stesso (cyber drills), comunque efficaci in termini di comunicazione e molto meno impattanti.
Alla ricerca di competenze Il mercato è purtroppo caratterizzato da una scarsa offerta di competenze cyber rispetto alla domanda che giunge dalle aziende. Le abilità desiderate sono non solo tecniche ma includono aspetti di cultura e sensibilità aziendale.
Un problema ricorrente è la qualità della consulenza esterna, spesso non adeguata a causa di fenomeni di overselling o di upselling (ad esempio, consulenti junior
che vengono “venduti” come senior). Per mitigare questo rischio, alcuni partecipanti hanno suggerito l’opzione di rivolgersi a società di consulenza più piccole e specializzate.
La soluzione alla carenza di competenze passa necessariamente dall’analisi del gap formativo. Per i ruoli considerati meno strategici o più prettamente tecnici, la risposta può essere l’outsourcing: è raccomandato di esternalizzare le mansioni ripetitive e non gratificanti, come la gestione delle campagne di phishing e la relativa consapevolezza, per evitare il burnout e lo svilimento del ruolo dei tecnici interni. Tali attività, poi, richiedono competenze specifiche in comunicazione, psicologia e awareness. L’automazione di compiti ripetitivi è vista come uno strumento fondamentale per ottimizzare le risorse e prevenire l’alienazione del personale.
Per quanto riguarda il rapporto con il dipartimento risorse umane, la normativa NIS2 offre un aggancio strategico: include un paragrafo che richiede specificamente “affidabilità e competenze delle persone”. Questo può essere utilizzato per coinvolgere le HR nella definizione di percorsi di crescita e formazione.
Trattenere i talenti
La sfida più complessa è forse riuscire a trattenere in azienda il personale qualificato, che spesso è tentato di migrare verso posizioni meglio pagate o con prospetti-
ve di carriera più chiare, secondo meccanismi di job hopping.
Per trattenere le persone bisogna comprendere le reali inclinazioni di ciascun membro del team. Sono stati indicati due possibili percorsi di crescita: tecnico e manageriale. I ruoli tecnici spesso amano l’attività hands-on e desiderano rimanere nel loro ruolo specialistico senza essere forzati verso un percorso manageriale. Per motivarli, si suggerisce di inserirli in “team ibridi” (ad esempio con personale legal o compliance) o in center of excellence per ampliare il loro orizzonte professionale e stimolare l’apprendimento incrociato. Vanno spinti a uscire dalla zona di comfort e a valorizzare al massimo le loro competenze tecniche. Il percorso manageriale può coinvolgere, invece, i tecnici con aspirazioni di crescita: vanno guidati a comprendere il valore della sintesi e della comunicazione. Diventare manager significa utilizzare la propria competenza tecnica per indirizzare la strategia e prendere decisioni coerenti.
Oltre ai riconoscimenti di carriera ed economici (come bonus o aumenti), il dibattito ha toccato il tema del cosiddetto work-life balance. Il lavoro da remoto non è più una leva motivazionale ma un elemento di base assodato, quasi un requisito imprescindibile. Tuttavia, si è sollevato il dubbio che l’eccessivo remote working possa ostacolare la crescita di carriera e la capacità di “respirare la cultura aziendale”. La soluzione ideale sta nel mezzo, possibilmente facendo dell’ufficio un luogo piacevole e dedicando “tempo di qualità” ad attività di relazione e apprendimento. Infine, per elevare il profilo della funzione e ampliare le opportunità di crescita per il team, è stato suggerito di espandere il ruolo del Ciso e del suo team verso aree multidisciplinari, che includano la gestione del rischio, la compiance o l’intelligenza artificiale. E.V.

Bilanciare opportunità e rischi: così i Ciso affrontano il tema dell‘intelligenza artificiale.
Come utilizzare l’intelligenza artificiale in azienda? Il punto di partenza, secondo il punto di vista condiviso dai Ciso, è la necessità di definire chiaramente il perimetro di adozione. Nel tavolo di lavoro “Bilanciare AI e cybersecurity nei percorsi di trasformazione digitale”, sono state identificate tre macrocategorie di utilizzo di questa tecnologia all’interno dell’ecosistema aziendale: l’AI del business: quella introdotta per trasformare attività e processi con l’obiettivo di generare valore; l’AI dell’utente finale, a cui i dipendenti si rivolgono per fini personali o lavorativi, anche tramite dispositivi privati come lo smartphone (altrimenti detta shadow AI); l’AI contestualizzata nell’area cybersecurity, come gli strumenti di intelligenza artificiale generativa che supportano gli analisti di sicurezza e gli stessi Ciso.
Livelli di adozione variabili
Dalla discussione è emerso che le aziende più strutturate hanno già definito una governance chiara, spesso adottando soluzioni integrate come Microsoft Copilot o strumenti di GenAI per gli utenti finali. Questi sviluppi interni in gran parte sono già stati sottoposti a processi di risk assessment, con il coinvolgimento attivo delle aree Privacy, Cybersecurity e Legale. Al contrario, ci sono aziende che
manifestano una inferiore maturità, non riuscendo a identificare casi d’uso immediatamente applicabili. In tutti i casi, il tema della governance dell’AI non è un problema unicamente di security, perché una sua adozione incontrollata avrebbe molteplici impatti, tra cui rischi reputazionali e di compliance. Alcune aziende stanno affrontando la governance attraverso la creazione di task force o comitati che includono un data protection officer (Dpo), la funzione Security e Legale, per standardizzare l’adozione prima che si verifichi una proliferazione incontrollata (la shadow AI, appunto). Gli errori del passato spingono, poi, a integrare la sicurezza by design, fin dalle prime fasi, evitando di rimandare aspetti critici come la formazione del personale a momenti successivi all’adozione. Un tema dibattuto è stato quello della strategia da seguire nel percorso verso l’AI: molte aziende sembrano subire questa tecnologia (che è adottata dal basso o spinta dal management senza una chiara direzione) piuttosto che guidarne l’utilizzo sulla base di una precisa scelta strategica.
Il dilemma del ROI
Un punto di riflessione importante è stato quello del ritorno sull’investimento: oggi sappiamo che l’AI costa molto mentre il
“L’AI ha le stesse potenzialità di essere usata in modo malevolo oppure per difendere: è una rincorsa costante. Gli attacchi si stanno complicando e affinando. Gli aggressori stanno adottando atteggiamenti simili a quelli dell’uomo, come tentativi di accesso a bassa frequenza. L’uso dell’intelligenza artificiale introduce quindi sfide profonde, come quelle relative al comportamento non deterministico degli agenti AI”.
Paolo Cannistraro, Ciso di Engie Italia

Fabrizio Banfi, account executive Italy di Recorded Future
Claudio Brisa, security and business continuity di Banco Desio
Paolo Cannistraro, Ciso di Engie Italia
Franco Cerutti, IT infrastructure & security director, Global Maritime Information System di Carnival
Paolo Cova, head of enterprise risk management di Gruppo Iren
Markus Kofler, direttore risk management di Alperia
Antonio La Vela, Ciso di Mediaset
Paolo Lossa, country sales director di CyberArk
Gianluca Martinuz, Cio di Fineco
Diego Pogliani, group Cso di Mediobanca
Alessio Setaro, digital leader di Leroy Merlin Italia
Ricard Torres, senior sales engineering director for Iberia and Italy di Mimecast
Giampiero Aldo Zanvettor, Ciso di ACI Global Servizi
suoi ROI non è altrettanto chiaro. Questa incertezza spinge le imprese di grandi dimensioni a un approccio cauto: osservare, provare, senza impegnarsi totalmente. Oggi molte casi d’uso hanno dimostrato uno scarso ritorno sull’investimento, a causa della limitata maturità tecnologica e di vincoli esistenti. Nonostante i dubbi sull’immediatezza del ROI, la risposta generale è stata che l’AI è destinata a restare, soprattutto perché piace ai clienti. Inoltre l’uso pervasivo di strumenti di AI nei dispositivi personali funge da potente traino per l’adozione da parte degli utenti aziendali.
Il problema dell’imprevedibilità Tra le sfide legate a specifiche declinazioni dell’intelligenza artificiale c’è il problema della mancata prevedibilità dei comportamenti dei sistemi di Agentic AI, che di fatto introducono in azienda nuove identità macchina da gestire. Secondo alcuni partecipanti al tavolo di lavoro, sarà importante capire come il sistema di identity management aziendale possa accogliere e gestire queste identità non umane. Inoltre, sul fronte della difesa c’è una mancanza di fiducia nell’automazione totale. Le
AI difensive non sono mai usate al pieno delle loro capacitù e quindi si crea un paradosso: l’attaccante, che non ha nulla da perdere, sfrutta l’AI senza remore, mentre la difesa procede con cautela, rallentata dalla necessità di prevedere un controllo manuale, un intervento umano.
Il valore dell’AI
D’altro canto, l’AI dà contributi tangibili alla cybersecurity aziendale. I vantaggi sono evidenti nell’accelerazione della risposta agli incidenti, con la riduzione dei tempi di analisi dei log, da giorni a minuti, e nella threat intelligence, con la correlazione immediata degli indicatori di compromissione. L’AI sta trovando applicazione anche in ambiti più tradizionali, per esempio nei controlli antifrode, fornendo agli analisti interfacce per fare richieste e ottenere profili rapidi su transazioni bancarie, e riducendo i falsi positivi. Nello sviluppo software, gli strumenti di AI velocizzano il lavoro con suggerimenti automatici, ottimizzazione automatica e revisione del codice. Queste opportunità portano, però, con sé nuovi rischi, come quello di data poisoning e di manipolazione dei modelli AI, che in seguito alla
compromissione potrebbero funzionare in modo imprevedibile. C’è, inoltre, incertezza sulle reali capacità delle soluzioni di cybersecurity: bisogna saper distinguere fra tecnologie che hanno semplicemente aggiunto l’attributo “AI” nel nome della soluzione e altre con effettive funzionalità aggiuntive. C’è, poi, un tema di integrazione e complessità: la tendenza degli sviluppi AI sta andando verso infrastrutture ibride (multicloud e on-premise) con modelli open source che vengono addestrati “in casa” dalle aziende, per ridurre i costi e aderire alla compliance. Questo però aumenta i rischi e la superficie di attacco, specie se le librerie open source usate per il training sono state manomesse all’origine.
Le sfide per il futuro
Purtroppo, oggi la percezione della correlazione tra intelligenza artificiale e cybersecurity è ancora molto immatura, e soprattutto il business vede l’AI come pura opportunità, delegando al Ciso la gestione del rischio. Non esiste però solo il pericolo di minacce esterne, come le frodi basate su deepfake: c’è anche un rischio intrinseco. Ad esempio, le dinamiche del mercato sono guidate dalla geopolitica e dall’economia della sottoscrizione (subscription economy). La dipendenza da pochi grandi vendor nordamericani solleva preoccupazioni (come già era avvenuto per il cloud), sia per la possibilità di interruzioni di fornitura in caso di sanzioni o dispute, sia per un tema di sostenibilità dei costi OPEX in continuo aumento, dato l’adeguamento dei prezzi di sottoscrizione. La discussione sull’intelligenza artificiale si svilupperà parallelamente alla NIS2, ma a causa della velocità dell’evoluzione tecnologica è difficile fare previsioni. L’AI è destinata a decollare perché il business ne intravede il grande potenziale in termini di produttività e risparmio di risorse: tuttavia, sarà fondamentale un’adozione consapevole, per evitare di subire scelte altrui. E.V.
Non c’è una risposta semplice al problema della dipendenza dell’Europa dalle tecnologie delle Big Tech.
La necessità di una strategia di sovranità digitale che vada ben oltre quella relativa al dato non è, in teoria, nuova. Eppure, l’Europa si ritrova in una situazione disastrosa, con gravissimi ritardi su tutte le tecnologie di frontiera in campo informatico e con una infrastruttura, pubblica e privata, in mano ai colossi hi-tech americani e cinesi. Tutto ciò non era visto come un problema fino a qualche tempo fa, quando l’ottimismo vinceva su quella che è una regola d’oro dei rapporti internazionali, ovvero: serve uno scenario equilibrato perché tutto fili liscio. Ma la guerra in Ucraina, prima, e l’arrivo delle politiche economiche “rocambolesche” dell’amministrazione Trump, dopo, hanno finalmente acceso il faro politico sulla situazione. Nessuno, però, ha una bacchetta magica. L’Europa, fortissima sul quadro normativo sulle nuove tecnologie, di nuove tecnologie ne ha pochine. Sia-
mo bravissimi a normare quello che gli altri producono, ma palesemente incapaci di stimolare la crescita in aree chiave. E allora che cosa si fa? Ci si rassegna al fatto che ben prima dell’indipendenza digitale si debba puntare all’autonomia digitale: la tecnologia dovremo continuare a comprarla da entità esterne all’Unione Europea, mettendo in campo il maggior numero possibile di “pezze” che cerchino di garantirci un controllo minuzioso ed efficace di quanto ci metteremo in casa. Basterà? Come al solito, la risposta è molto più complessa di quanto non ci si possa aspettare.
In teoria, se ci si dota di tecnologie di controllo “fidate” (diciamo, quindi, di origine europea) la situazione potrebbe essere gestibile, ma quello che osserviamo accadere in questi giorni mostra come le potenze mondiali abbiano già previsto un ampio ventaglio di casi e approntato un gran numero

di trappole per aggirare i tentativi di protezione di privati, aziende e governi nei confronti delle tecnologie ritenute non affidabili. Qualche settimana fa, per esempio, DeepSeek R1 (uno dei motori di intelligenza artificiale di origine cinese a cui molte aziende stanno guardando con interesse a causa del prezzo stracciato a cui propone i suoi serviz), è stato “beccato” da alcuni ricercatori di sicurezza a compiere azioni tanto subdole quanto pericolose. Quando viene usato come supporto per creare codice (una pratica in grande crescita in ogni parte del mondo, trattandosi di una delle cose che l’AI fa molto bene garantendo praticamente a chiunque una grande accelerazione nella produzione), l’assistente digitale di DeepSeek esamina il contesto nel quale gli viene richiesto di programmare e se trova delle parole chiave “sensibili” per il governo cinese, crea del codice che contiene gravi vulnerabilità di sicurezza nel 50% dei casi in più rispetto a quando crea codice per app meno sensibili. Certo, un tool di verifica del codice affidabile dovrebbe riuscire a tenere sotto controllo quanto viene prodotto e a far risaltare i casi sospetti o pericolosi. Ma se si pensa a quanti dispositivi, software e processi abbiamo in essere in ogni azienda, e che praticamente a ognuno di essi bisogna mettere una “balia” nostrana per garantirne il corretto funzionamento, allora quanto ci viene a costare questa benedetta autonomia che dovrebbe traghettarci verso l’indipendenza? Sicuramente più di quanto le aziende non siano disposte a spendere. Sappiamo bene che non servono mille vulnerabilità per essere violati: ne basta una, che gli attaccanti sanno come colpire...
Giancarlo Calzetta

Con i 3D Univ+rses, Dassault Systèmes propone un nuovo modo di lavorare, in tandem con Apple.
Non solo gemelli digitali, non solo realtà virtuale, non solo intelligenza artificiale. Esistono mondi, virtuali ma legati al reale, in cui queste diverse dimensioni si sovrappongono. Sono l’ultima frontiera tecnologica di Dassault Systèmes, chiamata 3D Univ+rses e annunciata lo scorso febbraio insieme a una collaborazione con Apple, centrata sui visori Vision Pro. La novità è rivolta ai circa 350mila clienti della piattaforma 3DExperience di Dassault Systèmes, molti dei quali posizionati nel settore manifatturiero e nell’aerospaziale, ma anche all’ambito della sanità, dei trasporti, delle infrastrutture critiche, dell’urbanistica e altro ancora. Con i 3D Univ+rses è possibile creare gemelli virtuali di qualsiasi sistema più o meno complesso, traducendoli in ambienti interattivi, fruibili in modo più tradizionale attraverso uno schermo o in modalità più immersiva, con lo spatial computing dei Vision Pro. I visori di Apple consentono un’interazione realistica perché si usano a mani libere, senza telecomandi, attraverso

la direzione dello sguardo e i gesti. A seconda del tipo di applicazione o del contesto, si possono attivare esperienze totalmente immersive o più “trasparenti”, con vista sull’ambiente circostante.
La generative economy
“Siamo partiti da un’economia basata su prodotti e servizi di massa, dove l’ottimizzazione della produzione avveniva principalmente con la riduzione del consumo di risorse”, ha spiegato Umberto Arcangeli, volto italiano di Dassault Systèmes da 13 anni, prima come vice president sales e dal 2022 come amministratore delegato. “Siamo poi passati a un’economia dell’experience, in cui il prodotto viene ritagliato intorno al cliente. La experience economy, unita all’economia della sostenibilità, va a confluire nella generative economy”. Il software di 3D Univ+rses è stato testato con una cinquantina di diversi Large Language Model e funziona nativamente su Mistral. Una scelta che,

ha precisato Arcangeli, “garantisce la sovranità europea dal punto di vista tecnologico, quindi non solo dei dati”. Un aspetto su cui Dassault Systèmes mette l’accento è la tutela della proprietà intellettuale del cliente, garantita su tutto il “ciclo di vita” e anche da una generazione aziendale all’altra. I digital twin immersivi si prestano anche a diventare interfacce per la formazione e la trasmissione del sapere aziendale accumulato nel tempo.
Casi d’uso per tutti “Il virtual twin generativo permette di capire come funzionerà il prodotto una volta finito, quale sarà l’esperienza di chi lo utilizzerà nel mondo reale”, è l’esempio portato da Chiara Bogo, strategy & marketing senior director di Dassault Systèmes. “3D Univ+rses va oltre il virtual twin, con esperienze generate dall’AI su dati del mondo reale, arricchiti dalla proprietà intellettuale e del know-how dell’organizzazione”. In ambito manifatturiero – altro esempio – il gemello digitale permette di simulare un intervento di manutenzione mentre la linea è attiva, per verificare che lo si possa eseguire senza problemi e senza interrompere la produzione. Dassault Systèmes propone anche soluzioni verticali per i settori sanità, energia, infrastrutture critiche e smart city. Ma potenzialmente qualsiasi sistema può avere un gemello virtuale: un motore o l’abitacolo di un veicolo, un edificio, una rete elettrica, un’infrastruttura stradale, un network di logistica, una supply chain, un punto vendita. “Abbiamo l’ambizione e la ferma convinzione di poter creare gemelli virtuali per qualsiasi cosa, che possano essere messi al servizio di chiunque”, ha affermato Arcangeli. Valentina Bernocco
Appian propone una intelligenza artificiale “seria“, che lavora nel backoffice, ancorata ai processi e ai dati aziendali.
L’intelligenza artificiale è straordinaria ma ha dei limiti, ed è giusto che li abbia: è proprio così che può portare valore alle aziende. “Una volta ogni tanto capita che vengano inventate cose straordinarie, al punto che sappiamo resteranno con noi per molto tempo”, ha esordito Matt Calkins, Ceo, presidente e cofondatore di Appian, dal palco londinese dell’annuale conferenza dedicata alle aziende e ai partner europei. “Inizialmente”, ha proseguito Calkins, “quando la radio è stata inventata, non si pensava che potesse essere usata per fare le cose che fa adesso. Lo stesso vale per l’AI”. Quella che potrebbe sembrare la ormai classica celebrazione dell’intelligenza artificiale, dipinta come tecnologia rivoluzionaria, in realtà sul palco di “Appian Europe” si è subito dimostrata qualcosa di diverso: un invito a stare con i piedi per terra, ragionando sul valore concreto e misurabile che l’AI può produrre nelle aziende. L’adozione non dev’essere una corsa, alimentata dall’hype o dalla paura di

perdere il treno. A monte di qualsiasi progetto bisogna ragionare sugli obiettivi e capire se e dove l’AI possa generare valore. Allo stesso tempo, non bisogna farsi scoraggiare dalle statistiche, come quella diffusa dal Mit di Boston, secondo cui il 95% dei progetti di GenAI avviati dalle aziende fallisce. Se questo accade, a detta di Appian è perché si sbaglia approccio. “Abbiamo molta strada da fare per imparare a usare l’AI”, ha proseguito l’amministratore delegato. “Credo questo sia parte di un fraintendimento più ampio, ovvero si pensa che l’AI sia una tecnologia standalone mentre non lo è: deve far parte di qualcos’altro”. Il “qualcos’altro”, ovviamente, sono i dati, ma anche le esistenti applicazioni, i flussi di lavoro, i processi. Per la società di Matt Calkins, il “qualcos’altro” è innanzitutto il Data Fabric, componente essenziale della piattaforma di automazione low-code di Appian. Il “tessuto vivente” del Data Fabric collega non solo fonti di dati in tempo reale ma anche applica-

zioni e processi, ed è qui che l’intelligenza artificiale si innesta, come capacità integrata e non come prodotto standalone. “L’AI non ha soltanto bisogno di dati: può portare più valore se è legata alle cose di valore, al lavoro importante”, ha rimarcato il Ceo. “In Appian abbiamo passato anni a costruire le tecnologie come il Data Fabric: sono le aree che rappresentano dipendenze naturali per l’AI”. Quella di Appian è anche un’AI “seria”, che resta dietro le quinte e rifugge gli effetti speciali. “Che cosa intendiamo per AI seria? Un’AI sostenuta dai processi e dai dati”, ha spiegato Calkins. “Vive in luoghi non glamour, nei processi e negli uffici di backoffice, come nel procurement, nella compliance. Sarei tentato di chiamarli lavori noiosi, ma i risultati che si ottengono con l’AI sono tutt’altro che noiosi”. Tipici casi d’uso per la piattaforma di Appian e per la sua AI sono la gestione e l’elaborazione documentale, la gestione delle richieste di risarcimento nelle compagnie assicurative, i processi di auditing, i controlli di conformità, il supporto clienti.
Automazione e controllo umano “L’AI mette paura quando è fuori controllo”, ha osservato Silvia Speranza,



regional vice president Italy & Greece di Appian. “Ma nel nostro caso non è mai fuori controllo, è sempre sotto la responsabilità delle persone. Nella nostra realtà quasi sempre l’AI viene usata dopo aver già adottato Appian per gestire dei processi, quindi viene calata all’interno di contesti già governati dalla nostra piattaforma”. Quella proposta non vuol essere un’AI totalmente autonoma, che sposta le responsabilità dagli esseri umani al software: all’interno della piattaforma, l’intelligenza artificiale può velocizzare, rendere più efficiente il processo, ma la decisione finale resta all’utente. “L’AI per noi non è fine a sé stessa ed è parte del data fabric, ha spiegato Lorenzo Alegnani, area vice president customer success, Central and South Europe. “Noi di Appian non abbiamo mai posizionato l’AI per gestire processi end-to-end, ma la usiamo all’interno di processi in cui l’essere umano è ben presente”.
La PA italiana accelera Storicamente, per Appian, in Italia il settore dei servizi finanziari è il primo bacino di riferimento, a cui segue l’assicurativo. Oggi però la domanda di automazione e di data platform
sta accelerando in particolare nella Pubblica Amministrazione. “Mentre l’anno scorso avevamo osservato una forte spinta del settore assicurativo, quest’anno vediamo un esplosione della Pubblica Amministrazione centrale, e nonostante l’effetto del PNRR si stia esaurendo”, ha raccontato Speranza. “Negli ultimi anni c’erano dei fondi da spendere in qualche modo, il focus era sui budget da spendere. Ora invece si fanno progetti guardando al valore e non solo alla spesa. E in questo Appian sta svolgendo un ruolo importante, specialmente in alcune piattaforme di PA centrali che ci hanno scelti come partner”.
“Questo è il nostro decimo anno in Italia, abbiamo costruito nel tempo una reputazione solida”, ha testimoniato Alegnani. “Oggi, rispetto al passato, sento maggiore spinta all’innovazione. Per esempio, oggi le banche parlano di AI, cosa che non facevano due anni fa. Il mercato ha capito di dover fare qualcosa per stare al passo e che l’AI non è una buzzword”.
Le novità di offerta
Anche l’Agentic AI, come altre forme di intelligenza artificiale, per Appian opera all’interno del Data Fabric. Per
configurarla e controllarla c’è Agent
Studio, un builder (da qualche settimana in disponibilità generale) che permette di creare nuovi agenti definendo i compiti assegnati, le fonti di dati e gli strumenti a cui gli agenti hanno accesso. Non si tratta però solo di un builder, ma anche di uno strumento per la gestione e l’orchestrazione dei diversi agenti AI in uso. L’applicazione è ora in disponibilità generale, dopo il debutto della versione di anteprima lo scorso aprile. A detta di Appian, l’interesse dei clienti per questo lancio è stato “straordinario” e la totalità dei partecipanti al programma beta giudica Agent Studio “intuitivo” o “molto intuitivo”. Altro recente debutto è Composer, uno strumento per la modernizzazione delle applicazioni che propone un’esperienza d’uso “assistita dall’AI”, con suggerimenti e comandi in linguaggio naturale, e quindi è rivolto non solo al personale IT ma anche a chi non sa scrivere codice.
Dopo l’ultimo aggiornamento, il Data Fabric di Appian può gestire fino a 50 milioni di righe con una velocità di scrittura cinque volte superiore rispetto ai livelli della precedente release. Valentina Bernocco
Le scelte di infrastruttura IT e il conseguente impatto ambientale incidono direttamente sul risultato economico e sulla reputazione aziendale. L’analisi di Nutanix.
“Chi si allontana dall’obiettivo zero emissioni tradisce le future generazioni”, ha dichiarato recentemente il Segretario all’Energia del Regno Unito, Ed Miliband. Ciò ci ricorda che la responsabilità climatica non può essere rimandata al prossimo ministro, al prossimo ciclo di bilancio o affidata esclusivamente ai governi. Nella regione Emea la pressione cresce un po’ ovunque. La capacità dei data center ha già superato i 24 gigawatt nei principali mercati, come Francoforte, Londra, Amsterdam, Parigi e Dublino, segnando un aumento del 21% su base annua, trainato principalmente dai carichi di lavoro legati all’AI e all’utilizzo intensivo di dati. Secondo l’Agenzia Internazionale dell’Energia, il consumo di elettricità dei data center dell’Unione Europea rappresenta oggi tra i 55 e gli 80 terawattora all’anno, pari a oltre il 2% della domanda elettrica complessiva del blocco UE. L’agenzia avverte, inoltre, che il consumo energetico dei data center potrebbe più che raddoppiare entro il 2030, spinto dai carichi di lavoro dell’intelligenza artificiale.
La reazione di governi e aziende I governi stanno iniziando a reagire. La direttiva aggiornata dell’UE sull’efficienza energetica entrata in vigore nel 2023 impone ai grandi data center di rendicontare il consumo energetico, l’utilizzo dell’acqua e la quota di rinnovabili. È un segnale
chiaro: le aziende non possono più considerare la sostenibilità solo come un indicatore interno o uno strumento di marketing. Al contrario, essa deve diventare un parametro di performance regolamentato. Nonostante il 30% delle grandi aziende quotate in Europa abbia preso impegni per raggiungere l’obiettivo net zero, solo circa il 5% è effettivamente sulla buona strada per rispettarli. Il divario tra ambizione ed esecuzione è ampio. Le imprese che traggono vantaggio dalla trasformazione digitale devono anche essere trasparenti riguardo al suo impatto ambientale, soprattutto perché l’AI accelera notevolmente la domanda di infrastrutture. Ciò significa superare i proclami generici e concentrarsi sui dettagli

concreti, per esempio dove vengono eseguiti i carichi di lavoro, come viene consumata l’energia e se esistono strumenti per fare meglio.
Risultati e fiducia
Le scelte infrastrutturali ed energetiche non influenzano solo l’ambiente ma incidono direttamente sul risultato economico e sulla reputazione del marchio. Integrare efficacemente strategie Esg attraverso efficienza energetica, ottimizzazione delle risorse e innovazione dei processi significa incrementare il profitto operativo. Vi è inoltre un vantaggio finanziario e reputazionale nel rendere autentica qualsiasi strategia Esg. Secondo la “Global Institutional Investor Survey 2024” di EY, l’85% degli investitori istituzionali ritiene che il greenwashing sia in aumento e il 92% sostiene che gli sforzi Esg, per essere credibili, debbano essere collegati a risultati a breve termine. Per questo motivo, il 76% di essi afferma che i dati Esg necessitano di una verifica indipendente per costruire fiducia. Nella regione Emea alcuni studi hanno confermato che le aziende con credenziali Esg più solide godono di una redditività e di una valutazione di mercato significativamente migliori, dimostrando che la sostenibilità è una scelta non solo etica ma anche strategica. Nelle nostre attività e attraverso la tecnologia che forniamo, adottiamo misure per garantire che la sostenibi-

lità non sia un ripensamento bensì un principio di progettazione. Ad esempio, nell’anno fiscale 2024, il 73% dell’energia utilizzata nei nostri data center interni proveniva da fonti rinnovabili, in aumento rispetto al 68% dell’anno precedente. Tale risultato non è frutto del caso. Abbiamo trasferito i carichi di lavoro a fornitori con pratiche più efficienti in termini di gestione di energia e acqua nell’ambito della pianificazione dei contratti di locazione dei data center, e inoltre abbiamo continuato a investire in certificati di attribuzione energetica per supportare l’uso di fonti rinnovabili.
Tecnologie per la sostenibilità
Ma la nostra responsabilità non si limita alle attività interne. I nostri clienti, in tutta l’area Emea e non solo, affrontano le stesse pressioni tra cambiamenti normativi, aumento dei costi energetici e crescita dell’infrastruttura per l’AI. Per questo Nutanix Cloud Infrastructure è progettata non solo per migliorare le prestazioni e semplificare le operazioni, ma anche per supportare un impatto ambientale concreto. I clienti che hanno condiviso le loro esperienze hanno riportato, in media, una riduzione del 70% dell’ingombro hardware fisico e un taglio del 50% nel consumo energetico passando da un’architettura tradizionale a tre livelli basata su San alla nostra infrastruttura.
Anche la visibilità e i dati sono fondamentali. Senza una comprensione di ciò che l’infrastruttura sta facendo e consumando, le possibilità di una reale ottimizzazione sono scarse. Ad esempio, la nostra funzionalità Power Monitor, introdotta due anni fa, fornisce agli utenti metriche dettagliate sull’uso di energia e potenza a livello

di nodo e di cluster. Questo consente ai team IT di prendere decisioni informate sul posizionamento dei carichi di lavoro e sull’efficienza energetica, invece di basarsi su ipotesi. Abbiamo, inoltre, favorito scelte più intelligenti grazie alla flessibilità. Supportando il riutilizzo di server certificati esistenti e consentendo aggiornamenti incrementali, la nostra piattaforma aiuta le aziende a prolungare la vita dell’hardware, a evitare cicli di sostituzione non necessari e ad allinearsi agli obiettivi dell’economia circolare.
Una sfida culturale e operativa Strumenti, dati e strategie per rendere l’infrastruttura più intelligente, trasparente ed efficiente esistono già. La sfida è di natura culturale e operativa: le aziende possono integrare la sostenibilità come parte centrale della loro strategia IT invece di considerarla un semplice adempimento normativo? Ciò che è chiaro è che
un avanzamento significativo richiede più del semplice allineamento alle policy o di nuovi framework di rendicontazione. Le aziende devono assumere il controllo di ciò che possono influenzare direttamente: i sistemi che gestiscono, l’energia che consumano e le modalità di scalabilità della loro infrastruttura. Il principio è semplice, ma spesso trascurato: la sostenibilità dev’essere progettata all’interno delle operazioni, non aggiunta in seguito. E sebbene il punto di partenza di ciascuna azienda possa variare, la direzione da seguire dovrebbe essere la stessa. Un’infrastruttura più intelligente e trasparente, supportata dai dati, definirà i leader di mercato di domani. Non perché lo imponga la normativa ma perché resilienza, prestazioni e sostenibilità sono ormai strettamente interconnesse.
Sammy Zoghlami, senior vice president Emea di Nutanix
Acronis prevede un nuovo anno di ransomware, phishing potenziato dall’AI e attacchi rivolti ai fornitori di servizi gestiti.
Nel mercato della cybersicurezza il cambiamento è la costante: le esigenze delle aziende utenti sono in continua evoluzione, mentre l’offerta dei vendor si muove per stare un passo avanti agli attaccanti. Acronis punta sulla proposta di una piattaforma unificata e integrata, come ci ha raccontato Denis Cassinerio, senior director & general manager South Emea.
Come sta cambiando la domanda di cybersicurezza?
Il 2025 ha messo in chiaro un dato significativo: i clienti non sono più disposti ad affidarsi a strumenti isolati. Richiedono una protezione informatica integrata, in cui backup, rilevamento e risposta (Edr ed Xdr), disaster recovery, sicurezza della posta elettronica e compliance convivano all’interno di un’unica piattaforma, con l’automazione che consente di semplificare le attività operative quotidiane. Si osserva un cambiamento nei criteri di acquisto: oggi in cima alle priorità figurano efficienza operativa e resilienza. I team sono sotto organico, gli attacchi più rapidi e le pressioni normative (come quelle legate alla direttiva NIS2) sono sempre più intense. Di conseguenza, le organizzazioni scelgono piattaforme in grado di ridurre la complessità e accelerare i tempi di ripristino. È in questa direzione che si è sviluppata la nostra roadmap di prodotto: gestione da una console unica, assistenza basata su AI
per ridurre il carico di segnalazioni e funzionalità di recovery integrate.
Che anno è stato, finora, il 2025 di Acronis in Italia?
L’Italia sta superando la media europea in termini di crescita e adozione di soluzioni di sicurezza. Su base annua abbiamo registrato un incremento del 46% dei ricavi ricorrenti annuali, del 26% nel numero di clienti, del 39% nei workload fatturabili e del 135% nei workload di advanced Edr, con un incremento del 6% dei service provider attivi. L’Italia si posiziona sopra la media europea in tutti

Denis Cassinerio
questi indicatori, confermando che la transizione dal “solo backup” alla protezione informatica completa è ormai consolidata in questo mercato.
Su quali selling point state facendo leva?
Tre elementi chiave, molto chiari. Primo punto: un’unica piattaforma, meno console. Backup, Edr/Xdr, disaster recovery e protezione di email e dati in un flusso operativo integrato. Questo approccio riduce i costi di gestione e accelera i tempi di risposta. Il secondo elemento è la sicurezza orientata al recovery.
Rilevare e contenere le minacce è fondamentale, ma lo è altrettanto ripristinare rapidamente l’operatività perché il rischio per il business si misura in termini di tempi di fermo. Terzo punto, automazione e AI integrate. Workflow a basso codice su tutta la piattaforma e compatibili con strumenti di terze parti; soluzioni che includono spazio di archiviazione in cloud per garantire una gestione più stabile dei costi operativi. A ciò si aggiungono data center regionali – il nostro è a Roma – e controlli in linea con la NIS2 e con Dora, a garanzia di sovranità e conformità dei dati.
L’AI agentica può essere un’ulteriore arma in mano ai cybercriminali? E viceversa, che ruolo ha per Acronis?
Sì, i sistemi agentic riducono significativamente i costi di attività come

Il futuro dei fornitori di servizi gestiti dipende dall’intelligenza artificiale: questa la visione di Acronis, raccontata sul palco dell’evento “Msp Global 2025” di Tarragona, in Spagna. Dall’attuale competizione usciranno vincitori i Managed Service Provider che usano l'automazione basata su AI, ottenendo incrementi di produttività e una crescita di ricavi più rapida, valutazioni maggiori sul mercato e una capacità di rapida integrazione. L’intelligenza artificiale già oggi può farsi carico delle quotidiane attività a scarso valore aggiunto di un Msp, come la gestione delle patch e delle versioni dei software, i controlli sullo stato degli endpoint, le analisi dei log, le verifiche di backup, le scansioni antivirus. “Non c’è ragione per cui un tecnico debba continuare a perdere tempo con queste attività”, ha commentato l’amministratore delegato, Ezequiel Steiner. A detta di Acronis, appoggiandosi all’AI i fornitori di servizi gestiti possono ridurre del 29% il tempo di completamento dei task e del 30% il tempo di risoluzione degli incidenti di security. Inoltre l'accuratezza del loro lavoro migliora del 35%. “Dopo la pandemia, la competizione è diventata globale: i vostri competitor hanno clienti in tutto il mondo”, ha osservato il presidente di Acronis, Gaidar Magdanurov “Le persone sono in burnout e trattenere i talenti è diventata la sfida numero uno”. Magdanurov ha spiegato che oggi per un Msp l'automazione tradizionale non è più una efficace risposta, perché si applica bene a task ripetitivi, ma “se non viene supervisionata e si esce dallo script, il disastro è dietro l’angolo”. L’intelligenza artificiale, di contro, ci permette davvero di “hackerare la produttività” e soprattutto permette alle persone di “reclamare” per sé la creatività, di sgravarsi dal lavoro di routine per dedicarsi ad attività di formazione e innovazione.
reconnaissance, spear-phishing e adattamento di malware “sufficientemente efficaci”.
Si sono già visti casi di estorsione in cui è stato utilizzato il voice cloning basato su AI: quindi chi difende le reti deve partire dal presupposto che una parte della kill chain sia ormai automatizzata. All’interno della nostra piattaforma, l’AI ha un approccio pragmatico: serve a ridurre gli alert irrilevanti, accelerare la correlazione degli eventi, guidare la risposta e automatizzare il recovery. Gli esperti restano sempre coinvolti nelle decisioni strategiche e nelle azioni a maggiore impatto, mentre l’AI si occupa dei compiti ripetitivi, consentendo ai professionisti di concentrarsi sulle decisioni che contano davvero.
Che cosa vi aspettate per il 2026?
Tre tendenze da osservare con attenzione. Numero uno: phishing e social engineering potenziati dall’AI. Resta-
no la principale via di accesso iniziale negli ambienti degli Msp, i fornitori di servizi gestiti: oggi rappresentano

il 52% dei casi, con un aumento significativo rispetto all’anno scorso. È prevedibile un ulteriore passo avanti nella personalizzazione e nella capacità multilingue degli attacchi. In secondo luogo, la pressione costante del ransomware.
Le campagne di doppia estorsione sono in crescita e le finestre di esecuzione si riducono sempre di più. La Threat Research Unit di Acronis nel suo report sul primo semestre 2025 ha rilevato un incremento del 70% delle vittime pubblicamente note rispetto ai due anni precedenti. Il parametro davvero rilevante diventerà la resilienza: non solo la capacità di bloccare l’attacco, ma soprattutto i tempi di ripristino dell’operatività. La terza tendenza da osservare è la crescente esposizione di email, SaaS e supply chain degli Msp. È qui che oggi si concentra la leva per gli attaccanti, che tendono a colpire dove l’impatto potenziale è più elevato. V.B.
Cloudera promuove una piattaforma che non crea vincoli di infrastruttura e che aiuta ad accelerare nell’intelligenza artificiale.
Inutile pensare ai casi d’uso di intelligenza artificiale se prima non ci si è occupati dell’infrastruttura, il che può significare metter mano all’hardware, al software e soprattutto ai dati. Il cloud, venduto fino a pochi anni fa come l’unico futuro possibile per le piccole, medie e grandi aziende, si trova oggi a contendere con un almeno parziale ritorno all’on-premise, mentre nel contempo aumenta il volume di dati prodotti nell’edge (smartphone, robot, oggetti connessi, sensori). Quale che sia la scelta, Cloudera c’è. La sua piattaforma dati, svincolata dall’infrastruttura sottostante, è un passaporto per spostarsi tra un mondo e l’altro, cioè tra on-premise, cloud pubblico e privato ma anche tra un fornitore e l’altro. Oggi, nell’evoluzione tecnologica dominata dall’intelligenza artificiale, questa indipendenza è più importante che mai. “Cloudera è interessante per le aziende

perché la nostra piattaforma AI è indipendente dall’infrastruttura”, ha spiegato alla stampa Fabio Pascali, regional vice president Italia, Grecia, Cipro e Malta. “Può essere usata in cloud pubblico, in un cloud sovrano come quello di Aws o altrove: è una AI everywhere. Se si cerca un’AI sovrana, possiamo realizzare tutta la piattaforma all’interno del perimetro del cliente, sia nel training sia nell’esecuzione dei modelli”.
Il cloud pubblico, di contro, comporta vantaggi di semplicità e velocità per l’avvio di nuove implementazioni, e può rappresentare la soluzione migliore se si lavora su dati non sensibili oppure nei proof-of-concept. Niente vieta di modificare l’infrastruttura sottostante in un secondo momento, che si tratti di passare all’on-premise, al cloud privato o a un diverso fornitore: in quanto “agnostica”, la piattaforma di Cloudera crea i presupposti per una facile exit strategy.
Costi, dati e sicurezza
Nel valutare la migliore scelta di infrastruttura IT, le aziende mettono in primo piano la sicurezza, l’accessibilità ai dati e i costi: così evidenzia lo studio di Cloudera, “The Evolution of AI: The State of Enterprise AI and Data Architecture”, basato su oltre 1.500 interviste a responsabili IT aziendali. La metà del campione ha espresso timori per possibili fughe di dati durante l’addestramento dei modelli di AI, e preoccupano anche il rischio di accessi non autorizzati ai dati (per il 48% degli intervistati) e l’uso di strumenti
AI di terze parti non sicuri (43%). La stragrande maggioranza, comunque, è fiduciosa in merito alla propria capacità di proteggere i dati transitanti dai sistemi AI in uso. Anche il tema dei costi dell’AI è in cima alle preoccupazioni, ed è facile intuire perché: alcuni dei modelli di consumo dei servizi di AI (come il calcolo per token) tendono a nascondere inizialmente l’impatto finanziario dei progetti ma poi, con l’utilizzo, i costi esplodono. “La domanda che oggi ci pongono i clienti non è tanto ’che cosa mi serve?’ ma ’quanto mi costa?’”, ha testimoniato Pascali. “C’è una spinta molto forte sul capire dove sia conveniente un servizio di public cloud, aperto, e dove un servizio di private cloud”. “Ancora oggi è difficile fare un’analisi adeguata separando il costo dell’AI dai benefici, ma le valutazioni in merito si stanno raffinando”, ha osservato Yari Franzini, group vice president Southern Europe di Cloudera. “Il business, ancor più rispetto al passato, guida i progetti e indirizza le scelte”. Con Cloudera, ha sottolineato il manager, è possibile movimentare dati e workload in modo flessibile, senza la necessità di programmare, scrivere o riscrivere codice. “L’ottimizzazione dei costi”, ha proseguito Franzini, “è data dal fatto di poter condividere l’infrastruttura AI su più casi d’uso. Inoltre c’è anche un vantaggio di time-to-market rapido, quindi un vantaggio competitivo, legato all’open source”. Per quanto riguarda gli ostacoli di natura tecnica, l’indagine di Cloudera ha fatto emergere problemi di integrazione dei dati (citati dal 37% del campione), di prestazioni dello storage (17%) e di potenza di calcolo disponibile (17%). Inoltre solo il 9% delle organizzazioni ha dichiarato che tutti i propri dati sono disponibili e utilizzabili per le applicazioni di AI.
Valentina Bernocco

Nel 2026 diventa obbligatoria l’integrazione tra terminali di pagamento e registratori telematici. La risposta di A-Tono.
L’obbligo sta per scattare: gli esercenti titolari di registratori telematici che emettono corrispettivi elettronici dal 1° gennaio 2026 dovranno integrare tali registratori con i propri terminali di pagamento e registratori telematici, come previsto dalla Legge di Bilancio 2025 (L. 207/2024). In Italia, come altrove, soprattutto negli ultimi due anni la transizione verso i pagamenti elettronici ha accelerato, tant’è vero che le carte e gli strumenti digitali hanno progressivamente sorpassato il contante per numero di transazioni, mentre il segmento dei pagamenti da smartphone sta registrando tassi di crescita a doppia cifra. Non a caso, secondo Il mercato italiano dei Pos (point of sale) genera diverse centinaia di milioni di euro in ricavi annui, con previsioni di crescita a tassi annuali composti nell’ordine del 10-13% nei prossimi cinque anni. A trainare la crescita non sarà solo il progressivo rinnovo del parco hardware e software, ma anche la citata evoluzione normativa, che rende obbligatoria l’integrazione tra terminali di pagamento e registratori telematici. In pratica, diventerà ineludibile il collegamento tra Pos e registratori di cassa, per migliorare la tracciabilità dei pagamenti e automatizzare maggiormente la trasmissione dei corrispettivi fiscali all’Agenzia delle Entrate.
Un punto cassa “all-in-one”
In questo contesto, si colloca la recente disponibilità di DropPos/Rt, sorta
di punto cassa all-in-one, progettato e realizzato dall’italiana A-Tono. “Si tratta di un dispositivo omologato dall’Agenzia delle Entrate, che poggia sulla convergenza funzionale del classico SmartPos, del registratore telematico con modulo fiscale hardware, della stampante integrata e della capacità di trasmettere i corrispettivi alla stessa Agenzia delle Entrate”, ha detto Orazio Granato, Ceo di A-Tono. Dal punto di vista dell’utente, cambierà relativamente poco, salvo non dover più attendere la consegna separata dello scontrino fiscale e della ricevuta di avvenuto pagamento elettronico. I rivenditori e commercianti potranno beneficiare di un singolo terminale in grado di mettere documenti commerciali, predisporre e sigillare i riepiloghi giornalieri (Dgfe/memoria di riepilogo) e gestire la trasmissione automatica dei corrispettivi fiscali, senza ricorrere a periferiche esterne o a un doppio dispositivo.
Dal piccolo al grande
Come ogni cambiamento imposto da una normativa, anche questo avrà inevitabilmente un costo a carico degli operatori commerciali. Se le grandi catene della Gdo sono in una certa misura già allineate all’evoluzione di prossima obbligatorietà, non altrettanto si può dire per i negozi e i piccoli attori, che solo da poco hanno digerito la progressiva digitalizzazione delle modalità di pagamento. Per questo, A-Tono propone DropPos/

Rt in almeno due configurazioni, una “light” pensata per chi vuole una soluzione compatta che abiliti tutte le funzioni di cassa e chiusura fiscale, e una “advanced”, che permette di collegare periferiche esterne (stampanti aggiuntive, display di cliente, cassetti portadenaro e altro). Questa scala di opzioni mira a coprire dai piccoli punti vendita fino a installazioni retail più complesse. “Siamo in grado di coprire l’intera filiera, dal gestore terminali al registratore telematico fino all’acquiring, compresa la possibilità di gestione del servizio attraverso il proprio istituto di pagamento vigilato”, ha detto Granato. “Questo approccio end-to-end mette l’azienda in condizione di offrire integrazioni verticali, aggiornamenti e servizi di compliance centralizzati, riducendo la frammentarietà tipica degli ambienti in cui Pos, Rt e servizi di acquiring sono forniti da soggetti diversi. Al contrario dei nostri competitor, non partiamo dall’hardware, bensì dal pagamento per integrare la fiscalità”. Fondata nel 2000 a Catania, A-Tono oggi conta quattro sedi e ha un organico di circa 180 persone. Roberto Bonino
Le nostre piccole e medie imprese non vogliono restare indietro nella corsa verso l’ultima frontiera tecnologica: parola di Salesforce.
Recentemente si è tenuto a San Francisco “Dreamforce”, l’evento annuale di Salesforce dedicato a partner, clienti e analisti. Con una partecipazione che ha superato le 50mila presenze fisiche e un milione di persone connesse in streaming, le giornate sono trascorse tra numerose presentazioni, discorsi motivazionali e analisi tecniche e di mercato. La delegazione italiana ha mostrato un forte coinvolgimento, contando circa 130 partecipanti da 90 aziende chiave, tra cui Pirelli, Ferrovie dello Stato, Lavazza e Unicredit, a riprova di un forte interesse da parte delle nostre imprese. La tematica dominante è stata, com’era facile attendersi, l’integrazione dell’Agentic AI nelle grandi aziende. Una tecnologia, per Salesforce, incarnata dalla piattaforma Agent Force 360. Nella visione della multinazionale, l’intelligenza artificiale non è un’aggiunta isolata, ma un elemento integrato in tutti i processi di piattaforma, che spazia dalla gestione delle vendite e del marketing al customer service. Il fattore distintivo di Salesforce risiede nell’approccio build-in: gli agenti AI sono già precostruiti e formati all’interno dei flussi operativi, sollevando le aziende dalla necessità di costruire l’infrastruttura da zero.
Non solo grandi aziende
Contrariamente alla percezione, molto diffusa nel mercato, che questi strumenti siano accessibili solo alle grandi
aziende, Salesforce ha una profonda storia nel servire le piccole e medie imprese. In Italia, la fascia di mercato denominata Commerciale (aziende da 200 a 1200 dipendenti) e quella dello Small Medium Business (sotto i 200 dipendenti) sono i segmenti che stanno registrando la crescita più rapida, con un incremento a doppia cifra nelle realtà più piccole. Il segmento, ci svela Vanessa Fortarezza, senior vice president & country general manager per l’Italia, cresce così velocemente che il Ceo di Salesforce ha ordinato un piano di assunzioni di grande portata per gestirne le potenzialità. L’uso che si fa degli strumenti Salesforce in queste realtà più piccole è abbastanza diverso

da quello che siamo abituati a vedere nelle grandi aziende, ma i risultati sono comunque importanti. Le Pmi, infatti, tendono a preferire un utilizzo della piattaforma più standardizzato e meno personalizzato, che non richiede la riprogettazione complessa dei processi tipica delle grandi utility. Il beneficio viene dall’automazione di processi comuni ma time consuming, che migliorano di molto l’efficienza dei dipendenti. Ovviamente, maggiore è la competenza nell’usare e mettere a frutto questi strumenti, maggiori sono i benefici e per questo l’azienda si impegna nel territorio, organizzando roadshow locali con i propri partner per avvicinare gli imprenditori e presentare la propria tecnologia. Per Salesforce, l’adozione di questi strumenti è vitale per la competitività futura delle Pmi italiane. Gli imprenditori devono esercitare un “ascolto attivo” verso questa tecnologia dirompente: chi non si adegua all’efficientamento rischia di essere superato da concorrenti più avanzati e produttivi, finendo per sparire dal mercato.
Le ambizioni per l’Italia
In termini di strategia, la filiale italiana punta a mantenere una crescita a doppia cifra e ha l’ambizione di diventare un mercato di primo livello per fatturato entro l’anno fiscale 2028, allineandosi a mercati come Regno Unito, Francia e Germania. I motori principali di questa espansione saranno l’AI, i ser vizi di gestione dell’IT (IT Service Management) integrati in Slack, e i servizi sul campo. Inoltre, il modello di licenza si sta evolvendo da un conteggio basato sul numero di postazioni a un modello basato sul consumo, dove il costo è legato alle azioni effettive compiute dagli agenti.
Giancarlo Calzetta

All’evento SfsCon 2025 si è parlato di open source come via di fuga dai vincoli delle Big Tech e come scelta civica.
Si sente parlare sempre più spesso, nelle aziende, di open source e di software libero. La molla più gettonata al momento è quella della sovranità tecnologica, citando i progetti “aperti” come una delle possibili vie da seguire per riguadagnare un po’ di libertà dai lacci che al momento ci legano alle multinazionali hi-tech. Non sappiamo ancora se questa sia davvero la via da seguire, ma intanto ben vengano le iniziative come “SfsCon”, la convention del software libero del Sud Tirolo, ormai giunta alla venticinquesima edizione. Organizzato come da tradizione a Bolzano, presso il Noi Techpark, è un evento dal taglio internazionale che quest’anno ha attirato oltre mille partecipanti e più di 150 esperti provenienti da tutta Europa.
La conferenza è stata inaugurata dal keynote speech di Karen M. Sandler, direttrice esecutiva della Software Freedom Conservancy, e si è poi articolata su diversi track che spaziavano dall’open hardware fino alla cybersecurity, passando per l’intelligenza artificiale, l’etica, la salute,
l’automazione, la sovranità digitale, la formazione, la cultura, i data spaces e lo sviluppo software. Con l’entrata in vigore dell’AI Act europeo, l’evento ha concentrato l’attenzione sulle scelte tecnologiche intese come scelte civiche e ha offerto un contesto per comprendere come progettare e gestire sistemi di AI in modo trasparente e conforme, evidenziando il ruolo del software libero nel favorire audit indipendenti e nel ridurre il lock-in.
Dalla sanità alla cyber resilienza La trasparenza del codice è stata discussa come precondizione di sicurezza ed equità clinica, con Karen M. Sandler che ha offerto un’attenzione specifica alla medicina di genere. Martin Häuer della Open Source Imaging Initiative (OSI²) ha trattato il tema dei dispositivi medici come potenziali beni comuni, proponendo di ridurre le barriere d’accesso e di creare percorsi di qualità verificabili. La resilienza e la sovranità digitale, con un focus sull’Europa, sono state affrontate dalla software engineer e attivista Valerie Aurora , che ha illu-

strato come il software libero abiliti l’autonomia tecnologica, l’interoperabilità e il controllo locale dei dati. Un intero track è stato realizzato in collaborazione con FediForum, l’ecosistema di riferimento per i social network decentralizzati, concentrandosi sul Fediverso. Si tratta di un grande social network basato su standard aperti, che permette ai servizi di dialogare tra loro e che punta a restituire agli utenti il controllo su identità e contenuti.
Hackathon per innovare e crescere Oltre ai talk e ai workshop tematici, “SfsCon” ha ospitato l’Hacking Village, uno spazio interattivo con showcase dedicati alla cultura della libertà digitale. Un’iniziativa centrale è stata il Noi Hackathon SfsCon Edition, una gara di 24 ore in cui team multidisciplinari sono stati chiamati a ideare e prototipare soluzioni “aperte” in risposta alle sfide lanciate dalle aziende. La conferenza si è conclusa con il gran finale dell’ hackathon, che ha incluso le presentazioni dei progetti e la successiva proclamazione del team vincitore. Tra le attività collaterali, si è tenuto il laboratorio “EndOf10”, realizzato con le community Fuss e Lugbz. L’iniziativa ha permesso la rigenerazione di dieci computer considerati “a fine vita” tramite l’installazione di GNU/Linux, per poi donarli ai partecipanti. Inoltre, Wikimedia Italia ha organizzato un mapping party. Al momento della chiusura, si è capito quanto il movimento open source possa contribuire, con la sua energia, a uno sviluppo “sano” del mondo digitale. Lunga vita a chi ha ancora voglia di mettere i propri principi “umani” a capo del progresso tecnologico. G.C.
Il focus sull’AI è più forte che mai. L’occasione per ribadirlo, per Kyndryl, è stata l’inaugurazione della nuova sede di Milano, con la quale l’azienda taglia idealmente il cordone ombelicale con Ibm (dopo lo spin-off del 2021). Uffici ampi, moderni, nel cuore pulsante della città e vicini alle sedi delle più importanti società di consulenza. “Il nuovo headquarter è un passo concreto nel nostro percorso di crescita e trasformazione: qui rafforzeremo il valore dell’ecosistema per favorire la diffusione dell’innovazione”, ha commentato Paolo Degl’Innocenti, presidente di Kyndryl Italia. “Quando siamo nati potevamo contare su circa 1.600 persone. Dal 2021 a oggi il nostro organico si è ampliato con circa 1.000 nuovi professioni-
sti, che hanno portato competenze ed esperienze complementari al nostro portfolio”. Il nuovo corso di Kyndryl comincia, e non poteva essere altrimenti, con un focus sulle soluzioni legate all’intelligenza artificiale e

Paolo Degl’Innocenti
A novembre, Milano è stata teatro di “Imagine Italy: Changing the Game”, l’appuntamento annuale organizzato da Ericsson Italia, ormai un riferimento per l’ecosistema delle telecomunicazioni. L’evento ha riunito rappresentanti di operatori, industrie, istituzioni e partner tecnologici, con l’obiettivo di condividere visioni e stimolare nuove collaborazioni per accelerare la realizzazione delle infrastrutture digitali di cui l’Italia ha bisogno. Dagli interventi è emerso un messaggio chiaro: la connettività mobile avanzata rappresenta oggi una priorità strategica per il Paese. La transizione verso reti di nuova generazione, caratterizzate da alte prestazioni e maggiore programmabilità, è una condizione indispensabile per soste-
nere la trasformazione digitale dell’economia italiana. Il 5G Standalone è il motore di tutto ciò: una vera e propria piattaforma di innovazione capace di rivoluzionare modelli di business e processi industriali, abilitando servizi a valore aggiunto fon-

alla loro adozione responsabile: un obiettivo di particolare rilevanza per l’azienda, che in questa direzione ha recentemente annunciato funzionalità che arricchiscono il Kyndryl Agentic AI Framework e accelerano l’adozione dell’AI su larga scala in diversi settori. “In particolare”, ha detto Degli’Innocenti, “stiamo studiando come gli agenti possano essere funzionali ad ambienti mainframe complessi. Per questo possiamo sfruttare i diversi nostri centri di competenza nel mondo, gli AI Innovation Lab, tra cui quello di Liverpool, con cui c’è scambio continuo”. Nella seconda edizione del “Kyndryl Readiness Report”, che ha coinvolto 3.700 C-Level in 21 Paesi, per il 90% degli intervistati l’AI è centrale per lo sviluppo della propria azienda. Ma ci sono due fattori limitanti: un gap tecnologico, con infrastrutture obsolete o mal gestite, e un tema culturale (solo uno su tre crede che la forza lavoro sia già in grado di sfruttare la potenza l’AI). E.M.
dati su bassa latenza, elevata capacità di uplink, sicurezza e resilienza. “La connettività mobile avanzata è la chiave per la crescita economica e industriale del Paese”, ha dichiarato Andrea Missori, presidente e amministratore delegato di Ericsson Italia. “Il 5G Standalone segna il passaggio da un modello di rete best-effort, uguale per tutti, a un modello sartoriale, capace di adattarsi alle esigenze specifiche di ciascun servizio”. Come evidenziato durante i lavori, l’intelligenza artificiale generativa e dei sistemi autonomi connessi sta ridefinendo il ruolo stesso delle reti mobili. Se finora l’attenzione si è concentrata principalmente sul downlink, in futuro sarà protagonista l’uplink, ossia la trasmissione dei dati verso la rete. Veicoli, robot, dispositivi industriali, occhiali intelligenti e agenti AI produrranno e invieranno enormi quantità di informazioni in tempo reale, richiedendo reti 5G Standalone e, in prospettiva, 6G. E.M.

Dalle smart city agli stadi: Milestone amplia i confini dell’analisi video, abbinata a biometria e AI.
Non soltanto sicurezza e controllo degli accessi: la videosorveglianza ha esteso i propri confini in ambiti che spaziano dalle smart city al retail, dall’industria dello sport alla sanità. Ne è esempio Milestone Systems, azienda che da 27 anni opera nel settore del software per la gestione video. A XProtect, software installabile on-premise, si è affiancato Arcus, un sistema basato su cloud, per aziende o contesti più piccoli. Da un paio di anni Milestone ha avviato una trasformazione del proprio modello di business, anche tramite acquisizioni. Nel 2024 ha comprato BriefCam, azienda specializzata nell’analisi video basata su intelligenza artificiale: la sua tecnologia aiuta, per esempio, nella gestione del traffico automobilistico o nello studio delle esperienze dei consumatori nei punti vendita. Quest’anno c’è stata, poi, l’acquisizione di Brighter AI, startup tedesca specializzata nella anonimizzazione dei dati personali identificabili (come volti e targhe automobilistiche): con una tecnica chiamata Deep Natural Anonymization si garantisce che i dati originali non possano essere abbinati a nessuna immagine esistente su Internet. Una soluzione utile per la conformità al regolamento europeo sull’intelligenza artificiale, l’AI Act.
Genova in prima linea
In collaborazione con Nvidia , la primavera scorsa Milestone ha lanciato Project Hafnia: un’iniziativa tesa a
creare una piattaforma per l’addestramento di modelli di Visual AI. L’investimento iniziale si concentra specificamente sui dati relativi al traffico per il training di modelli in grado di riconoscere diverse tipologie di veicoli, persone, colori, semafori o incidenti. Dopo un primo progetto pilota negli Stati Uniti, quest’anno è stato siglato un accordo con la città di Genova. Sono stati finora raccolti circa 1,2 petabyte di dati sul traffico, corrispondenti a ore e ore di intersezioni e a milioni di veicoli, attraverso le circa duemila telecamere di videosorveglianza già in funzione in città. Il compito più imponente, attualmente in corso, consiste nel catalogare, affinare e anonimizzare questa mole di dati. Aspetti cruciali, Milestone non preleva i dati grezzi dell’utente finale e l’addestramento è condotto esclusivamente sui dati anonimizzati. Per garantire la sovra-

nità europea, l’archiviazione avviene in un data center ubicato nei Paesi Bassi e gestito da un fornitore europeo. Una volta perfezionato il modello, Milestone restituirà a Genova dati sulle dinamiche di traffico, gli orari di punta e le operazioni complesse legate al porto.
La Visual AI applicata alla società Il progetto permetterà non solo di migliorare i modelli AI interni di Milestone, ma consentirà ad altri fornitori tecnologici di accedere a dati europei sul traffico, facilitando lo sviluppo di applicazioni per smart city e ottimizzazione della viabilità. Una volta che il modello di traffico sarà completamente maturo, il suo impiego potrà essere esteso ad altri settori: all’interno di scuole, ospedali, hotel, stadi, potrà aiutare a ottimizzare servizi di vario tipo e a compensare le carenze di personale. Negli ospedali, per esempio, i modelli possono identificare in tempo reale se un paziente cade dal letto, allertando gli infermieri tramite tablet o telefono. L’AI può essere anche usata in indagini delle forze dell’ordine, per esempio per identificare schemi di spaccio di droga, tramite analisi rapida di lunghe registrazioni (il sistema può processare in mezzo minuto un video di 24 ore). Un caso interessante è quello dei Giochi Olimpici di Parigi dello scorso anno: Milestone ha sviluppato un modello AI che avvisava, in tempo reale, il personale della sicurezza se gli spettatori si muovevano contro il flusso principale nelle aree ad alto traffico. Inoltre, sono state create delle “linee virtuali” da non attraversare laddove non era possibile installare recinzioni fisiche, anche in questo caso con alert in tempo reale. G.C.
Le imprese italiane sono propense all’adozione dell’AI, ma si muovono con cautela. La testimonianza di Insight.
L’intelligenza artificiale è degna di fiducia? Una recente indagine di Insight racconta che il 57% delle aziende della regione Emea nutre “molta fiducia” nell’affidabilità dei sistemi di AI. Eppure, solo il 5% ha già pienamente integrato questa tecnologia nei propri processi e nel proprio modo di lavorare. In Italia il dato sale all’8%.
Di contro, da noi appena il 16% delle aziende aveva già, al momento dell’indagine, portato i progetti di adozione oltre la fase pilota. Ha commentato per noi questi dati Pietro Marrazzo, general manager per l’Europa del Sud di Insight.
Come spiegate le discrepanze tra i dati italiani e i dati di media emersi dal vostro report? In particolare, sull’AI sembriamo essere più curiosi e sperimentatori, ma più lenti nel portare a termine i progetti...
La fotografia che esce dai numeri, in un certo senso, è proprio questa. Va detto che il tradizionale divario nell’adozione tecnologica tra Nord e Sud dell’Europa sembra essere molto attenuato rispetto ai decenni passati, forse anche per via di una globalizzazione non solo delle tecnologie, ma fortunatamente anche delle competenze. E anche la disponibilità globale di tecnologie attraverso il cloud abbatte queste differenze. Le aziende italiane sono certamente tra le più curiose nel panorama europeo, e forse anche tra le più creative nell’individuare spazi
di applicazione e percorsi di adozione, anche perché sempre più vivono in contesti e mercati internazionali. Forse il leggero rallentamento nella velocità di esecuzione dei progetti potrebbe essere collegato alla situazione generale del sistema Paese: l’Italia è tra le zone cresciute meno in termini di potere reale d’acquisto all’interno dell’Eurozona negli ultimi vent’anni, e ciò probabilmente si traduce in maggiore oculatezza nelle fasi di valutazione dei progetti e relativi budget.
Quindi, per il vostro punto di osservazione, come si stanno muovendo le aziende italiane sull’AI?
Non hanno nulla da invidiare alle aziende degli altri Paesi europei. Anzi, nella categoria delle aziende di media dimensione direi che quelle italiane si stanno muovendo con rapidità e agilità, individuando casi d’uso e trovando rapidamente le risorse per finanziare i

primi progetti pilota. L’Italia in generale è un buon serbatoio di competenze, e questo aiuta le aziende – e anche noi – a reperire velocemente skill ed esperienze che poi fanno la differenza tra idee e progetti realizzati. Ricollegandoci al punto precedente, direi che le aziende italiane sono più oculate e forse un po’ più riflessive nella fase di implementazione, ma spesso arrivano a risultati che qualitativamente sono di tutto rispetto anche nei confronti degli altri Paesi.
Si opta più spesso per soluzioni “pronte all’uso” o si realizzano anche attività di sviluppo?
Riscontriamo un percorso piuttosto comune: si parte dall’adozione di strumenti più o meno pronti all’uso (a volte i sistemi sono pronti ma non è detto che lo siano anche le piattaforme dati sottostanti a disposizione dell’azienda) e man mano si individuano possibili modifiche, esigenze, integrazioni con altri sistemi o con altri flussi operativi. Da qui in poi ci si allontana dal concetto di strumento out-of the box, per avvicinarsi all’idea di logica operativa personalizzata. Un caso d’uso frequente che ha seguito questo percorso è stato quello della Generative AI: si è partiti dall’automatizzazione della lettura e della scrittura (magari per sentiment analysis o per riassunti e interpretazioni di testi) per avvicinarsi a scenari più articolati e anche di responsabilità, come


la verifica di compliance in contesti normativi complessi. E spesso si è arrivati alla creazione di veri e propri motori di ricerca semantici multimediali per specifici dipartimenti o ambienti di produzione, in grado di effettuare, all’interno della knowledge base aziendale, verifiche su documenti tecnici e progettuali, di evidenziare criticità, suggerire modifiche, proporre correzioni. Ovviamente le aziende con competenze più sviluppate passano poi con maggior autonomia e confidenza da scenari no-code a soluzioni low-code o anche più complesse.
Che tipo di accoglienza ha ricevuto l’Agentic AI?
C’è sicuramente curiosità e riconoscimento delle potenzialità, ma il passaggio da AI ad Agentic AI introduce anche un tema molto importante: la fiducia. Se l’AI generativa forniva sostanzialmente informazioni velocissime e complete su cui basare le decisioni, l’Agentic AI offre la possibilità
di delegare queste decisioni, e con esse interi processi. Il report evidenzia, a livello europeo, che solo un business leader su sei si sente confidente di poter portare “in produzione” questa delega alla decisione e all’azione. Il tema è sicuramente di interesse, comunque, soprattutto per scenari come l’elaborazione e la condivisione strutturata di informazioni, la verifica di conformità, la notifica e anche l’implementazione di correzioni o interventi che risultano necessari, la valutazione di possibili alternative.
In che settori osservate maggiori investimenti o “coraggio” sull’intelligenza artificiale? Dove, invece, gli ostacoli o le diffidenze pesano maggiormente?
Al netto di alcuni settori talmente specifici che da anni beneficiano di un percorso proprio di sviluppo (penso per esempio alla ricerca medica o scientifica), direi che i settori della logistica e della produzione hanno sicuramente grandi aspettative. Ci sono
poi alcuni scenari trasversali che toccano tutti i settori, come il miglioramento dell’efficienza delle operations aziendali o la possibilità di estendere le interazioni con i clienti ben oltre la pura AI generativa o conversazionale, creando scenari di customer care o addirittura degli interi customer journey molto più articolati e completi dove diversi agenti interagiscono tra di loro. In questo momento non vediamo un settore industriale palesemente scettico o fermo; sicuramente in aziende di grandi dimensioni l’individuazione di casi d’uso e la realizzazione di progetti potrebbe presentare maggiori difficoltà e richiedere più risorse che in aziende più piccole, ma direi che anche settori tradizionalmente più cauti o vincolati come ad esempio quello bancario stanno sicuramente mostrando segni di interesse.
Siamo quasi alla fine dell’anno: quali tendenze avete osservato sul mercato italiano in questo 2025? E che cosa vi aspettate per il 2026?
Il 2025 ha confermato una tendenza chiara: l’AI è diventata parte integrante delle strategie aziendali, ma il vero motore del cambiamento restano le persone, in particolare i business decision maker. Sono loro, con idee e visione, a immaginare nuovi modi di fare impresa. Il futuro dell’AI non si costruisce domani: si costruisce oggi, attraverso le scelte che compiamo e le collaborazioni che attiviamo. Per il 2026 ci aspettiamo un’accelerazione verso l’integrazione completa dell’AI nei processi, con soluzioni sicure, scalabili e orientate ai risultati. Noi, come Insight, siamo pronti a essere il partner di riferimento in questo percorso: dal primo progetto pilota fino alla piena adozione. V.B.

La spesa delle aziende italiane in informatica e telecomunicazioni cresce più dell’economia nazionale, con il traino dei servizi: la fotografia di Assintel.
La crescita non si ferma. Ancora una volta, per il 2025 è prevista un’espansione del mercato italiano dell’Information and Communication Technology “business”, e a dirlo è l’ultimo report annuale di Assintel, l’associazione nazionale di riferimento delle imprese Ict di Confcommercio. Dopo la crescita del 4% registrata lo scorso anno, si guarda per fine 2025 a un incremento del 4,5% sul 2024, per un valore complessivo di 44,3 miliardi di euro. Tra le incertezze economiche e geopolitiche, e con una crescita del PIL che (secondo Istat) si mantiene al di sotto dell’1%, il mercato Ict business si conferma solido, benché all’orizzonte si profilino sfide del “post PNRR”, dell’incertezza della nor-
mativa digitale e della sovranità tecnologica. Nel documento di Assintel, che integra le stime di mercato di TIG – The Innovation Group, i risultati della rilevazione sulle imprese condotta dall’Istituto Ixè e le analisi di Webidoo Insight Lab, vengono descritte le principali tendenze ed evoluzioni del mercato business delle tecnologie informatiche e dell’innovazione in Italia.
Andamenti differenziati
A spingere sono soprattutto le grandi aziende, che nel 2025 sono attese raggiungere i 23,7 miliardi di spesa in Ict, pesando per il 53,5% sul totale e registrando un incremento del 5,6% rispetto all’anno precedente. Le grandi imprese
sono anche le più attive negli ambiti a maggiore crescita, come cloud computing, cybersecurity, tecnologie Big Data e l’intelligenza artificiale. Al contrario, per il segmento delle micro e piccole imprese sono attesi tassi di crescita più contenuti, del +1,7% per le realtà con meno di dieci dipendenti e del +3,3% nella fascia 10-99. Tutto ciò, con con il rischio di un ulteriore divario tecnologico nel brevemedio periodo, supportato da una ridotta propensione a investire nelle tecnologie più disruptive (e a maggiore crescita e stimolo per il mercato).
Un altro divario si registra nella distribuzione geografica della spesa Ict delle aziende italiane: le regioni del Nord sono quelle nel complesso in più rapida



crescita, mentre quelle del Centro-Sud continuano a registrare una performance sotto la media. Per il 2025 la spesa più rilevante è quella dell’area del Nord-Ovest, che raggiunge i 17,4 miliardi di euro con un tasso di crescita del 5,1% rispetto al 2024. Interessante, d’altra parte, anche il dato del Mezzogiorno che emerge dalla rilevazione di Ixè, con una quota significativamente più elevata di imprese in quest’area intenzionate ad aumentare il budget Ict per il 2026.
Per quanto riguarda i segmenti di mercato, il più dinamico è quello relativo ai servizi IT: sono la voce attesa in maggiore crescita per il 2025, con un incremento dell’8,1% rispetto all’anno precedente e un valore complessivo di 19 miliardi di euro. Questa tendenza, da previsioni, si accentuerà nel 2026, guidata dalla spesa per i servizi professionali e consulenza, di cloud infrastrutturale e di cybersecurity. Cresce, d’altra parte anche il mercato
del software B2B, in particolare nella componente erogata in modalità cloud, che continua a cannibalizzare soluzioni tradizionali on-premise. Più stagnante invece il mercato dell’hardware, su cui pesa il passaggio a modalità di accesso alle risorse computazionali e infrastrutturali in cloud. Per quanto riguarda i dispositivi da ufficio, prevalgono tendenzialmente logiche di sostituzione. È però attesa un’accelerazione nella spesa, guidata dalla necessità di ammodernamento e ampliamento delle infrastrutture aziendali per valorizzare appieno il potenziale dell’intelligenza artificiale e delle capacità di calcolo avanzate. Sono d’altra parte proprio tecnologie come il cloud computing e l’intelligenza artificiale a mantenere tassi di crescita double-digit per il 2025, del 16% e del 35% rispettivamente. Non è un caso: sono due tecnologie strettamente collegate nella loro diffusione, laddove l’accesso e l’utilizzo di soluzioni di intelligenza artificiale portano a un ulteriore incremento nel consumo di risorse in cloud. Anche il mercato di Big Data & analytics e quello della sicurezza informatica crescono in modo significativo, rispettivamente a un tasso del 7% e del 9%.
Quello che emerge dal report Assintel è una vista nel complesso positiva del mercato Ict business in Italia, benché alcune ombre comincino ad apparire sugli sviluppi “post 2026”: dalla chiusura dell’esperienza del PNRR e dal venire meno di fonti di finanziamento che hanno avuto un ruolo importante per l’ammodernamento digitale (in particolare della Pubblica Amministrazione), all’evoluzione normativa sull’intelligenza artificiale. Inoltre i settori e gli scenari competitivi sono in trasformazione, anche alla luce dell’economia globale e degli equilibri geopolitici, che sollevano questioni di sovranità tecnologica.
Camilla Bellini

Per processi complessi come quelli di Pirelli, la tecnologia
è una vera leva di cambiamento.
Il vero valore della trasformazione digitale è spesso sfuggente, ma se un’azienda trova la strada giusta riesce a ricavarne un’accelerazione delle operazioni in ogni aspetto dell’impresa. L’aumento di fatturato e margini è quasi un effetto secondario: quello che pesa è il beneficio totale nell’operatività, nell’efficacia ed efficienza, come si vede chiaramente nel racconto di Pierpaolo Tamma, chief digital officer di Pirelli, che abbiamo avuto il piacere di incontrare durante “Dreamforce”, l’evento aziendale che Salesforce organizza ogni anno a San Francisco. Il percorso di trasformazione digitale intrapreso da Pirelli a partire dal 2019 è stato concepito non come un mero aggiornamento tecnolo-
gico, ma come un’iniziativa profondamente radicata nella ricerca di valore. L’obiettivo primario era riconfigurare il modo in cui l’azienda opera per amplificare l’efficacia del proprio modello di business. Questo modello si discosta da quello tradizionale dei produttori di pneumatici, avvicinandosi per strategia e posizionamento a quello del lusso. La chiave di volta, infatti, sono gli accordi per la coprogettazione di pneumatici per modelli specifici con case automobilistiche di fascia alta. Quando Pirelli ottiene l’omologazione per il primo equipaggiamento di un veicolo, si assicura una visibilità cruciale sulla domanda futura, consentendosi di poter prevedere le richieste di prodotto per i cicli di ricambio
successivi e fornendo una proiezione della domanda per un arco temporale che può estendersi fino a dieci o dodici anni. Il vantaggio competitivo offerto da questa strategia è preziosissimo, perché circa il 75% del fatturato totale è generato dal mercato del ricambio.
Un riprogettazione operativa
La prima fase del programma digitale si è concentrata sulla riorganizzazione e ridefinizione dei processi operativi, un’iniziativa battezzata “Integrated Operating Model”. Questa riprogettazione ha coinvolto l’intero ciclo di vita del prodotto e della vendita: dal modo in cui si vende per il primo equipaggiamento e nel mercato di ricambio, fino alla progettazione e alla produzione. Tutti i processi commerciali – dalla gestione delle opportunità, alla vendita ai costruttori auto e al mercato del ricambio – sono stati intera-

mente digitalizzati e integrati su una singola suite tecnologica, come evidenziato dall’uso di soluzioni quali Salesforce. La digitalizzazione della rete di vendita ha fornito agli agenti strumenti avanzati di market intelligence. Il sistema può, per esempio, analizzare il territorio di un rivenditore, stimando il numero e i tipi di veicoli dotati di equipaggiamento Pirelli presenti in quell’area. Questo permette di calcolare la domanda potenziale, guidando la raccomandazione sui prodotti specifici e le quantità di cui il rivenditore dovrebbe approvvigionarsi. Di conseguenza, il sistema di vendita evolve da semplice strumento di transazione a motore di raccomandazione predittiva.
Gemelli digitali per l’R&D
L’azienda sviluppa centinaia di nuovi prodotti ogni anno e la digitalizzazione mira a evitare di ricominciare ogni volta la progettazione da zero, massimizzando lo sfruttamento delle conoscenze esistenti. In questo processo, il “digital twin dello pneumatico” svolge un ruolo importantissimo. Un insieme di algoritmi di intelligenza artificiale, addestrato su un decennio di dati storici di svilup-

po, forma il nucleo del Virtual Compounder. Questo strumento propone la mescola di partenza ideale in base alle specifiche richieste. I chimici possono, poi, simulare digitalmente l’impatto di modifiche nella quantità o sostituzione di materiali. Anche il comportamento dinamico dello pneumatico viene testato in simulazioni digitali. In questo modo, i tempi e i costi di sviluppo sono stati ridotti di quasi un terzo, abbreviando i cicli di prototipazione da una media di tre a due anni. Le prove fisiche, che in precedenza erano fasi di sviluppo iterative estremamente dispendiose in termini di tempo, sono oggi, in oltre il 90% dei casi, mere conferme o fasi di rifinitura.
La gestione della complessità Il vantaggio della visibilità a 10-12 anni è stato capitalizzato anche attraverso un processo di pianificazione a lungo termine. Ogni potenziale accordo viene valutato non solo per la sua redditività immediata, ma anche per i ricavi attesi dal mercato di ricambio nei successivi dodici anni. Una piattaforma collaborativa consente di allocare l’intera domanda prevista per gli anni futuri, permettendo di individuare con cinque o sei anni di anticipo potenziali criticità nelle fabbriche. La gestione della supply chain è intrinsecamente complessa, operando su un modello local for local, con numerosi impianti e magazzini distribuiti globalmente. Questo sistema che snellisce la logistica comporta una grande complessità in fase di pianificazione e gestione: la seconda fase della trasformazione digitale, che Pirelli sta implementando in questi mesi, punta a massimizzarne l’efficienza tramite l’intelligenza artificiale. Questa tecnologia viene impiegata per ottimizzare l’allocazione dei processi e per fare simulazioni predittive, identificando precocemente potenziali problemi. Nelle fabbriche, algoritmi interni ottimizzano l’attività di pianificazione,
suggerendo, ad esempio, su quale linea produrre una nuova mescola per minimizzare gli scarti.
Le fondamenta tecnologiche
Il successo di questa trasformazione poggia su una solida architettura dei dati. Pirelli ha consolidato una singola piattaforma Big Data che aggrega tutte le informazioni, sia interne sia raccolte dal mercato, puntando a ottenerne la massima qualità: senza grandi volumi di dati di alta qualità, qualsiasi implementazione di AI fallisce o produce solo prototipi inaffidabili. Per questo è risultato vincente l’investimento in un team interno di data scientist (una quindicina) non solo per lo sviluppo di circa ottanta algoritmi già in uso, ma anche per garantire la contestualizzazione e la qualità del dato grezzo proveniente dalle macchine di fabbrica. Dal punto di vista infrastrutturale, Pirelli ha completato una migrazione totale, abbandonando i data center proprietari. Oggi, il 100% dei dati aziendali risiede in cloud, con una combinazione di hyperscaler e soluzioni Software as-aService come Salesforce.
Per il futuro, in realtà già in fase di implementazione con la citata seconda fase, Pirelli mira a intensificare l’adozione dell’AI portandola anche nel settore della ricerca. Un primo passo, per esempio, sarà quello di “insegnare” ai modelli di Virtual Compounder la fisica e la chimica dei materiali, permettendo loro di sperimentare con composti mai visti prima. Inoltre, l’azienda sta anche esplorando il potenziale del quantum computing. Attualmente, sono in corso sperimentazioni con computer quantistici simulati (su piattaforme come Aws) per affrontare gli algoritmi di ricerca operativa utilizzati nella pianificazione e nell’allocazione della supply chain.
Giancarlo Calzetta

Secondo Gartner, il 45% dei responsabili di Martech è rimasto, finora, insoddisfatto delle soluzioni di Agentic AI testate.
Il marketing è, non da oggi, uno dei campi di applicazione in cui l’intelligenza artificiale è meglio radicata, da più tempo e con casi d’uso favoriti dall’abbondanza di dati disponibili. La nuova frontiera degli agenti AI è arrivata anche qui e sembra esserci, nelle aziende, una certa curiosità. In quasi metà dei casi, però, i risultati ottenuti non soddisfano le aspettative dei responsabili aziendali coinvolti nelle iniziative. A dirlo è una nuova analisi di Gartner, basata sulle opinioni di 413 leader aziendali di area Martech (marketing technology). Nell’ambito del marketing, l’adozione dell’Agentic AI è ormai molto diffusa: l’81% delle aziende del campione sta già usando o almeno testando questa tecno-
logia. Le altre non escludono di sperimentare gli agenti AI in futuro, fatta eccezione per un piccolo 1% di intervistati che si dichiarano non interessati all’intelligenza artificiale. Tra chi ha già adottato o sta testando l’Agentic AI, l’89% dei responsabili di Martech si aspetta di ottenere “significativi benefici” in termini di business, quindi di attività commerciali, vendite e ricavi. Il 45%, però, ha detto che finora gli agenti AI utilizzati non hanno soddisfatto le aspettative. Il dato è riferito agli agenti AI proposti dai vendor e già disponibili sul mercato. Ma la colpa non è necessariamente dei vendor o della loro tecnologia: per circa metà dei responsabili di Martech, la propria azienda non è “pronta” per l’Agentic AI, per problemi che riguardano le capacità tecniche, i dati o le competenze presenti nella squadra di lavoro. Inoltre alcune aziende hanno difficoltà a sviluppare delle strategie di governance dei dati e della cybersicurezza. “Gli agenti AI hanno promesso di rivoluzionare il marketing”, ha commentato Aparajita
Mazumdar, senior principal, research marketing practice di Gartner, “ma per molti leader del Martech le soluzioni offerte dai vendor non hanno portato i risultati attesi. Per realizzare pienamente i benefici dell’AI, i direttori marketing devono anche guardare al loro interno e affrontare le proprie lacune tecniche e di infrastrutture dati”.
Un ventaglio di casi d’uso Nell’ambito del marketing, in base al sondaggio di Gartner i principali casi d’uso dell’Agentic Ai riguardano la produzione di contenuti e asset di marketing (nel 52% delle aziende del campione, considerando anche i progetti pilota), l’arricchimento di tali contenuti e asset (49%), la gestione e ottimizzazione delle campagne (43%). Esistono altri possibili casi d’uso di intelligenza artificiale agentica nel marketing, non direttamente citati da Gartner ma deducibili dalle offerte dei vendor o da altre società di analisti, come Idc: spiccano la raccolta e integrazione di dati da più

Le opportunità da cogliere, racchiuse all’interno dell’intelligenza artificiale, sono tante. Le preoccupazioni dei consumatori in merito alla privacy e all’utilizzo dei propri dati non sono scomparse. E nel frattempo lo scenario delle regolamentazioni, nazionali e internazionali, è piuttosto eterogeneo, per non dire caotico. In tutto questo, pur nel turbine dell’innovazione tecnologica (che spesso fa rima con automazione e scomparsa dell’intervento umano a favore dell’AI), le relazioni e la fiducia restano importanti. Così Snowflake tratteggia quella che, nel suo recente report “Modern Marketing Data Stack”, viene definita come la “nuova era del marketing”, segnata irreversibilmente dall’intelligenza artificiale. “Nella regione Emea e a livello globale, osserviamo come le organizzazioni di marketing stiano ottenendo risultati significativi attraverso la semplificazione della gestione dei dati, l’accelerazione dei processi decisionali e la misurazione puntuale dei risultati delle campagne rese possibili dall’AI”, ha dichiarato Denise Persson, chief marketing officer di Snowflake. “I progressi in ambito AI e analytics hanno democratizzato l’accesso ai dati tra i professionisti del settore, facilitando l’acquisizione di insight più accurati e approfonditi sulle esigenze e i comportamenti dei clienti”.
Basato sull’analisi di un anno di dati e trend di utilizzo (da febbraio 2024 a gennaio 2025) di 11mila clienti di Snowflake, lo studio ha evidenziato che per costruire relazioni solide e di fiducia con i consumatori servono tre cose: personalizzazione, innovazione e anche dei limiti, dei confini. Il primo punto non è niente di nuovo: ancor prima che si parlasse di GenAI e di Agentic AI, la personalizzazione si è affermata come mantra per i professionisti del marketing. L’intelligenza artificiale, naturalmente, l’ha resa possibile, più sofisticata ed economicamente sostenibile su larga scala. Per quanto riguarda l’innovazione, Snowflake perora la causa delle data platform, che d’altro canto sono una chiara tendenze nell’evoluzione dell’offerta di software: non più prodotti segregati, ma fondamenta, architetture che uniscono e orchestrano flussi di dati ed eventi, anche tratti da soluzioni terze. Per quanto riguarda i limiti da non oltrepassare, vanno considerate le regolamentazioni nazionali e internazionali e quelle di settore; ma anche, a voler essere prudenti, le preferenze dei consumatori. Dall’analisi di Snowflake emerge uno schema ricorrente: molte aziende si stanno lanciando nell’adozione dell’AI senza però aver compreso davvero le esigenze dei propri utenti o senza un’adeguata preparazione, in termini di tecnologie e soprattutto di competenze. V.B.
fonti (per esempio Crm, siti di e-commerce, analytics Web, terminali di pagamento), gli analytics per lo studio del profilo di clienti e prospect, per l’analisi del sentiment, per la previsione di tendenze di consumo e di comportamenti di acquisto, e ancora l’orchestrazione di
differenti processi di marketing, gli strumenti conversazionali (chatbot evoluti, che non solo rispondono a domande ma avviano procedure), le raccomandazioni personalizzate, la creazione automatica di report sul profilo e sul comportamento dei clienti.

Oltre l’automazione
Finora, il marketing ha soprattutto beneficiato di tecnologie di automazione basate su regole, dunque su criteri predefiniti, magari declinati su un certo numero di scenari. Con l’intelligenza artificiale agentica, secondo gli analisti, il marketing farà un salto evolutivo, sfruttando sistemi che non si limitano ad applicare delle regole ma possono interpretare il contesto per prendere decisioni e agire di conseguenza. A detta di Idc, entro il 2028 un ruolo o funzione di marketing su cinque sarà gestito da agenti di intelligenza artificiale, anziché da esseri umani. Questi ultimi, scrive Idc, potranno dedicare la propria esperienza ad altro, per esempio a “definire la strategia, la creatività e l’etica e a gestire una forza lavoro mista, di persone e AI”.
Valentina Bernocco

Dai processi “core” alla gestione del rischio, fino alle relazioni con i clienti: l’AI è una trasformazione trasversale.
L’integrazione estesa dell’intelligenza artificiale nel settore bancario sta ridefinendo le architetture IT, le logiche di gestione del rischio, i modelli di servizio e i processi operativi. L’adozione di tecnologie di machine learning, analisi predittiva e automazione avanzata guiderà una trasformazione strutturale, con un impatto diretto su competitività, efficienza e qualità del servizio. La banca del futuro sarà costruita su una data platform unica e scalabile, capace di integrare dati strutturati e non strutturati, provenienti da fonti interne ed esterne. L’AI permetterà di analizzare grandi volumi di dati in tempo reale, di generare modelli predittivi per rischio di credito, rischio operativo e comportamento del cliente, di adottare algoritmi di anomaly detection per individuare
eventi non conformi agli standard storici. Advanced analytics e modelli di scoring dinamico sostituiranno gradualmente sistemi statici basati su regole.
Più velocità e sicurezza
L’automazione robotica di processo (Rpa), combinata con modelli elaborazione del linguaggio naturale (Nlp) e machine learning, permetterà di ridurre drasticamente il tempo medio dei processi core: onboarding digitale e riconoscimento automatico dei documenti, gestione delle richieste di finanziamento con decisioning automatizzato o semiautomatizzato, riconciliazione contabile potenziata, controlli antiriciclaggio (Aml) e know your customer (Kyc) con sistemi in grado di interpretare documenti, estrarre informazioni e valutare rischi in autonomia. La banca passerà da processi lineari e frazionati a workflow end-to-end basati su eventi
La modellizzazione del rischio sarà sempre più guidata da algoritmi capaci di aggiornarsi in tempo reale. Le principali applicazioni includono: modelli di early warning per individuare deterioramento dei crediti; valutazione predittiva
della probabilità di default basata su dati transazionali, comportamentali e geoposizionamento; monitoraggio continuo delle controparti con aggiornamento automatico dei rating interni. Le funzioni Risk e Compliance lavoreranno con dashboard avanzate che integrano indicatori tradizionali e segnali generati da AI. La cybersecurity evolverà verso una logica proattiva. I sistemi basati su AI consentiranno il rilevamento immediato di comportamenti anomali, la prevenzione delle frodi tramite


L’intelligenza artificiale è una delle forze trainanti della trasformazione delle banche in Italia. Non è solo una frase a effetto: basti guardare ai dati dell’annuale report di Abi Lab, “Scenari e trend del mercato Ict per il settore bancario”, pubblicato lo scorso marzo e basato sull’analisi di 23 realtà (rappresentative dell’82% del settore bancario italiano in termini di dipendenti). L’AI era nella lista delle priorità d’investimento Ict del 2025 per il 73% delle banche del campione. Sullo scenario internazionale ci dice qualcosa lo studio “Intelligent Banking: The Future Ahead”, realizzato da Economist Impact con il supporto di Sas e pubblicato lo scorso luglio: da interviste condotte su 1.700 senior executive e dirigenti bancari e fintech di sei continenti, è emerso che ben il 99% delle realtà ha adottato l’AI generativa in una qualche misura e in una qualche forma. In particolare, viene utilizzata come supporto nelle attività di rilevamento delle frodi. Il paradosso, ben noto, è che la stessa GenAI viene sfruttata in attacchi cyber basati su deepfake e identità sintetiche.
Secondo una ricerca di Ntt Data dello scorso marzo (“Intelligent Banking in the Age of AI”, con 810 decisori IT di aziende bancarie di 13 Paesi intervistati) nel 96% delle banche sono i manager C-level a caldeggiare l’uso dell’intelligenza artificiale. Quella generativa, nello specifico, era già stata adottata del 58% delle realtà del campione, soprattutto per attività di prevenzione delle frodi, semplificazione dei pagamenti e consulenza per la gestione patrimoniale. Volendo dar spazio anche a voci fuori dal coro, una autorevole è quella del Mit di Boston, che in uno studio dello scorso luglio (“The GenAI Divide”) argomenta l’impatto finora un po’ superficiale esercitato dall’AI generativa nel settore dei servizi finanziari. Solo nel mercato dell’informatica e nei media questa tecnologia ha già davvero cambiato le regole del gioco, i modelli di domanda, di offerta e di business. Nei servizi finanziari viene usata soprattutto per l’automazione dei processi di backend , ma complessivamente in questo settore l’indice di disruption della GenAI è pari a 0,5 su una scala compresa tra 0 e 5. Perché? Finora, o almeno fino alla data di realizzazione dell’analisi del Mit, l’adozione della GenAI spesso non supera la fase pilota, ovvero non va “in produzione” e non viene estesa su larga scala. Perfetta conferma arriva da un più ristretto studio (limitato agli Stati Uniti) della Wharton School dell’ Università della Pennsylvani a, in cui si legge che la GenAI si è già consolidata nei processi di lavoro dei settori media e informatica, dove due dipendenti su tre la utilizzano quotidianamente; nei servizi finanziari, invece, solo un dipendente su due la usa ogni giorno nel proprio lavoro.
pattern recognition, l’autenticazione basata su biometria comportamentale, la riduzione dei falsi positivi nei sistemi antifrode grazie a modelli adattivi. La sicurezza diventerà un processo continuo e basato sull’analisi contestuale.
Nuovi servizi, interazioni e competenze
Le interazioni con il cliente saranno in larga parte automatizzate attraverso piattaforme conversazionali evolute. Gli assistenti digitali gestiranno richieste informative, simulazioni finanziarie in tempo reale, analisi degli obiettivi di risparmio, supporto alla consulenza attraverso sistemi di raccomandazione. Il modello di servizio sarà nativamente omnicanale, con un passaggio fluido tra digitale e supporto umano, grazie a
strumenti di AI che forniscono al consulente la storia completa del cliente e suggerimenti operativi. L’intelligenza artificiale consentirà anche alle banche di integrare servizi finanziari all’interno di piattaforme terze. Verranno abilitati finanziamenti istantanei integrati negli e-commerce o nei concessionari auto, valutazioni del rischio complessivo di aziende e privati in contesti verticali, pagamenti intelligenti basati su contesto e preferenze del cliente, investimenti automatizzati attraverso algoritmi di ottimizzazione del portfolio. Il confine tra banca e servizi esterni diventerà sempre più sfumato.
L’adozione massiva dell’AI ridurrà la manualità operativa e richiederà nuove competenze. I dipendenti lavoreranno con strumenti di analisi predittiva inte-
grati nel Crm, con sistemi di supporto decisionale che suggeriscono prodotti o azioni commerciali basate sui dati, con dashboard unificate per monitoraggio, risk reporting e analisi dei clienti. Il ruolo sarà prevalentemente consulenziale e analitico, con una forte componente di interpretazione dei dati. Da tutto questo si comprende come la banca del futuro sarà un’infrastruttura altamente digitalizzata e governata da modelli intelligenti. L’AI diventerà il motore centrale dei processi di valutazione, sicurezza, servizio e gestione dei rischi. Gli istituti che sapranno integrare tecnologie avanzate con competenze umane specialistiche saranno quelli in grado di mantenere competitività e qualità in un mercato in rapida trasformazione.
Francesco Megna

Nel
Servizio Sanitario Nazionale gli investimenti in digitale stanno crescendo. Le tecnologie ci sono, a volte mancano i processi. L’analisi di Aisis, TIG e Cergas.
La sicurezza informatica, la compliance alla direttiva NIS2, l’interoperabilità dei dati clinici, la telemedicina, l’adozione dell’intelligenza artificiale a supporto della diagnostica e della ricerca: sono alcuni dei passaggi obbligati per la trasformazione digitale del settore della sanità. Per l’Italia c’è una buona notizia: il nostro Sistema Sanitario Nazionale, pur con i suoi tempi e le sue difficoltà, sta incrementando gli investimenti in informatica. A dirlo è un’indagine realizzata da Aisis – Associazione Italiana Sistemi Informativi in Sanità, TIG – The Innovation Group e Cergas – SDA Bocconi School of Management, basata sull’analisi di fonti terze e su un sondaggio condotto su un campione di aziende sanitarie (rappresentativo di circa il 20% della popolazione mappata, con una copertura geografica di 17 regioni italiane).
Per circa il 32% del campione, il peso del budget Ict sul fatturato aziendale
è superiore al 2%, ovvero si pone al di sopra della media nazionale ed europea, mentre all’opposto c’è un 30% per cui pesa meno dell’1%. Per il 38% è compreso, invece, tra l’1% e il 2%. Questi dati confermano quanto emerso dall’analisi e dalla rielaborazione di fonti terze, cioè che le risorse messe a disposizione dal PNRR stanno portando il rapporto tra la spesa Ict e la spesa complessiva del Sistema Sanitario Nazionale in linea con la media europea, che è del 2,5%. In Italia oggi (stima per il 2025) siamo al 2,1%, dato che segna un buon progresso rispetto all’1,17% del 2018. “Nel post Covid non si può tralasciare di considerare il ruolo del PNRR nel rafforzare la spesa Ict delle strutture sanitarie”, ha commentato Camilla Bellini, research & content Manager di TIG – The Innovation Group. “Nota positiva emersa dalla nostra indagine, il 32% dei rispondenti dichiara una spesa Ict che pesa per oltre il 2% sul fatturato della propria
azienda”. In media, il 38% della spesa totale risulta in conto capitale, con investimenti in innovazione e legati ai fondi PNRR, mentre il 62% è spesa corrente. Su quest’ultima voce pesano soprattutto le scelte di utilizzo di servizi di cloud computing, oltre ai costi di reti dati e fonia, di manutenzione ordinaria e di aggiornamento o upgrade degli applicativi aziendali. Come sottolineato dagli autori dello studio, per comprendere quale sarà la capacità di investimento in digitale del sistema sanitario pubblico bisognerà monitorare l’evoluzione di questi dati nel più lungo periodo, oltre il 2026, quando si esauriranno gli effetti del PNRR e le risorse messe a disposizione.
Maturità discontinua
Le nostre aziende sanitarie investono in modo particolare sulla sicurezza informatica, che da sola assorbe mediamente il 10% dei budget Ict. Rispetto al ricorso al cloud computing, sono a metà strada: nel campione d’indagine, il 53% delle server farm risulta già in cloud, ospitato nella maggior parte dei casi (62%) in infrastrutture della società in-house della propria Regione e, negli altri casi, in un ambiente di cloud privato (27%) o nei data center del Polo Strategico Nazionale. Il percorso di digitalizzazione è a buon punto per alcune applicazioni e alcuni servizi dell’SSN, ma su altri siamo ancora agli inizi. Sul Fascicolo Sanitario Elettronico 2.0, per la maggior parte dei tipi di documenti analizzati (tra cui referti, verbali e lettere di dimissioni) la quota di quelli inviati in tale formato supera il 60%. Ancor più avanzata è l’adozione della Cartella Clinica Elettronica ospedaliera: il 78% dei reparti ospedalieri ci è già arrivato, percentuale che dovrebbe salire al 94% entro giugno 2026. Peraltro in questi reparti sono stati avviati tutti i moduli funzionali della CCE, ovvero assessment clinico e infermieristico, ciclo del farmaco, order entry, pianificazione

Con la digitalizzazione, il settore sanitario sta subendo una rapida e profonda trasformazione, che offre incredibili opportunità di migliorare l’assistenza ai pazienti e l’efficienza operativa, ma comporta anche una maggiore vulnerabilità agli attacchi informatici. Gli impatti di un riuscito attacco informatico nel settore sanitario possono essere catastrofici: onere finanziario del pagamento del riscatto, danni alla reputazione, erosione della fiducia dei pazienti e potenziali responsabilità legali, interruzioni operative con cancellazione di appuntamenti, ritardi nelle procedure, difficoltà di mantenere servizi adeguati di assistenza ai pazienti, con conseguenze addirittura potenzialmente letali.
La protezione del futuro dell’assistenza sanitaria digitale richiede, quindi, un approccio proattivo e articolato, incentrato sulla costruzione di una reale resilienza informatica. Il rilevamento delle anomalie guidato dall’intelligenza artificiale può analizzare il traffico di rete e il comportamento del sistema, segnalando attività sospette e consentendo ai team di sicurezza di intervenire rapidamente. I backup immutabili, che non possono essere alterati o cancellati, forniscono un’ultima linea di difesa e assicurano un rapido ripristino in caso di attacco ransomware o altri tipi di danneggiamento dei dati.
In secondo luogo, investire in una formazione completa che punti a creare consapevolezza della cybersecurity per tutto il personale è essenziale. Terzo punto: le iniziative di condivisione delle informazioni e collaborazione con i colleghi del settore, le agenzie governative e gli esperti di cybersecurity per rimanere informati sulle minacce emergenti e sulle best practice. Quarto punto: i controlli di sicurezza rigorosi per i fornitori terzi e l’adozione di standard di sicurezza condivisi sono un passaggio essenziale per ridurre al minimo i rischi della catena di fornitura. Simulare regolarmente i cyberattacchi, inoltre, è fondamentale per testare la prontezza di risposta e l’efficacia dei piani di ripristino. Infine, l'adozione di un modello Zero Trust può ridurre significativamente il rischio di movimenti laterali all’interno di una rete. Limitando l’accesso a dati e sistemi sensibili, questo approccio riduce l’impatto di una violazione riuscita.
delle attività fino e dimissioni. La CCE territoriale segue non troppo a distanza: il 65% del campione ha avviato soluzioni a supporto del processo di presa in carico previsto dal DM77. Di contro, solo il 37% delle strutture sanitarie ha già maturato esperienze concrete di telemedicina, mentre il 57% è ancora in fase di sperimentazione. Le applicazioni già messe in campo riguardano prevalentemente la televisita e il teleconsulto, mentre sono rari i casi di attività più complesse da gestire, come la teleassistenza, il telemonitoraggio, e la teleriabilitazione. “La telemedicina non è solo una questione di tecnologie”, ha sottolineato Claudio Caccia, presidente onorario di Aisis. “È un processo organizzativo diverso da quelli tradizionali della sanità, basato sull'innovazione digitale. Ma le tecnologie vengono dopo, prima bisogna capire come gestire i processi e quali sono gli obiettivi dell’intervento”.
Il valore dell’innovazione
I ricercatori hanno anche analizzato i modelli di governance dell’innovazione informatica. Il quadro è chiaro: il digitale non è ancora pienamente percepito come risorsa strategica di cambiamento.
I progetti complessi (come la Cartella Clinica Elettronica ospedaliera, quella territoriale e la telemedicina) vengono spesso realizzati senza prima definire dei documenti strategici di progetto, dove andrebbero specificati gli obiettivi organizzativi, gestionali e tecnologici, ma anche i tempi e i costi.
“Alcuni dei progetti tecnologici, come quelli di Cartella Clinica Elettronica e telemedicina, sono grandi progetti che tengono insieme revisione dei processi, innovazione tecnologica e change management”, ha osservato Caccia. “Sono iniziative che coinvolgono tantissime persone trasversalmente a tutta l’azienda. Senza un documento strategico di riferi-
mento, diventa difficile verificare lo stato di attuazione e tirare, poi, le somme sui progetti”.
C’è un altro dato a suggerire come manchi, spesso, un approccio strategico all’innovazione digitale: solo nel 33% delle aziende sanitarie la direzione Ict è in staff alla direzione generale. I direttori dei sistemi informativi del campione nella maggioranza dei casi hanno alle spalle una formazione tecnica: il 70% ha conseguito una laurea in ingegneria (informatica, elettronica o delle telecomunicazioni) o in informatica. D’altro canto il 33% dei Cio ha conseguito un master post-universitario in Management, segnale della progressiva evoluzione del ruolo del chief information officer: non più solo un informatico esperto, ma anche un professionista che deve avere capacità di gestione, pianificazione e governance dell’innovazione digitale. V.B.

L’interoperabilità del dato è il punto di partenza per un’evoluzione ormai consolidata nella diagnostica per immagini. Il punto di vista di Philips.
Quello della sanità è un ambito complesso e molto eterogeneo dal punto di vista della maturità digitale. Nel campo della radiologia informatica, per esempio, all’archiviazione digitale delle immagini si è aggiunta la capacità di integrare, leggere e valorizzare i dati, anche attraverso l’intelligenza artificiale. In ambiti diversi dall’imaging, invece, la definizione di standard condivisi per l’interoperabilità dei dati resta ancora una sfida. Ne abbiamo parlato con Roberta Ranzo, business leader enterprise informatics per Italia, Israele e Grecia di Philips.
Come sta cambiando il panorama della diagnostica per immagini? In un Paese come l’Italia, dove la popolazione è sempre più longeva, cresce costantemente la domanda di servizi di
diagnostica per immagini. Si tratta di un ambito fondamentale per la gestione delle grandi patologie, come quelle cardiovascolari e oncologiche, non solo a livello diagnostico ma anche per monitorare il decorso della malattia e valutare l’efficacia delle terapie. La crescente domanda ci ha portati ad avere sistemi molto più “trasversali”, accessibili non solo a radiologi e cardiologi, ma a un numero crescente di specialisti di altre aree cliniche o al medico di medicina generale, con l’obiettivo di avere una visione sul paziente sempre più olistica. I dati prodotti, inoltre, sono sempre più numerosi ed eterogenei per tipologia e formato: TC, risonanze, elettrocardiogrammi, analisi di laboratorio. Da questo scenario emergono due questioni: la prima riguarda la fruibilità dei dati, all’interno di una stessa azienda sanitaria o di strutture differenti
e tra Regioni diverse. Quindi è essenziale garantirne l’interoperabilità. La seconda sfida è riuscire a filtrare e selezionare le informazioni davvero rilevanti.
Sono questioni molto sentite anche nel mondo delle imprese... Come si affrontano nel campo della radiologia informatica?
La nostra popolazione è sempre più mobile e spesso fruisce di servizi di ASL o strutture sanitarie in territori diversi: ecco perché molte Regioni stanno realizzando progetti di interoperabilità o di centralizzazione dei dati in piattaforme regionali, in linea con lo sviluppo del Fascicolo Sanitario Elettronico. In ambito imaging, grazie ai sistemi Pacs e agli standard tecnologici ormai consolidati, digitalizzazione e interoperabilità hanno raggiunto livelli elevati. In parallelo, l’intelligenza artificiale sta assumendo un ruolo chiave nel migliorare efficienza e qualità dei processi. In un esame di risonanza magnetica, ad esempio, gli algoritmi Philips consentono di ridurre i tempi di scansione fino a

La digitalizzazione degli ospedali, con l’adozione crescente di tecnologie IoMT e (Internet of Medical Technologies, una specializzazione dell’IoT) e OT (Operational Technologies), sta migliorando l’assistenza e l’efficienza, ma amplia anche la superficie d’attacco informatico, mettendo a rischio dati, continuità operativa e soprattutto la sicurezza dei pazienti. Migliaia di dispositivi connessi – dalle pompe di infusione ai sistemi Hvac – spesso utilizzano protocolli obsoleti e mancano di adeguate misure di protezione. La convergenza tra IT, IoT e OT rende possibile che la compromissione di un singolo sensore apra la strada ad attacchi a sistemi clinici e infrastrutturali. Le minacce includono ransomware, manipolazione dei parametri dei dispositivi IoMT, blocco di sale operatorie, interruzioni energetiche e furto di dati sanitari. Per mitigare i rischi sono necessari tre pilastri: tecnologie, come segmentazione delle reti, approccio articolato per livelli di sicurezza, inventario dei device e monitoraggio continuo con AI; processi strutturati, tra cui risk assessment periodici, piani di risposta agli incidenti e patch management per i dispositivi biomedicali; persone, con formazione continua, gestione sicura delle credenziali e simulazioni operative. Proteggere IoT e OT non è più solo un compito dell’IT, ma una condizione essenziale per garantire sicurezza dei pazienti e sostenibilità delle strutture. Schneider Electric supporta gli ospedali con servizi di consulenza, percorsi di compliance, gestione degli asset e implementazione di soluzioni di monitoraggio e risposta agli incidenti per ambienti OT e IoMT.
Umberto Cattaneo, EU cybersecurity business consultant lead di Schneider Electric
tre volte rispetto ai protocolli tradizionali, e di migliorare la risoluzione dell’immagine fino al 65%, riducendo rumore e artefatti. Sul piano clinico, l’intelligenza artificiale non sostituisce il radiologo ma lo supporta: funge da “secondo paio di occhi”, segnalando lesioni o anomalie non strettamente legate al quesito diagnostico originario, contribuendo così a una diagnosi più completa e sicura.
Esistono, in sanità, altri ambiti di applicazione promettenti per l’AI?
Uno degli ambiti più promettenti è la gestione dei pazienti acuti, ricoverati nei reparti di terapia intensiva o in degenza post-operatoria. Qui il personale sanitario deve monitorare un’enorme quantità di dati provenienti da diversi sistemi, considerando che in media in un ospedale sono in funzione 350 dispositivi tra monitor, pompe infusionali, ventilatori e via dicendo, che generano migliaia di dati al secondo. Questa mole di dati frammentati può rendere complessa la gestione clinica. Quando riusciremo a correlare e
analizzare questi dati in modo unitario, allora potremo applicare modelli predittivi basati sull’AI per individuare in anticipo segnali di deterioramento clinico (ad esempio variazioni della frequenza cardiaca o della saturazione, che precedono un episodio di insufficienza respiratoria). L’obiettivo è passare da una gestione reat-

Roberta Ranzo
tiva a una medicina proattiva, migliorando la sicurezza e la tempestività delle cure.
Come si posiziona Philips in questo scenario?
Philips lavora da anni per rendere realmente connesso l’ecosistema sanitario.
Con la piattaforma Capsule abbiamo reso possibile integrare e normalizzare i dati provenienti da dispositivi di vendor diversi, così da offrire ai clinici una visione unificata e immediata del paziente. Accanto a questo, Philips vanta in Italia un’importante competenza nell’ambito dell’enterprise informatics: il nostro centro europeo di Genova è un punto di riferimento per la gestione e l’evoluzione dei sistemi Pacs e delle soluzioni di interoperabilità per la diagnostica per immagini, anche in cloud, oltre che per lo sviluppo di soluzioni di AI a supporto della radiologia. Per noi, l’intelligenza artificiale rappresenta un’evoluzione naturale di questo percorso: la tecnologia al servizio del clinico, per una sanità sempre più integrata e predittiva. V.B.

Nelle attività di scoperta e sviluppo di farmaci, la “spiegabilità” è un attributo fondamentale per l’intelligenza artificiale.
L’intelligenza artificiale ha trasformato la scoperta di farmaci, accelerando l’identificazione di nuovi bersagli terapeutici e la previsione dell’efficacia dei composti. Tuttavia, la natura opaca dei modelli “black box” e la presenza di bias nei dati minano la validità e l’uso dei risultati nella pratica clinica. L’intelligenza artificiale spiegabile (Explainable Artificial Intelligence, xAI) risponde a questa sfida traducendo le previsioni opache in strumenti di analisi e controllo scientifici, rafforzando la fiducia nei processi decisionali. I modelli di AI usati per predire le proprietà dei farmaci funzionano come “scatole nere” che forniscono risultati senza spiegare il ragionamento sottostante. La xAI af-
fronta il problema sviluppando strumenti e metodi che rendono interpretabile il percorso logico intrapreso dal modello. L’applicazione concreta di questi strumenti consente di progettare farmaci in modo più razionale, prevedendo quali modifiche migliorano la probabilità che un farmaco superi gli studi clinici. Inoltre offre la capacità di identificare rischi potenziali nelle fasi iniziali della ricerca, evitando fallimenti costosi più avanti nel processo di sviluppo.
Le regole sull’AI in sanità
A livello europeo, le giurisdizioni seguono approcci differenti nella regolamentazione dell’intelligenza artificiale. L’AI Act europeo, la cui applicazione è previ-
sta dal 2026, introduce requisiti di trasparenza e accountability, classificando come ad “alto rischio” i sistemi utilizzati in ambito sanitario e farmaceutico fatta eccezione, come osservato dall’Efpia (European Federation of Pharmaceutical Industries and Associations), per i sistemi utilizzati solo per la ricerca scientifica che sono esclusi purché non siano coinvolti nella gestione clinica. Molti strumenti di drug discovery in fase iniziale non rientrano, quindi, nella classificazione ad alto rischio, grazie alla distinzione tra ricerca e applicazioni cliniche. In Italia, oltre al Codice dell’Amministrazione Digitale e alle linee guida AgID, quest’anno è stata approvata la legge 132, considerata il primo AI Act nazionale. La legge rafforza il principio di intelligenza artificiale umano-centrica e integra la regolamentazione europea con l’obiettivo di bilanciare innovazione e tutela dei diritti fondamentali, ponendo particolare attenzione ai settori sanità, lavoro e Pubblica Amministrazione.
Il rischio di bias
Nel settore farmaceutico la trasparenza è fondamentale per consentire all’uomo di comprendere il ragionamento alla
RJ Geukes Foppen


Explainambiguity è un think tank dedicato all’integrazione responsabile dell’AI nei settori industriali, delle Life Sciences e della sanità. Promuove un’adozione etica, trasparente e conforme, valorizzando spiegabilità e comprensione dei modelli. Con un approccio multidisciplinare, sviluppa linee guida per equità e sicurezza e favorisce una collaborazione uomomacchina che rafforzi decisioni di mercato critiche, tutelando la salute e la dignità umana.
base delle raccomandazioni dei sistemi di AI e per individuare eventuali bias algoritmici. Per avere una vera trasparenza dei modelli è necessario che gli operatori d’intelligenza artificiale general-purpose rendano pubblici i dati di addestramento, le metodologie adottate e i fattori che determinano gli output dei loro modelli. L’assenza di bias nei dataset di addestramento è una sfida critica per l’affidabilità dei modelli di AI biomedici in special modo per i modelli generativi e per gli LLM. Se questi modelli apprendono da dataset estesi ma imperfetti e non dispongono di meccanismi intrinseci per correggere le distorsioni, il rischio di bias sistemici è molto alto e può arrivare a alla sottorappresentazione di ampi gruppi demografici. Lo scenario si complica in presenza di frammentazione dei dati tra istituzioni e gruppi di ricerca, o di sovrarappresentazione di specifiche popolazioni nella letteratura medica. Ciò può dare origine a modelli con validità predittiva limitata e una scarsa affidabilità delle previsioni su efficacia e sicurezza dei farmaci. In condizioni di scarsa trasparenza anche previsioni coerenti possono essere fuorvianti se basate su pattern distorti da bias di pubblicazione o sottorappresentazione demografica, con conseguenze cliniche ed etiche: farmaci progettati su dati viziati rischiano di essere meno efficaci in gruppi sottorappresentati.
Correggere le distorsioni
Le imprese farmaceutiche, i fornitori tecnologici e i gestori di dati hanno un ruolo chiave nel contrasto ai bias. In questi casi le possibili strategie di mitigazione
passano per una raccolta dati basata su stratificazione demografica, la generazione di dati sintetici ma rappresentativi per compensare dataset sbilanciati, audit algoritmici per identificare performance differenziali tra gruppi, tecniche di debiasing (riconoscimento e riduzione del pregiudizio) post hoc per correggere distorsioni nei modelli addestrati. Oltre all’applicazione di queste tecniche, la xAI si pone come ulteriore strumento utile a individuare, analizzare e correggere i bias nei dataset, a comprendere quali variabili influenzano le previsioni e quali generano eventuali distorsioni. Nel contesto della scoperta di farmaci, la xAI consente di esplorare i segnali biologici e clinici che guidano le previsioni, abilitando interventi correttivi e audit sistematici. Le metodologie di preprocessing dei dati e la combinazione di dataset complementari e framework xAI per il monitoraggio continuo migliorano la generalizzabilità

e la robustezza dei modelli, assicurando che le evidenze generate mantengano validità e coerenza.
L’occasione da cogliere
L’adozione dell’AI nella scoperta di farmaci offre l’opportunità di correggere distorsioni con granularità e velocità superiori rispetto ai metodi tradizionali. La xAI consente di riconoscere quando le previsioni favoriscono determinati sottogruppi e di intervenire in modo mirato con strategie di retraining, integrazione di dati sottorappresentati e validazione comparativa. La xAI è essenziale per garantire trasparenza, equità e tracciabilità nei processi automatizzati, comunicando le inferenze in un linguaggio comprensibile agli stakeholder (clinici, regolatori, pazienti) e assicurando la conformità normativa. La fiducia è il fondamento essenziale per sfruttare il vero potenziale dell’AI nella scoperta di farmaci. Con strumenti di spiegabilità avanzati, dataset rappresentativi e una governance etica robusta, l’AI funge da catalizzatore per l’equità globale, accelerando lo sviluppo terapeutico e correggendo le disuguaglianze. La sua promessa si realizza quando ogni previsione è trasparente e ogni decisione tracciabile. È un’opportunità unica per dimostrare che la tecnologia serve per l’efficienza e l’equità a pari merito. Il nostro percorso è chiaro: garantire che, dall’algoritmo al paziente, ogni passaggio sia comprensibile e giustificabile, inaugurando una nuova era di medicina fidata e accessibile a tutti.
RJ Geukes Foppen e Vincenzo Gioia, fondatori di Explainambiguity
La tecnologia di Qlik aiuta nella lettura dei dati, nella reportistica e nei processi decisionali.
Gli analytics in cloud sono stati una scommessa vincente: è proprio il caso di dirlo quando il progetto di adozione riguarda un'azienda come Sisal. Fondata nel 1945 a Milano, la società che l’anno seguente ha lanciato le le prime scommesse calcistiche nel nostro Paese (il Totocalcio) oggi è presente a livello internazionale con una rete di 47mila punti vendita fra Italia, Marocco e Turchia, e inoltre presidia il canale online. Complessivamente, Sisal raggiunge 1,8 milioni di consumatori. “Il mercato sta crescendo molto rapidamente, così come il volume di informazioni che gestiamo”, racconta Samuele Caci, associate data governance manager di Sisal. “L’aumento del numero di clienti e transazioni comporta un aumento dei dati da gestire”. A fronte di questa crescita, negli ultimi anni i limiti del software di analisi dati in uso erano diventati sempre più evidenti. Per non rallentare l’espansione delle proprie attività e per dare migliore supporto ai processi decisionali, Sisal puntava a democratizzare l’accesso ai dati. Desiderava, inoltre, creare un ambiente dati flessibile, scalabile e reattivo. “In un contesto di mercato dinamico e in rapida evoluzione, l’acquisizione di risposte rapide e informate è un elemento essenziale della strategia di Sisal e l’azienda ha da tempo compreso che per conseguire tale obiettivo i dati sono fondamentali”, spiega Caci. Il software di analisi dati in uso è stato sostituito con Qlik Sense, che ha permesso di disporre di una fonte centralizzata per la raccolta e l’a-
Qlik Cloud Analytics monitora quasi tutti i KPI di Sisal. Le dashboard e i report automatizzati (collegabili al sistema di posta elettronica aziendale) aiutano ad analizzare le tendenze e le preferenze dei clienti, ma anche a ottimizzare i tempi di risposta o i processi.
nalisi di dati di varia provenienza, tra cui le piattaforme Crm, i i sistemi di gioco e le applicazioni cloud. “Grazie a Qlik, possiamo integrare tutte queste fonti in un unico ecosistema applicativo, con visualizzazioni singole o multiple”, illustra Caci. “Possiamo inoltre monitorare e migliorare la qualità dei nostri dati e la loro gestione”. Con Qlik, Sisal ha iniziato a sviluppare e a utilizzare delle da-

shboard avanzate, che raggruppano una serie di indicatori chiave di prestazione (KPI). Con l’ampliamento dell’adozione e dei casi d’uso, è emersa la necessità di un ulteriore passaggio: serviva una soluzione più scalabile, pronta a future espansioni del volume di dati. “Avevamo un’unica applicazione Qlik on-premise connessa al nostro modello dati ed era molto pesante: circa 27 GB”, precisa Caci. “Stava diventando impossibile da gestire internamente”. Da qui la scelta di passare a Qlik Cloud Analytics, una soluzione erogata in modalità Software as-a-Service. Le esistenti istanze Qlik di Sisal sono state scomposte in varie applicazioni più piccole e agili, e la gestione dell’ambiente dati è stata affidata Qlik. Circa 500 persone, cioè il 90% dei dipendenti del reparto gioco online, utilizzano le dashboard e gli strumenti di analisi e reportistica di Qlik, che monitorano quasi tutti i KPI di Sisal. L’azienda ha migliorato i propri processi decisionali, con risultati particolarmente evidenti nell’area del marketing. “Più ampliamo le app Qlik e più facile diventa l’analisi”, testimonia Caci. “L’utilizzo del cloud ci offre inoltre la potenza e la scalabilità di cui abbiamo bisogno per crescere. Le informazioni fornite da Qlik consentono di porre in essere azioni concrete, ottimizzando per esempio i tempi di risposta o i processi”. Si lavora, ora, per estendere Qlik Cloud Analytics ai dispositivi mobili e Sisal sta anche valutando lo sviluppo di modelli di dati in tempo reale.


L’ateneo siciliano ha scelto la tecnologia di Motorola Solutions per potenziare la sicurezza e il controllo degli accessi.
Con oltre 45mila studenti e più di 1.700 tra docenti e personale tecnico-amministrativo, l’Università di Palermo è uno tra i maggiori atenei del Sud Italia. La sua natura policentrica, con sedi distribuite non solo nel capoluogo siciliano ma anche ad Agrigento, Caltanissetta e Trapani, rende particolarmente complesso il tema della sicurezza, sia in termini di videosorveglianza sia di gestione degli accessi. Per affrontare questa sfida, è stato realizzato con Motorola Solutions un progetto integrato, che prevede l’installazione di oltre 600 telecamere intelligenti e il controllo centralizzato di più di 400 varchi di ingresso.
Prima dell’intervento, l’università si affidava a sistemi di videosorveglianza eterogenei, privi di interoperabilità e difficili da gestire su scala. L’obiettivo principale del progetto è stato quello di superare questa frammentazione, adottando una piattaforma unica in grado di coordinare tutti i punti di accesso e le aree videosorvegliate. Il cuore della soluzione è la piattaforma Avigilon Control Center, che permette di raccogliere e analizzare in tempo reale i flussi video provenienti dai diversi edifici e aree urbane. Il sistema è stato progettato per integrarsi con i dispositivi già presenti, riducendo l’impatto di dismissione delle tecnologie legacy (150 telecamere già presenti sono state integrate nella nuova infrastruttura) e garantendo continuità operativa. Le telecamere installate, interne ed esterne, sono dotate di funzionalità di videoanalisi basata su intelligenza artificiale. “Con questo pro-
getto siamo riusciti a sostituire sistemi frammentati e non interoperabili con una piattaforma unica, che consente una gestione più efficiente e una risposta più tempestiva alle emergenze”, spiega Pietro Paolo Corso, assistant professor e delegato ai progetti speciali e alle infrastrutture digitali dell’ateneo. “Siamo in grado ora di identificare automaticamente situazioni anomale come movimenti rapidi o la presenza di fumo, ma soprattutto abbiamo integrato l’appearance search, che consente di rintracciare persone o veicoli in base a caratteristiche fisiche o descrizioni testuali legate ad abbigliamento, accessori o colori”. In caso di accessi non autorizzati o eventi sospetti, vengono inviati allarmi automatici agli operatori del servizio di vigilanza, e questo riduce la necessità di un continuo monitoraggio “manuale”. “Se implementazione dell’infrastruttura è stata relativamente semplice e rapida, abbiamo impiegato oltre un anno ad adeguarci integralmente ai dettami normativi, in particolare quelli del Gdpr”, specifica Corso.
L’opera è stata sostenuta anche da fondi europei, in particolare attraverso il Po Fesr Sicilia 2014-2020, destinato a progetti di innovazione digitale e sicurezza.
L’iniziativa si colloca inoltre in un contesto più ampio di trasformazione tecnologica dell’ateneo, che include la creazione di un “campus intelligente 5G” per attività di didattica immersiva, telemedicina e ricerca avanzata.“Il progetto di videosorveglianza e controllo accessi dell’Università di Palermo rappresenta un caso di studio rilevante per le realtà accademiche

Il progetto ha previsto l’installazione di centinaia telecamere sia all’interno sia all’esterno di cinque sedi dell’ateneo, oltre alla centralizzazione del controllo degli accessi di oltre 400 varchi. La soluzione di gestione video Avigilon di Motorola Solutions, basata su AI, aiuta i gli addetti alla sicurezza a gestire, analizzare ed elaborare centralmente i video e i dati provenienti dalla rete. Il sistema rileva le attività insolite o sospette (come spostamenti di persone in corsa, fumo, accessi non autorizzate) e invia avvisi in tempo reale.
italiane ed europee”, ha aggiunto Lorenzo Spadoni, country manager di Motorola Solutions Italia. “L’infrastruttura che abbiamo realizzato unisce sicurezza fisica, intelligenza artificiale e governance centralizzata”.


Le sonde di Plantvoice migliorano la salute delle piantagioni di kiwi giallo e riducono il consumo di acqua.
Ogni anno in Italia si potrebbero produrre 600mila tonnellate di kiwi, da destinare al mercato interno e all’export. A causa di stress radicali e squilibri idrici (dovuti a condizioni climatiche instabili, come siccità e piogge irregolari) i volumi si sono più che dimezzati nell’arco di un decennio, scendendo dalle oltre 570mila tonnellate del 2015 alle 277mila della stagione 2024-25. Salvi Vivai, azienda di Ferrara che da cinquant’anni produce e commercializza piante da frutto, ha però realizzato un progetto di “agricoltura 4.0” per contrastare il fenomeno della moria del kiwi, che compromette sia la resa sia la qualità dei raccolti. L’azienda ferrarese è tra i coltivatori a cui si appoggia Zespri, il marchio internazionale dei kiwi gialli “Sungold”, e il progetto ha riguardato proprio gli impianti di Latina in cui Salvi Vivai fa crescere questa varietà. Nella primavera del 2023 è cominciata, su due appezzamenti, l’installazione delle sonde di monitoraggio brevettate da Plantvoice, società benefit con sede a Bolzano e a Verona. Con questa tecnologia è stato avviato un monitoraggio avanzato per analizzare lo stato fisiologico del kiwi e

migliorare la gestione delle risorse idriche e nutrizionali. L’obiettivo era quindi duplice, di produttività e di sostenibilità. “La collaborazione con Salvi Vivai rappresenta un passo importante per la validazione agronomica della nostra tecnologia”, spiega Matteo Beccatelli, Ceo e cofondatore di Plantvoice. “Analizzando la linfa, possiamo conoscere lo stato fisiologico della pianta in tempo reale e fornire strumenti di supporto alle decisioni basati su dati oggettivi. È un modo nuovo di fare agricoltura, più consapevole, produttivo e sostenibile”. I dati fisiologici raccolti dalle sonde sono stati correlati a eventi irrigui, precipitazioni e condizioni meteo. Le piante monitorate hanno mostrato delle nette variazioni nella risposta ai diversi livelli di irrigazione (30% e 100%), evidenziando un legame tra la salute della pianta e la sua capacità di assorbimento e uso efficiente dell’acqua. In pratica, si è capito che non è la sola quantità d’acqua presente nel suolo a determinare la salute della coltura. In autunno le sonde hanno registrato con estrema precisione (come nessun sistema di misurazione esterno al fusto aveva mai potuto fare) il cambiamento di stato dovuto alla defogliazione, tracciando il progressivo calo dei valori elettrochimici. “Il nostro obiettivo non è sostituire l’esperienza dell’agricoltore, ma darle una nuova dimensione: quella interna alla pianta”, spiega Tommaso Beccatelli, cofondatore di Plantvoice. “La linfa racconta ogni giorno come la coltura vive, respira e reagisce. Noi diamo voce a questo racconto”. Il monitoraggio continuo ha permesso di mantenere anche a fine stagione degli elevati standard di produzione, in termini di chili di frutta ottenuti per ciascu-
LA SOLUZIONE
Posizionate in due appezzamenti dedicati alla coltivazione dei kiwi giallo, le sonde di Plantvoice si innestano nel fusto delle piante per misurare in tempo reale la composizione elettrochimica della linfa delle piante. Restituiscono, così, un quadro preciso dello stato idrico e nutrizionale. Correlando i dati della fisiologia della pianta con parametri climatici e di campo (temperatura, umidità, pluviometria, anemometria) è stato creato un modello decisionale per le attività di fertirrigazione.
na pianta e in termini di forma, colore, dimensione e qualità organolettiche dei kiwi. Inoltre è stato possibile ridurre fino al 30% l’uso di acqua, senza compromettere resa e qualità del raccolto. Non è tutto: integrando i dati fisiologici raccolti dalle sonde con i parametri climatici e di campo (temperatura, umidità, pluviometria, anemometria) è stato costruito un modello decisionale completo per le attività di fertirrigazione. “La ricerca e l’innovazione sono sempre stati il fulcro del nostro lavoro”, dichiarata Silvia Salvi, amministratore di Salvi Vivai. “La collaborazione con Plantvoice ci consente di esplorare più a fondo i meccanismi fisiologici del kiwi e di sperimentare soluzioni che supportano gli agronomi a gestire le colture in modo sempre più scientifico ed efficiente. Sono molto soddisfatta dei risultati ottenuti quest’anno, che dimostrano l’efficacia di l’industria vivaistica, l’agronomia avanzata e la tecnologia brevettata”.


Con Amazon Web Services e Storm Reply è stato creato un servizio di intelligenza artificiale che affianca i passeggeri.
Per chi parte o atterra allo scalo di Fiumicino, ora c’è un assistente di intelligenza artificiale che aiuta a pianificare il viaggio, a ingannare l’attesa prima del gate e a non perdere le coincidenze. È il Virtual Assistant di Aeroporti di Roma (Adr), messo a punto in collaborazione con Amazon Web Services (Aws) e Storm Reply. “L’idea nasce alla fine del 2024, quando, nel contesto del nostro percorso di trasformazione digitale, abbiamo deciso di rendere l’assistente virtuale il principale canale di ingaggio dei passeggeri”, racconta Floriana Chiarello, head of enterprise transformation, AI & governance di Aeroporti di Roma. “Avevamo chiare le due esigenze fondamentali: garantire informazioni affidabili e in tempo reale in un linguaggio naturale, 24/7 e su più canali (sito, WhatsApp e, a tendere, voce) e al contempo rendere più efficiente la gestione dei picchi operativi tipici di un grande hub internazionale”. Basata su intelligenza artificiale generativa, la soluzione è stata sviluppata in collaborazione con il Centro di innovazione per l’AI generativa di Amazon e con il supporto consulenziale di Storm Reply (un partner di Aws). Più precisamente, il chatbot si basa su Amazon Bedrock, servizio completamente gestito di Aws per i modelli di AI generativa, e su un’architettura multiagente. L’obiettivo è stato quello di creare un assistente capace di comprendere query anche complesse, formulate in più lingue, e di dare risposte “sicure e di alta qualità”, nel rispetto degli standard di privacy dei dati previsti per le operazioni aeroportuali. Aws è stato selezionato come fornitore
cloud per le garanzie di scalabilità, resilienza e sicurezza offerte, ma anche per i suoi servizi avanzati di AI generativa e per gli strumenti di governance dei modelli. Il progetto è stato portato avanti in modalità agile e con tempistiche serrate : design e requisiti a fine 2024, Mvp (prodotto minimo funzionante) tra gennaio e marzo 2025, test e fine tuning ad aprile-giugno, go-live all’inizio di luglio. “Durante lo sviluppo abbiamo incontrato alcune sfide interessanti”, svela Chiarello. “La prima riguardava la latenza: nei test iniziali, soprattutto nei momenti di traffico elevato, il tempo di risposta del modello generativo non era sempre in linea con le aspettative. Abbiamo risolto introducendo meccanismi di caching dei prompt, ottimizzando le chiamate API e passando a modelli più performanti, con uno scaling automatico su Aws. Un’altra criticità è stata il bilanciamento tra qualità e rapidità. Volevamo garantire risposte accurate e coerenti con il tone of voice di Adr, ma senza sacrificare la velocità. Abbiamo lavorato molto sul fine tuning dei prompt, prevedendo anche risposte più sintetiche in caso di timeout. Infine, la compliance Gdpr ha richiesto controlli rigorosi su storage e retention dei dati. Abbiamo implementato cifratura end-to-end, anonimizzazione e monitoraggio per garantire piena conformità”. L’assistente ha un’interfaccia conversazionale multilingue e ha come avatar Adryx, il robottino mascotte ufficiale di Aeroporti di Roma. Sul sito www.adr.it o nella chat di Whatsapp di Adr è possibile interrogare il chatbot per chiedere aggiornamenti su partenze, arrivi, ritardi e cambi di gate, ma
Accessibile via Web e via Whatsapp, l’assistente virtuale è basato su architettura cloud-native e funziona su Aws, con orchestrazione realizzata tramite Lambda e API Gateway, gestione code con SQS e ricerca semantica su OpenSearch. I modelli di AI poggiano sul servizio gestito Amazon Bedrock e operano secondo misure di sicurezza e conformità.

anche per tracciare i propri bagagli, ricevere assistenza sulle coincidenze, avere informazioni sui servizi di trasporto da e verso l’aeroporto, verificare la disponibilità di posti auto nel parcheggio del terminal, ottenere raccomandazioni su ristoranti e negozi. “Il Virtual Assistant rappresenta una tappa fondamentale nel nostro percorso di trasformazione digitale, consentendoci di fornire supporto personalizzato ai circa 50 milioni di viaggiatori che transitano nostri aeroporti, assicurando che il loro primo e ultimo momento di contatto con la città sia confortevole ed efficiente”, dichiara Emanuele Calà, senior vice president transformation & technology di Aeroporti di Roma.






Quando: 24-26 marzo
Dove: Grand Hotel Dino, Baveno
Perché partecipare: l’evento di TIG Events accessibile su invito, è dedicato ai chief information officer e ai leader della trasformazione digitale nelle aziende. Oltre alle sessioni plenarie, verrà riproposta la formula collaudata dei tavoli di lavoro per la condivisione di esperienze, idee e best practice.
Quando: 26-27 marzo
Dove: Grand Hotel Dino, Baveno
Perché partecipare: organizzato da TIG – The Innovation Group, il summit prevede una prima giornata di sessioni plenarie (fra i temi in agenda, la threat intelligence, la protezione delle identità, la governance dell’intelligenza artificiale e la quantum security) e una seconda dedicata ai tavoli di lavoro tematici (compliance alle normative europee, sicurezza della supply chain, gestione del rischio e altro ancora).
Quando: 29 aprile
Dove: Palazzo dei Giureconsulti, Milano
Perché partecipare: questa edizione del summit di TIG Events racconta la trasformazione “Dalla Smart Factory alla Thinking Factory”: una fabbrica che diventa “organismo pensante”, grazie a tecnologie come Internet of Things, sensori, intelligenza artificiale e digital twin.
Quando: 6-7 maggio
Dove: Allianz MiCo, Milano
Perché partecipare: la prossima edizione del grande appuntamento annuale di Netcomm è sottotitolata
“Value Commerce: The New Era of Digital & Omnichannel Experience”. Si parlerà di AI, efficienza, esperienza e responsabilità come leve di cambiamento e di generazione del valore.
2026
GRAND HOTEL DINO BAVENO (VB)
