Technopolis 68

Page 1


STORIE DI ECCELLENZA E INNOVAZIONE

NUMERO 68 | LUGLIO 2025

IL FUTURO DEL BANKING

Gli investimenti Ict, la cybersicurezza, le nuove esigenze dei clienti: così le banche si trasformano

INTELLIGENZA ARTIFICIALE

Motori di ricerca e chatbot di GenAI si contendono il Web. Uno scontro diretto o un’ibridazione?

ITALIA DIGITALE

Il ruolo del cloud computing nei percorsi di innovazione di Pirelli, Miroglio e Ariston.

SPECIALE CISO

Dalla Nis2 all’AI, alla gestione del rischio: un confronto tra chief information security officer.

PLAYTIME IS OVER: METTERE IN AZIONE

PLAYTIME IS OVER: METTERE IN AZIONE

L’AI IN BANCA PER CRESCERE E INNOVARE

L’AI IN BANCA PER CRESCERE E INNOVARE 2025

N° 68 - LUGLIO 2025

STORIE DI ECCELLENZA E INNOVAZIONE

Periodico mensile registrato

presso il Tribunale di Milano al n° 378 del 09/10/2012

Direttore responsabile:

Emilio Mango

Coordinamento:

Valentina Bernocco

Hanno collaborato:

Camilla Bellini, Andrea Boscaro, Stefano Brigaglia, Giancarlo Calzetta, Gianluca Dotti, Elena Vaciago, Ezio Viola

Foto e illustrazioni:

Freepik, Pixabay, Unsplash, Adobe Firefly

Editore e redazione:

Indigo Communication Srl

Via Ettore Romagnoli, 6 - 20146 Milano tel: 02 499881

Pubblicità:

TIG - The Innovation Group Srl tel: 02 87285500

Stampa: Ciscra SpA - Arcore (MB)

© Copyright 2024

The Innovation Group Srl Tutti i diritti di proprietà letteraria e artistica riservati.

Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto.

Pubblicazione ceduta gratuitamente.

4

STORIA DI COPERTINA

La trasformazione delle banche, oltre il “risiko”

Il futuro del banking è nel post-digitale

Il cybercrimine che insegue il denaro (e non solo)

10 IN EVIDENZA

Cloud sovrano e intelligenza artificiale, pilastri della strategia

Velocità e flessibilità sono il segreto per vincere

Schiacciare il tasto “reset” per (ri)costruire il cloud

Il cambiamento inizia dai processi

Uno storage multiforme per un mondo in evoluzione

Cresce la “fabbrica dell’AI” di Dell Technologies

Quantum computing, la spinta arriva dalle reti

Dall’automazione alla “people-centricity”

Internet of Things, la marcia in più per gli utensili a batteria

26 ITALIA DIGITALE

Fra cloud e AI, un nuovo modo di pensare

30 INTELLIGENZA ARTIFICIALE

La ricerca diventa una conversazione

Dalla search experience alla delega cognitiva

34

CYBERSECURITY

Metadati e privacy: sbagliando s’impara

Rischio cyber, tra vecchi e nuovi problemi

Servizi gestiti e AI colmano il gap

38 SPECIALE CISO

La gestione del rischio è anche un’opportunità

Oltre la logica della paura

Il campo minato della tecnologia operativa

Governare l’AI per la cybersicurezza del futuro

46 ECCELLENZE

Bonfiglioli

Dainese

Sara Assicurazioni

Gruppo Banca Popolare del Lazio

50 APPUNTAMENTI

LA TRASFORMAZIONE, OLTRE IL “RISIKO”

Nelle

banche italiane crescono gli investimenti Ict.

L’intelligenza artificiale è un ingrediente, ma non il principale.

Grandi manovre in corso, con operazioni di consolidamento che stanno cambiando gli assetti del mercato. Ma anche una trasformazione digitale che va avanti, inseguendo obiettivi diversificati: l’incremento dell’efficienza operativa, quindi la riduzione dei costi e il miglioramento delle marginalità, ma anche la personalizzazione dell’offerta e la fidelizzazione dei clienti. Diremmo questo se dovessimo dipingere in poche pennellate un quadro in realtà molto complesso come quello delle banche. Da un lato il “risiko”, le strategie e i lavori dietro le

quinte; dall’altro il volto visibile della trasformazione, fatto di nuovi servizi sempre più digitali, con l’inevitabile emergere dell’intelligenza artificiale (che idealmente permette di combinare automazione e personalizzazione su larga scala).

La propensione digitale

Un ottimo punto di osservazione sullo scenario nazionale è quello di Abi Lab: come si legge nell’annuale report (“Scenari e trend del mercato Ict per il settore bancario”) pubblicato lo scorso marzo, sono due le forze trainanti della trasformazione IT delle banche in Ita-

lia. La prima è l’innovazione tecnologica, con l’AI in posizione privilegiata: si punta all’efficienza, a ottimizzare i processi e tutto il back-end , ma anche a migliorare i modelli di relazione con i clienti attraverso nuovi servizi e un customer support automatizzato. L’altra forza trasformatrice sono le sfide di resilienza, sicurezza e sostenibilità, in un settore tradizionalmente molto bersagliato dagli attacchi informatici e sottoposto ai nuovi obblighi della direttiva Nis2. Il risultato di queste dinamiche è che, nelle 23 realtà analizzate da Abi Lab (rappresentative dell’82% del settore bancario italiano in termini di dipendenti), la spesa in informatica e telecomunicazioni tendenzialmente cresce. Più precisamente, il 96% degli intervistati ha detto di aver confermato

TRADIZIONALI E NEOBANK

Secondo l’analisi di Deloitte, il settore italiano si divide tra banche tradizionali (cioè non native digitali), che nel nostro Paese erano circa 390 a fine 2023, e neobank, una ventina. Le tradizionali hanno registrato tra il 2019 e il 2023 un lieve incremento dei depositi diretti da clientela, con un tasso di crescita annuo composto del 4% nel periodo considerato. Per le neobank, invece, i depositi diretti hanno avuto una crescita annua del 50% nell’ultimo quinquennio, rispecchiando il tipico percorso evolutivo delle nuove banche digitali (tre fasi nel corso di sette anni, in cui il focus passa dall’attrazione della clientela, alla monetizzazione e alla diversificazione su segmenti e prodotti più complessi). Le realtà native digitali sono a volte realtà indipendenti e a volte una costola di quelle tradizionali, e qui Deloitte cita statistiche internazionali: oltre il 35% delle banche europee ha investito nello sviluppo di una digital bank o di una FinTech negli ultimi anni, mentre tre su quattro hanno rafforzato la collaborazione con FinTech verticali.

o aumentato il budget rispetto all’anno precedente, con un delta maggiore del 5% in circa metà dei casi (48%). Non troppo a sorpresa, l’AI si rivela un’area di interesse: per il 73% delle banche rientra tra le dieci priorità d’investimento Ict di quest’anno. Non è una sorpresa perché da anni il settore utilizza strumenti di AI per attività come i controlli antiriciclaggio, l’onboarding, l’analisi creditizia, la prevenzione frodi e il rilevamento delle minacce informatiche. Dovendo, però, nominare la primissima priorità di investimento Ict di quest’anno, solo il 5% degli intervistati di Abi Lab ha indicato l’intelligenza artificiale. Davanti ci sono le soluzioni per la resilienza e la continuità operativa (per il 14%), la trasformazione delle infrastrutture IT con container e microservizi (14%), poi l’area della cybersicurezza, l’onboarding digitale e le iniziative centrate sui dati (ciascuna voce al 9%). Insomma, l’AI non è tra i “fondamentali”, perché prima vengono le spese (quasi obbligate) per la sicurezza e le garanzie di buon funzionamento della banca. L’intelligenza artificiale è comunque una voce presente nell’agenda di trasformazione digitale di quasi tre banche su quattro. E il cloud computing? Non se ne parla più molto, forse perché il tema è ormai diventato trasversale, diluito in varie

altre tematiche di trasformazione digitale. Ma è interessante vedere, attraverso il report di Abi Lab, che ad oggi il 60% delle banche italiane ha usato il cloud per lo sviluppo di nuove applicazioni e per rinnovare quelle esistenti ma non di core banking (cioè non i sistemi usati per erogare i servizi fondamentali a clienti, utenti interni e filiali). Un discreto 20% ha, comunque, già adottato il cloud anche per rinnovare le applicazioni di core banking e un 55% sta valutando di farlo.

Rilevanza, non quantità

A completare il quadro ci pensa l’indice realizzato da Deloitte in base all’analisi di un campione di quasi 350 banche attive in 44 Paesi (di cui 22 in Italia) e a un’indagine demoscopica internazionale con oltre 4.400 rispondenti. In generale i player bancari italiani stanno aumentando gli investimenti in area tecnologica, sia con lo sviluppo di nuovi prodotti e servizi digitali sia con la creazione di neobank. Crescono, inoltre, i budget dedicati alla formazione e all’assunzione di nuovo personale esperto in informatica e innovazione: il problema delle competenze tecnologiche rallenta il 74% delle banche del nostro Paese.

C omplessivamente le banche italiane hanno un livello di maturità digitale

superiore alla media globale, ma non hanno compiuto particolari progressi negli ultimi anni. Fa eccezione la categoria dei “campioni digitali”, uno dei quattro gruppi della tassonomia di Deloitte: il loro indice di maturità digitale è cresciuto del 5% in quattro anni. Di questa élite fanno parte quaranta banche del mondo, fra cui anche tre italiane, caratterizzate dal fatto di proporre un’ampia gamma di funzionalità digitali rilevanti per i clienti e una user experience di livello superiore rispetto alla concorrenza.

C ’è un dettaglio non trascurabile: l’indicatore di Deloitte considera oltre mille funzionalità digitali, ponderate rispetto al loro livello di importanza emerso dall’indagine demoscopica. Essere “maturi” nel digitale non è, dunque, solo una questione di quantità, di numero di strumenti, servizi e funzionalità proposte. La rilevanza per il cliente, associata al miglioramento generale della user experience, sono discriminanti. “I campioni digitali italiani ritengono sempre più prioritario il potenziamento della relazione con la clientela, esplorando ambiti quali bancassicurativo e investimenti”, ha spiegato Gianmaria Trapassi, senior partner di Deloitte Digital. “Cresce l’attenzione verso i servizi extra-bancari, come programmi di loyalty, mobilità e in-

trattenimento, mentre resta indietro lo sviluppo di soluzioni in ambito real estate, più diffuse a livello globale. Per stimolare l’engagement della clientela, i campioni digitali italiani ricorrono a sistemi di intelligenza artificiale per garantire un’esperienza user-centric e iperpersonalizzata. In termini di customer journey, gli operatori italiani eccellono nei servizi di apertura di conti correnti tramite canali digitali (+4% rispetto alla media globale) e nella capacità di soddisfare bisogni complessi dei clienti, come bancassicurazione e investimenti (+5% rispetto alla media globale)”.

Abitudini in evoluzione

S e questa è la fotografia dell’Ict nelle banche italiane, qual è lo scenario dei comportamenti dell’utente? Qui ci aiutano i dati Eurostat e, nuovamente, l’analisi di Deloitte. Per Eurostat, l’Internet banking l’anno scorso ha raggiunto il 55% di penetrazione sull’utenza bancaria italiana, percentuale che va forse rapportata alla demografia del nostro Paese e alla non giovane età media della popolazione italiana. In ogni caso, secondo Deloitte, sull’uso dei servizi di banca via Web l’Italia evidenzia un ri-

tardo di sei-otto anni rispetto a Francia e Spagna e uno ancora più ampio con Paesi nordici come Danimarca e Finlandia. Per il mobile banking la penetrazione è, invece, al 60% e si prevede salirà all’80% tra quattro anni. “Negli ultimi anni, il livello di digitalizzazione in Italia ha registrato un tasso di crescita superiore rispetto ai Paesi europei, allineandosi alla media del continente”, ha commentato Manuel Pincetti, managing partner di Monitor Deloitte. “I comportamenti di consumo degli italiani, dunque, si dimostrano sempre più orientati al digitale nella quasi totalità delle abitudini quotidiane. Anche se questo fenomeno si riflette in misura ridotta rispetto ai comportamenti digitali in ambito bancario, il ritmo di crescita registrato tra il 2019 e il 2024 risulta superiore rispetto ai Paesi più avanzati in particolare per il canale mobile, con il 60% di utenti attivi contro il 35% del desktop, mostrando buone prospettive per la riduzione dell’attuale divario nei prossimi anni”.

Nel frattempo le filiali non scompariranno ma il loro numero calerà ancora: la copertura territoriale si ridurrà di circa un quinto nel giro di cinque anni,

secondo Deloitte, per arrivare a un conteggio di circa 16mila filiali “sopravvissute” nel 2029. Ci si recherà ancora allo sportello occasionalmente, ma per la stragrande maggioranza delle operazioni di routine basteranno un browser o un’applicazione per smartphone e anche per quelle più complesse (come la richiesta di prestiti o l’acquisto di un bene per investimento) la modalità digitale guadagnerà sempre più rilevanza. Lo scorso anno circa il 95% dei trasferimenti bancari è stato effettuato via Web (30%) o app (65%) nelle attività di gestione patrimoniale il 40% delle interazioni tra clienti e promotori finanziari si è svolto su canali digitali. Nel 2024, inoltre, 30% di prestiti è stato sottoscritto online, quota che secondo Deloitte crescerà molto nei prossimi anni, con il traino di prodotti di credito più semplici (come i prestiti personali e finalizzati). Data la burocrazia complessa che li caratterizza e data l’importanza di una consulenza personale in circostanze come la richiesta di mutui, per questi prodotti la penetrazione digitale si limita ancora al 15%. Nel 2024 c’è stato anche un notevole incremento (+50%) di polizze assicurative sottoscritte online.

GLI UTILIZZI DELL’AI NELLE BANCHE

• Automazione del supporto clienti per taglio dei costi e miglioramento della customer experience.

• Analytics ed elaborazione statistica sui clienti per ottimizzazione dell’offerta, efficienze, sviluppo di nuovi servizi.

• Analytics ed elaborazione statistica su dati storici e sui mercati per attività di Business Intelligence.

• Assistenza o automazione dei servizi di consulenza e gestione patrimoniale, per taglio costi, personalizzazione e fidelizzazione (robo advisory).

• Trading algoritmico per identificazione di opportunità di investimento o vendita.

• Analytics e sistemi di autenticazione degli utenti per riduzione delle frodi.

• Automazione del rilevamento e della risposta alle minacce informatiche.

• Automazione di procedure di onboarding, attivazione/disattivazione di carte di pagamento.

• Generazione di contratti e documentazione tecnica.

• Assistenti virtuali per uso interno, interrogazione di knowledge base, gestione automatizzata della conformità.

Vantaggi e criticità dell’AI I nevitabilmente, l’intelligenza artificiale è protagonista nei percorsi di trasformazione delle banche. Questo settore, più d i altri, è stato antesignano nell’utilizzo di tecnologie di machine learning, un utilizzo già consolidato in particolare nell’ambito della prevenzione delle frodi e dell’analisi dei dati transazionali. Ma anche le incarnazioni più recenti dell’AI, come quella generativa, si stanno facendo strada nelle banche, in questo caso soprattutto nel servizio clienti e in interfacce conversazionali rivolte agli utenti i nterni. Secondo le stime di McKinsey, un’adozione estesa della GenAI in questo settore potrebbe aggiungere 340 miliardi di dollari al giro d’affari annuo delle banche a livello mondiale. Come? Per esempio, incrementando le vendite delle banche retail attraverso prodotti finanziari personalizzati, confezionati dall’AI, oppure dando un supporto nella programmazione di applicazioni. Per ora, tuttavia, secondo McKinsey la maggior parte delle banche è ancora nella fase di sperimentazione o di proofof-concept di intelligenza artificiale generativa e si contano poche realizzazioni su larga scala.

S econdo la European Banking Authority (Eba, l’agenzia dell’UE incari-

cata di favorire l’uniformità di regolamenti tra le banche dell’eurozona), lo scenario sarebbe leggermente più maturo. Dal “Risk Assessment Questionnaire”, sottoposto nell’autunno del 2024 a un campione di 85 banche, risultava che già qualche mese fa la maggior parte delle iniziative di intelligenza artificiale avessero superato la fase pilota. Tuttavia, mentre alcuni utilizzi dell’AI nel banking si stanno consolidando, altri compaiono a macchia di leopardo. In Europa l’AI viene usata dalle banche soprattutto in tre ambiti: per la profilazione dei clienti e delle loro attività, per i controlli antifrode o antiriciclaggio e per l’ottimizzazione dei processi, finalizzata a efficienze e taglio dei costi. C’è invece ancora potenziale non sfruttato in altri ambiti in cui l’AI potrebbe dare una notevole spinta, come per esempio il reporting, il monitoraggio del rischio creditizio e la previsione dell’impatto ambientale dell’attività delle banche. Più facile a dirsi che non a farsi, probabilmente, visti i rischi connessi all’adozione dell’intelligenza artificiale in un settore che gestisce grandi quantità di dati sensibili. “Nonostante i benefici che l’AI potrebbe portare al settore bancario, l’adozione si accompagna a un ventaglio di sfide

e rischi che comportano una gestione attenta e test rigorosi”, scrive la European Banking Authority. Istituzioni finanziarie e compagnie tecnologiche esercitano un certo pressing, spingendo le banche a innovare rapidamente con l’AI, ma è consigliabile secondo l’Eba adottare un approccio cauto, nel rispetto delle normative orizzontali (come Gdpr e Nis2) e settoriali, e senza dimenticare i desideri dei consumatori. Come scrive l’Eba, serve “un impegno a garantire che l’AI sia sviluppata in modo etico e responsabile, allineandosi agli standard regolatori e alle aspettative delle persone”. Per quanto riguarda la strategia tecnologica da seguire, l’autorità bancaria suggerisce di sviluppare sistemi di intelligenza artificiale internamente, almeno per quanto riguarda i “componenti chiave”, in modo da ridurre la dipendenza da fornitori terzi. Così facendo, sarà anche più facile per le banche mantenere un certo controllo sui dati che vengono maneggiati dai sistemi di machine learning, sulla loro privacy e sicurezza. Va detto che questa è l’opinione della European Banking Authority, un’opinione non necessariamente allineata a quella dei vendor tecnologici.

Valentina Bernocco

l’analisi

IL FUTURO DEL BANKING È NEL POST-DIGITALE

Oltre che alle operazioni di M&A, l’evoluzione del settore dipenderà dall’uso dei dati e dall’intelligenza artificiale.

Non si parla di “risiko” a vanvera. Il settore bancario va verso il consolidamento, come dimostrano le numerose operazioni di acquisizione e fusione annunciate sia in Italia sia a livello internazionale tra la fine del 2024 e la prima metà di quest’anno. Grandi cambiamenti si prospettano con il piano di Mps (Monte dei Paschi di Siena) di acquisire il 100% del capitale di Mediobanca e con la potenziale fusione tra Unicredit e Banco Bpm (che nel momento in cui scriviamo ha ricevuto l’approvazione della Commissione Europea), e ancora, nell’ambito del risparmio gestito, con l’Ops di Mediobanca su Banca Generali. Banco Bpm ha messo a segno un’offerta pubblica di acquisto su Anima, società di gestione del risparmio. UniCredit ha ricevuto il via libera della Bce per acquisire una partecipazione diretta in Commerzbank fino al 29,9% (nel momento in cui scriviamo è salita al

20%). Banca Ifis ha chiuso una Opas (Offerta Pubblica di Acquisto e di Scambio) sulla totalità delle azioni di Illimity per trovare sinergie di costi e crescere sul mercato imprese. Inoltre è anche partita l’operazione di Bper per acquisire Banca Popolare di Sondrio. Queste operazioni sono rese possibili dalla liquidità disponibile di molte banche e dall’alto valore delle quotazioni. Ma sono anche favorite dalla necessità delle banche di attrezzarsi dimensionalmente per essere più forti in un mercato ormai non solo italiano ma europeo, che vedrà maggiore concorrenza e una politica economica e commerciale più aggressiva da parte della nuova amministrazione americana.

Ma il “risiko” non basta per capire la trasformazione in atto, né per tratteggiare il profilo futuro del settore bancario, quelli che saranno i suoi servizi e il rapporto con la clientela e anche la

sostenibilità del sistema. Occorre guardare e andare oltre il consolidamento: le operazioni di M&A sono un potente strumento per aumentare la scala e le sinergie, ma per rimanere competitive le banche devono abbracciare una vera trasformazione digitale. E questo significa anche, necessariamente, utilizzare tutto il potenziale dei dati e dell’intelligenza artificiale, elementi alla base di quella che alcuni definiscono “rivoluzione post-digitale”. Solo con l’intelligenza artificiale è possibile realizzare su larga scala quella personalizzazione necessaria per garantire una user experience all’altezza delle aspettative dei clienti. Omnicanalità e relazione personalizzata diventeranno il nuovo standard, ma per fornire un servizio di qualità tutto questo dovrà integrarsi con il fattore umano, con il supporto e la consulenza dei professionisti della gestione del credito. Su alcuni domini applicativi e funzionali, le banche già utilizzano da tempo tecnologie e applicazioni di AI: servizi di banking personalizzati, cybersecurity, prevenzione delle frodi, gestione dei rischi e allineamento alle normative (compliance). L’intelligenza artificiale, tuttavia, può e potrà avere un maggiore impatto generalizzato su prodotti, servizi, modelli operativi e di business in tutti i segmenti del mercato, dalle banche commerciali, al risparmio gestito, ai pagamenti. Aiutando nella fidelizzazione dei clienti ma anche nell’efficienza e nel taglio dei costi, l’intelligenza artificiale potrà essere per le banche la prossima frontiera della produttività e redditività. Sarà, tuttavia, necessario impostare obiettivi realistici e gestire i rischi connessi a un’adozione estesa dell’AI, come quelli occupazionali e reputazionali.

Ezio Viola

IL CYBERCRIMINE CHE INSEGUE IL DENARO (E NON SOLO)

Attacchi tesi alla monetizzazione, ma anche hacktivismo: il termometro del rischio sale nel settore dei servizi finanziari. E l‘Italia non fa eccezione.

La posta in gioco è alta. Per usare un’altra frase fatta, potremmo dire “follow the money”, alludendo a come il cybercrimine notoriamente segua i soldi, quindi i luoghi (fisici e virtuali) in cui i soldi vengono scambiati e conservati: carte di credito, conti corrente, digital wallet. I sistemi di online banking e le relative applicazioni per smartphone sono particolarmente blindati, grazie all’autenticazione multifattoriale e ai controlli antifrode predisposti dagli istituti finanziari. Ma d’altro canto è facile per i criminali far leva sull’anello debole della catena, cioè sulle persone, confezionando (anche grazie all’intelligenza artificiale) truffe di ingegneria sociale e phishing sempre più credibili. E non sempre è necessario bucare i sistemi di una banca,

quando basta intercettare anagrafiche e dati di pagamento da un qualsiasi sito di e-commerce o da un altro servizio per il quale l’utente ha fatto un acquisto. Un episodio di data breach può avere strascichi nel tempo, considerando che i dati vengono rivenduti sul Dark Web anche a distanza di anni.

gio di denaro. Uno squarcio sul contesto italiano lo offre Exprivia nel suo “Threat Intelligence Report”: oltre un quarto delle minacce rilevate in Italia nel primo trimestre del 2025 riguardava banche, assicurazioni e piattaforme di criptovalute, con numeri in crescita del 20% anno su anno.

Attacchi al settore finanziario in Europa (gennaio 2023 – giugno 2024)

Elaborazione grafica su dati Enisa

A nche i sistemi bancari, in ogni caso, non sono inviolabili, e un fattore di rischio è la complessità delle catene di fornitura tecnologica, tra software e servizi di terze parti che si sovrappongono tra loro. I dati di Enisa (European Union Agency for Cybersecurity) raccontano che su 488 violazioni cyber pubblicamente note, avvenute tra gennaio 2023 e giugno 2024 nel settore dei servizi finanziari, il 46% ha riguardato banche europee, il 13% organizzazioni della Pubblica Amministrazione centrale legate alla finanza, il 10% utenti vittime di frodi di phishing e ingegneria sociale che hanno causato perdite di denaro. In misura minore, gli altri target sono stati sistemi di pagamento, infrastrutture digitali, assicurazioni, società d’investimento, piattaforme per lo scambio di criptovalute e altri soggetti. A tal proposito, sempre a detta di Enisa, nel corso del 2023 e della prima metà del 2024 sono aumentati gli episodi criminosi legati agli asset crittografici, tra furti, truffe e riciclag-

Sebbene prevalente, la regola del “follow the money” non descrive l’intero scenario del rischio nel settore dei servizi finanziari. Tornando ai dati di Enisa, in Europa nel corso del 2023 e della prima metà del 2024 si è verificato un incremento di attacchi DDoS (Distributed Denial-of-Service) tesi a mandare in tilt i sistemi informatici o i siti Web di banche, specie per ragioni di propaganda politico-ideologica legata all’invasione dell’Ucraina da parte della Russia. Gli hacktivisti hanno colpito soprattutto gli istituti di credito europei e secondariamente i siti Web di istituzioni pubbliche legate al settore finanza: oltre al danno di immagine, sono episodi che comportano perdite monetarie dirette e indirette, fra tempi di fermo, sanzioni e furto di dati dei clienti. Episodi di questo tipo si sono visti anche in Italia sia in anni passati sia recentemente, in particolare con i DDoS del gruppo filorusso Noname057(16), che tra gennaio e febbraio sono tornati a colpire (dopo la campagna di attacchi dell’estate 2023) causando interruzioni di servizio per istituti come Intesa Sanpaolo, Monte dei Paschi di Siena e Mediobanca. V.B.

CLOUD SOVRANO

E INTELLIGENZA ARTIFICIALE, PILASTRI DELLA STRATEGIA

In occasione del summit annuale, Google Cloud sfoggia soluzioni e casi utente. Parla Raffaele Gigantino, country manager per l’Italia.

Esordisce con i numeri Raffaele Gigantino, da un anno country manager per l’Italia di Google Cloud, ricordando che nel 2024 sono state oltre tremila, a livello mondiale, le nuove funzionalità della piattaforma messe a disposizione degli utenti. Praticamente otto al giorno. Le “clou region” sono diventate 42, di cui due in Italia (Milano e Torino, realizzate in collaborazione con Tim), mentre e la rete in fibra ha superato la lunghezza totale di tre milioni di chilometri. Dal palco del Google Cloud Summit di Milano, andato in scena a giugno, Gigantino ha anche sottolineato l’impegno costante della multinazionale nel settore dell’intelligenza

Raffaele Gigantino

artificiale, a partire dall’esperienza di DeepMind, acquisita da Alphabet nel 2014. Attualmente Gemini, l’AI Assistant di Google, registra due miliardi di prompt al mese.

Oltre i numeri c’è, però l’adozione delle tecnologie, e in effetti i casi d’uso degli strumenti di intelligenza artificiale (e in ambienti ibridi) o anche solo delle funzioni avanzate della piattaforma cloud continuano a crescere: in Italia oltre 40 grandi clienti hanno realizzato progetti significativi insieme a Google Cloud, nomi come Fincantieri, Generali e Unicredit.

La “sovranità” accelera “Sappiamo bene che molte organiz-

zazioni, soprattutto nella Pubblica Amministrazione e nei settori più regolamentati, lavorano in contesti dove sicurezza, conformità e sovranità dei dati non sono un’opzione, ma un requisito imprescindibile”, ha detto Gigantino. “Per questo ci impegniamo ogni giorno a offrire soluzioni che aiutino le organizzazioni a rispondere a questi standard per abilitare un’adozione del cloud sicura, trasparente e affidabile”. Per quanto riguarda nello specifico il nostro Paese, un passo importante è stato l’ottenimento della qualifica di Livello 2 dell’Agenzia per la Cybersicurezza Nazionale (Acn) per l’infrastruttura Google Cloud e per i servizi. “Si tratta di un riconoscimento ufficiale”, ha spiegato il country manager, “in linea con la Strategia Cloud Italia, che certifica il rispetto dei più alti standard di sicurezza e resilienza richiesti alla Pubblica Amministrazione italiana. Una garanzia non solo per gli enti pubblici, ma anche per tutte le realtà che trattano dati sensibili e cercano una piattaforma affidabile e certificata. I servizi qualificati sono disponibili sul Cloud Marketplace dell’Acn”. L’offerta Sovereign Cloud di Google è in continua evoluzione e include in particolare Cloud Data Boundary, per il controllo preciso sulla localizzazione geografica dei dati e sulla gestione delle chiavi crittografiche e Cloud Air-Gapped, per soluzioni completamente disconnesse dalla rete, ideali per i settori con le più alte esigenze di isolamento dei dati. “Abbiamo, inoltre, introdotto User Data Shield, una nuova soluzione che offre garanzie fornite da Mandiant sulle proprietà sovrane delle applicazioni dei clienti sviluppate su Google Cloud Data Boundary”, ha precisato Gigantino. “A dimostrazione del nostro impegno

SUL PALCO I PIONIERI DELL’AI

Il Google Cloud Summit ha ospitato la prima edizione di “Italy AI Groundbreaker Award”, iniziativa nata per premiare progetti innovativi di aziende, startup ed enti che, grazie alle tecnologie di intelligenza artificiale, creano soluzioni a beneficio della collettività. Una giuria di esperti indipendenti ha esaminato i progetti in gara, selezionando le realtà che più si sono distinte per impatto, innovazione e visione.

Il vincitore per la categoria “AI Transformation for Italy” è stato Bper, per aver trasformato i processi interni tramite Agenti AI, modernizzando l'operatività e ottimizzando i flussi informativi e documentali. Il vincitore per la categoria “AI for Social Good” è stato Ganiga con Hoooly, il cestino dei rifiuti intelligente che usa l’AI per trasformare la gestione di ciò che si butta via in una risorsa strategica per l’ambiente e l’economia. Il premio di “AI Startup of the Year” è andato, invece, a Zendata grazie al progetto BloomyLabs, che trasforma la formazione aziendale e accademica con contenuti personalizzati, insight in tempo reale e tutela della proprietà intellettuale. Infine, vincitrice per la categoria “AI Pioneer” è stata Annarosa Farina, chief information officer e chief data officer di Ieo-Monzino, che coordina l'implementazione dell'AI in ambito medico e nella ricerca. L’AI viene utilizzata per analizzare i dati clinici più rapidamente, accelerando le scoperte e migliorando concretamente la cura del paziente.

per la sovranità digitale in Italia, abbiamo aperto qualche anno fa le nostre cloud region di Milano e Torino, che offrono un'infrastruttura all'avanguardia direttamente sul territorio. In questo contesto, collaboriamo con partner locali come Tim per proporre soluzioni quali EU Data Boundary – Assured Workloads che, operando sulle nostre region italiane, consente di esercitare un controllo granulare sulla residenza dei dati e sugli accessi, aiutando i clienti a rispondere agli stringenti requisiti di sovranità”.

Novità per aziende, sviluppatori e utenti

Tra le novità illustrate al summit, il lancio di Google Wan (che offre alle imprese prestazioni migliori e un co-

sto totale di possesso inferiore), l’ampliamento del portafoglio AI Hypercomputer con i nuovi Tpu Ironwood (dieci volte più potenti dei precedenti sistemi) e la disponibilità di Gemini su Google Distributed Cloud (Gdc), che porta i potenti modelli in ambienti on-premise e air-gapped, cruciali per le già citate esigenze di sovranità e sicurezza. Annunciati anche miglioramenti della Piattaforma Vertex AI, che ora include oltre 200 modelli nel Model Garden e capacità di grounding ampliate (collegando i modelli a Google Maps e ad altre fonti di dati di terze parti), e un ecosistema fiorente di Agenti AI, con il rilascio dell'Agent Development Kit open-source. Di impronta meno “business” ma certo di grande impatto è l’introduzio-

ne della traduzione vocale in Google Meet. “Questa nuova funzionalità”, ha detto Gigantino, “è progettata per facilitare comunicazioni più fluide durante le videochiamate, traducendo il parlato quasi in tempo reale e mantenendo la cadenza e il tono dell’interlocutore. Il risultato è una conversazione che risulta autentica e naturale, anche tra lingue diverse”. Dopo il lancio della traduzione tra inglese e spagnolo, arriveranno le traduzioni da inglese a italiano e viceversa. In fase iniziale la novità sarà disponibile per gli utenti consumer e successivamente verrà estesa al mondo aziendale, con l’obiettivo di migliorare la collaborazione e l’efficienza dei team aziendali distribuiti a livello globale.

Emilio Mango

VELOCITÀ E FLESSIBILITÀ

SONO IL SEGRETO PER VINCERE

Le strategie di Aws per dominare due mercati tecnologici fondamentali, raccontate dalla country manager Giulia Gasparini.

Cloud e AI sono le due tecnologie che sembrano destinate a governare il mondo nei prossimi anni e Amazon Web Services (Aws) detiene quote di mercato importanti in entrambi i settori, staccando i concorrenti di diverse lunghezze. Ma com’è arrivata l’azienda americana a una tale posizione di dominio? Abbiamo chiesto alla country manager Giulia Gasparini di parlarci di come funziona Aws in Italia e lei ci ha offerto una prospettiva unica sulla cultura aziendale, sulle specificità del nostro mercato e sull’impatto trasformativo dell’intelligenza artificiale generativa. Gasparini è approdata all’attuale ruolo di country manager a marzo scorso, ma la sua esperienza in Aws è iniziata nel 2022, quando gestiva il segmento del mercato privato (in pratica l’Smb) in Italia, Spagna, Portogallo e Francia. La sua carriera conta un numero significativo di esperienze importanti in giganti della tecnologia, partendo dai sei anni in Microsoft fino ai quindici e mezzo in Cisco. Sebbene i suoi ruoli siano stati prevalentemente nel settore delle vendite, in Microsoft si è dedicata alla parte post-vendita in ambito di adozione cloud, concentrandosi sulla realizzazione di progetti piuttosto che sulla commercializzazione diretta. Un modello di go-to-market diverso, che ha precorso i tempi e ha aperto i cancelli per il suo ingresso in Aws. È stato l’allora country manager, Carlo Giorgi, a coinvolgerla in un progetto ambizioso per il mercato italiano,

con l’intento di costruire qualcosa di “veramente importante”. La sua reputazione di persona capace di costruire organizzazioni “da zero” ha giocato un ruolo chiave e Giulia Gasparini si è rapidamente immersa nella mentalità “day one” di Aws, un approccio estremamente agile che modella l’organizzazione in base alle esigenze del business.

La cultura delle “due pizze”

Al centro della filosofia operativa di Aws risiede una cultura di estrema agilità e flessibilità, un modello che si adatta a un mercato in continua mutazione, ancor più imprevedibile in seguito all’avvento dell’AI generativa. Questo si concretizza attraverso i twopizza team, squadre piccole e dinamiche che possono essere modificate ra-

pidamente nel tempo grazie a strutture non rigidamente gerarchiche. Giulia Gasparini descrive questa attitudine come l’approccio di un allenatore che schiera le migliori persone in campo per ogni partita. Per poter mettere in pratica questo metodo, però, si parte da lontano e il processo di assunzione è fondamentale: Aws cerca individui che posseggano caratteristiche ben precise e che sposino i valori aziendali, persone definite “bar raising”. Questi professionisti sono già avvezzi a lavorare in contesti dinamici, dove servono agilità e capacità di adattamento. La flessibilità permette ai team di evolvere anche all’interno dello stesso anno fiscale, spostando risorse dove sono più necessarie per sostenere un progetto o un’ambizione specifica. Questo “empowerment manageriale” e la disponibilità delle persone a spostarsi sono supportati da processi interni, inclusi i piani di compensazione, che riconoscono la disponibilità dei collaboratori e la premiano. Nonostante Aws operi nel cloud da quasi due decenni, la sua “mentalità da startup” le consente ancora di affrontare l’incertezza del futuro, in un contesto in cui, dice Giulia Gasperini, “Andiamo a letto e c’è uno scenario, ci svegliamo e ce n’è un altro”.

Un mercato da scalare

Questa struttura sembra funzionare particolarmente bene in Italia, mercato caratterizzato da una frammentazione unica. Questa peculiarità,

Giulia Gasparini

però, non è secondo Gasperini un un ostacolo, bensì un valore. La country manager enfatizza come la GenAI abbia il potenziale per abilitare l’ingegno e le competenze, indipendentemente dalla dimensione aziendale, e come il cloud sia in grado di democratizzare l’accesso alle tecnologie, rendendole disponibili a realtà di ogni grandezza. Certo, le più piccole preferiscono la logica del buy a quella del build, ma il vastissimo marketplace di soluzioni Isv (Independent Software Vendor) disponibile permette di soddisfare qualsiasi esigenza.

Aws, quindi, ha adattato le proprie attività, spesso pensate per il mercato enterprise, alla realtà della media impresa italiana, un segmento di cui Giulia Gasparini si dice orgogliosamente parte. La vera forza in Italia è lo scaling: la capacità di raggiungere ogni angolo del Paese con la tecnologia. “La digitalizzazione dell’Italia”, dice la manager, “non si concretizzerà digitalizzando solo le prime trenta o cinquanta grandi aziende, ma quando il messaggio e gli strumenti digitali saranno portati a tutte le imprese, incluse quelle che un tempo erano piccole botteghe artigiane e che ora aspirano a competere globalmente”. Un obiet-

tivo raggiungibile solo combinando ingegno, competenza e un ecosistema di partner di cui Aws è estremamente fiera. Il canale è cruciale perché copre tutte le dimensioni aziendali e le loro necessità specifiche, sia in termini settoriali (con le relative regolamentazioni e compliance) sia tecnologici, riconoscendo che non tutte le aziende si trovano allo stesso punto del cosiddetto cloud journey, il percorso di adozione del cloud.

Oltre il “lift and shift”

Contrariamente a quello che si vede e si sente spesso in giro, Giulia Gasperini ha una visione molto ottimistica del panorama cloud in Italia, Paese dove a suo dire l’adozione tra le aziende è superiore a quella di altri mercati. Il percorso è ancora lontano dall’essere completo, specialmente per quanto riguarda la data strategy, ma il punto di partenza è tutt’altro che disastroso. Per il momento, molte aziende hanno erroneamente identificato l’intero cloud journey con il solo lift and shift, ovvero il trasferimento di infrastrutture all’esterno. Questo, pur essendo un primo passo fondamentale, non basta a liberare il pieno potenziale del cloud e della GenAI, che richiede passaggi

successivi per garantire risultati reali e positivi attraverso dati corretti. Tra questi passaggi c’è ovviamente quello della data security, un compito essenziale che non deve però essere portato avanti in maniera acritica. Nelle parole di Gasperini, Aws considera la compliance e le regolamentazioni come il Gdpr fondamentali, una “Bibbia”. Tuttavia, la country manager lancia un monito chiaro: non bisogna “morire di regolamentazioni”. Seguire in maniera cieca e fine a se stesse le norme potrebbe portare alla perdita di competitività in un mercato globale dove anche la piccola bottega deve affrontare una concorrenza. Bisogna trovare un modo bilanciato per tenere al sicuro i dati, salvaguardare la privacy e permettere all’azienda di crescere nel digitale, anche considerato il fatto che la GenAI ha indubbiamente accelerato la trasformazione digitale. La fase attuale in Italia sta superando quella della semplice sperimentazione e della “pilotite”, la mania per i progetti pilota. L’obiettivo è passare a una vera e propria integrazione “fluida” della tecnologia nei processi organizzativi. Sebbene l’adozione abbia visto in prima battuta l’implementazione di agenti e chatbot conversazionali, una fascia intermedia di aziende (circa il 20% degli adottanti iniziali) sta cominciando a integrare la GenAI in processi decisionali, seppur non ancora quelli critici. E solo una minoranza (l’11%) ha cominciato a riorganizzare in profondità il proprio modo di lavorare. Numeri che indicano una grande cautela, ma che sono normali nella visione di Gasperini perché si tratta di una rivoluzione che va a toccare la parte più sensibile delle aziende.

SCHIACCIARE IL TASTO “RESET” PER

(RI)COSTRUIRE IL CLOUD

Broadcom porta avanti l’evoluzione dell’offerta Vmware per aiutare le aziende controllare costi e prestazioni dei propri ambienti IT.

Ricreare un ambiente cloud privato o ibrido, non più soggetto a frammentazioni, sprechi e mancanza di controllo. Questa è la visione di Broadcom su come le aziende dovrebbero costruire e gestire i propri ambienti informatici, dentro e fuori dal data center interno. Sono passati ormai tre anni da quando Vmware è stata acquisita da Broadcom, diventandone un marchio e un ramo d’offerta. Il cambiamento del modello commerciale – con il passaggio dalla vendita di licenze perpetue a quelle in abbonamento e la sintesi delle diverse soluzioni sulla piattaforma Vmware Cloud Foundation – è stato visto dalla concorrenza come un’occasione da cogliere al balzo per intercettare nuovi clienti. Per Broadcom era, invece, una necessaria evoluzione verso un modello di vendita ormai diventato quasi uno standard sul mercato, e l’azienda sottolineava anche il vantaggio, per i clienti, della portabilità delle licenze. “C’era l’idea che Broadcom non avrebbe poi investito su Vmware, invece l’azienda è arrivata con una visione strategica che si è poi realizzata”, ha esordito il country manager Mario Derba in conferenza stampa, argomentando a suon di numeri. Prima dell’acquisizione di Vmware, Broadcom spendeva in ricerca e sviluppo circa 5 miliardi di dollari all’anno in ricerca e sviluppo, mentre nell’esercizio fiscale 2024 ha investito 9,3 miliardi di dollari. Derba ha anche

raccontato che i “piani di fuga” ipotizzati da molti clienti non si sono poi realizzati, semplicemente perché conveniva restare con Vmware, perché il passaggio a un differente fornitore (o in public cloud) comporta rischi, tempi e costi: in media, circa mille dollari per ogni macchina virtuale “migrata”. “Quando hanno fatto i conti, si sono accorti che rispetto ai concorrenti le nostre soluzioni sono straordinariamente competitive”, ha detto il country manager. “Nel valutare piani di fuga da Vmware, per la paura di un aumento dei costi, si sono resi conto che non avrebbe avuto senso”. (Tra parentesi, sottolineiamo che si è scelto di tornare indietro sulla scelta di ritirare la versione gratuita

dell’hypervisor Vmware ESXi, nuovamente disponibile dallo scorso aprile).

Una nuova partenza

Broadcom sta puntando tutto sul cloud privato, pur ammettendo che per le aziende l’opzione del cloud pubblico non sia da scartare, almeno per certi carichi di lavoro o attività. Prima, però, bisogna fare ordine nell’infrastruttura IT esistente, eliminando le inefficienze, gli sprechi di risorse e i famigerati silos di dati. Per usare lo slogan scelto da Broadcom, bisogna schiacciare il tasto “reset” e ricreare un ambiente IT più integrato, controllato e gestibile. “Per molti”, ha proseguito Derba, “il cloud era un paradiso tecnologico dove si potevano posizionare le applicazioni e lasciare che facesse tutto lui. Poi i costi sono esplosi, la complessità è esplosa e la compliance si sta rivelando un problema gravosissimo”.

In questo scenario irrompe Vmware Cloud Foundation 9.0 (Vcf 9.0), la nuova versione della piattaforma che ha sintetizzato su di sé prodotti un tempo disgiunti. Vcf 9.0 viene proposto come un “modello operativo coerente per il cloud privato”, che abbraccia sia gli ambienti on-premise sia infrastrutture cloud gestite da fornitori di servizi e hyperscaler, e che è utilizzabile per qualsiasi attività, dall’Erp all’intelligenza artificiale, dalle applicazioni tradizionali a quelle moderne o containerizzate. A detta di Broadcom, si dà una risposta a tre problemi fondamentali, alle “tre C”: complessità, costi e compliance.

Le novità tecnologiche

Le novità delle release 9.0 riguardano soprattutto l’interfaccia utente (rivolta ai cloud admin ma anche al

Mario Derba

IL PRIVATE CLOUD CHE PIACE ALLE AZIENDE

L’on-premise come lo conoscevamo un tempo oggi non c’è più, ma l’esigenza di tenere dati e applicazioni “in casa propria”, cioè in azienda, non è scomparsa. La ricerca “Private Cloud Outlook 2025”, condotta da Illuminas per conto di Broadcom su 1.800 decisori IT senior di piccole, medie e grandi imprese in Nord America, Europa e Asia-Pacifico, evidenzia che il cloud privato gode di ottima considerazione. L’84% del campione lo utilizza sia per applicazioni enterprise tradizionali sia per carichi di lavoro moderni e cloud-nativi, come applicazioni a microservizi e containerizzate. Il 93% si affida al cloud privato per requisiti di sicurezza e compliance e un simile 90% apprezza la visibilità e la prevedibilità dei costi associati a questa opzione, rispetto a un cloud pubblico che invece spesso (per il 94% degli intervistati) comporta sprechi per via di risorse e servizi che si pagano ma restano sottoutilizzati. Quali le sfide, per chi voglia adottare il cloud privato o già utilizzi ambienti di questo tipo, ma in modo non ottimale? I problemi più citati sono i silos ( 35% degli intervistati) e la carenza di competenze interne (29%). Il 53% dei decisori IT ha come priorità per i prossimi tre anni l’avvio di nuovi workload in ambienti di cloud privato.

personale DevOps), il maggiore supporto alle tecnologie container e funzionalità che aiutano a controllare e ridurre i costi dell’infrastruttura IT.

Particolarmente importante è la nuova interfaccia, che diventa la cabina di regia dell’intero ambiente informatico, dal calcolo, allo storage al networking, senza tralasciare la gestione delle identità e degli accessi (quindi il single sign-on, le policy delle password e i certificati) e l’analisi dei log, utile per migliorare sia le prestazioni sia la sicurezza dell’infrastruttura.

“I clienti sono organizzati per silos che non parlano tra di loro: uno per lo storage, uno per i server, uno per la sicurezza, uno per il network”, ha commentato Derba. “Broadcom ha preso le migliori soluzioni presenti sul mercato in queste aree, come quelle di Vmware, e le ha messe insieme. Non solo cambiando un titolo. Già Vmware aveva pensato di farlo dieci anni fa, chiamandolo software-defined data center, ma tra il dire e il fare c’è di mezzo il mare”. Broadcom ha invece ha realizzato una piattaforma integrata che permette di realizzare “un private cloud come si deve”, ha detto

il country manager. “Con questo annuncio abbiamo la migliore e più moderna piattaforma per realizzare il private cloud e abilitarlo a una eventuale migrazione al public cloud. Il cloud ibrido diventa accessibile e governabile”. Avendo ottimizzato la propria infrastruttura, le aziende possono poi anche scegliere di spostare parte delle proprie attività in public cloud senza – a quel punto – incorrere in costi,

complessità e difficoltà di compliance. “Avevamo una frammentazione di prodotti e versioni un po’ disgiunte. Con Vcf 9.0 abbiamo voluto dare un messaggio anche all’utenza tecnica”, ha detto Claudia Angelelli, manager solution engineering Vmware di Broadcom, spiegando come sia possibile installare in pochi minuti una macchina virtuale e in poche ore un’intera farm. In sostanza, si crea un cloud all’interno del data center del cliente, con tutti i vantaggi di flessibilità, elasticità e scalabilità tipici della “nuvola” ma con un maggiore controllo sui costi e sulla sicurezza.

La manager ha sottolineato i temi della sicurezza e della gestione, raccontando come spesso le aziende rimangano abbonate a servizi di cloud pubblico che non usano più o non sfruttano al pieno del potenziale. Non è un’accusa al cloud o al cloud pubblico, ma al modo un po’ casuale e disordinato in cui viene utilizzato. “Se il cloud non lo gestisci, il cloud ti sfugge e ti sfuggono i costi”, ha sintetizzato Angelelli. “Con Vcf 9.0 non c’è nulla che possa sfuggire al controllo”.

Valentina Bernocco

Claudia Angelelli

IL CAMBIAMENTO INIZIA DAI PROCESSI

La Process Intelligence abbinata all’AI e ai digital twin è la formula proposta dalla tedesca Celonis.

Se i processi funzionano, l’intera azienda funziona. E l’intelligenza artificiale diventa fruttuosa, attendibile, inserita in quella macchina complessa che è l’azienda. Questa la filosofia fondante di Celonis, società tedesca nata nel 2011 a Monaco, che propone soluzioni cloud (Software-asa-Service) per l’ottimizzazione dei processi aziendali. Un messaggio ribadito di fronte a clienti e partner italiani durante il “Process Intelligence Day” dello scorso giugno a Milano. “I processi sono importanti, sono il punto di partenza, sono la più grande fonte di valore e leva del cambiamento”, ha esordito il country leader italiano di Celonis, Andrea Carboni. “Peccato però che cambiare in molte aziende sia difficile, perché fin dagli anni Ottanta e Novanta i processi hanno iniziato ad adattarsi ai sistemi, anziché il contrario. Dovrebbero, invece, essere i sistemi ad adattarsi ai processi. Le customizzazioni stanno diventando sempre più complesse da mantenere ed

è difficile cambiare qualcosa nei processi e, soprattutto, farlo rapidamente”. Il disaccoppiamento fra sistemi e processi è il principio che sottende alla piattaforma di Celonis. Al suo centro c’è, invece, il Process Intelligence Graph (PI Graph): un “gemello digitale”, ovvero una fotografia aggiornata in tempo reale dei flussi operativi di un’azienda. Questo modello dinamico evidenzia le relazioni tra i processi e le inefficienze da correggere, in ottica di miglioramento continuo.

“Quando i processi funzionano, tutto funziona meglio”, ha proseguito Carboni. Ma è più facile a dirsi che non a farsi, perché nel cuore di molte aziende c’è una disconnessione: i sistemi non dialogano tra loro, e tutto questo porta a inefficienze”. Secondo un recente studio di Celonis (“Process Optimization Report 2025”, condotto su oltre 1.600 aziende), per il 79% dei professionisti comprendere i processi aziendali è cruciale per migliorare il funzionamen-

to dell’azienda e per creare valore. L’89% pensa che l’intelligenza artificiale possa dare risposte utili, di valore, solo se ha una comprensione del contesto. Qui entra in gioco il PI Graph, che fornisce dati e contesto ai modelli di AI, rendendoli più efficaci. “Siamo ancora alla punta dell’iceberg: molti di voi usano ancora l’AI per la produttività individuale, ma il vero ritorno sull’investimento lo si avrà quando l’AI sarà usata per migliorare l’efficienza dei processi aziendali”, ha detto Carboni, facendo l’esempio di algoritmi che aiutano a gestire le forniture in una supply chain, anche con azioni correttive in tempo reale. I casi d’uso della Process Intelligence abbinata all’AI (non solo teorici ma sperimentati da clienti anche italiani di Celonis, per lo più medie e grandi imprese) coprono diversi dipartimenti e settori di mercato. Nella gestione degli ordini, per esempio, si possono individuare le deviazioni di processo e i legami con i Kpi da monitorare: i software propone una lista di miglioramenti da introdurre, associati a una stima dell’impatto economico di tali azioni. Dashboard visuali mostrano in tempo reale la variazione dei Kpi e dell’impatto economico degli interventi. Altre aziende usano Celonis per il recupero crediti, per la gestione dei resi o per l’ottimizzazione delle attività produttive, del magazzino o della catena logistica. E ancora, con la Process Intelligence è possibile ottimizzare i costi e creare automatismi nei processi di acquisto. In ambito industriale e nelle utility, l’integrazione nativa di Celonis con la Power Platform di Microsoft permette di ottimizzare i processi di manutenzione degli impianti. In ambito assicurativo, poi, l’intelligenza artificiale costruita sui processi consente di analizzare rapidamente grandi volumi di dati e documentazioni, per estrarre le informazioni che servono in un preciso momento.

Valentina Bernocco

Andrea Carboni

UNO STORAGE MULTIFORME

PER UN MONDO IN EVOLUZIONE

DataCore oggi può archiviare e gestire dati di diverso tipo, dal “core” all’edge, dall’iperconvergenza ai container.

Lo storage è cambiato, sta cambiando e continuerà a farlo. Ci sono state delle vere rivoluzioni in questo mercato, capaci di scardinare le dinamiche tecnologiche e commerciali: l’all-flash, la virtualizzazione, la logica software-defined, il boom dei dati non strutturati, la migrazione in cloud. Le tendenze attuali sono i container, le architetture a microservizi e, naturalmente, le necessità dell’intelligenza artificiale. Una società come DataCore Software, che è sul mercato da oltre un quarto di secolo (è nata nel 1998 a Fort Lauderdale, Florida), ha attraversato tutti questi cambiamenti e in molti casi ne è stata anche artefice. Da sinonimo di storage a blocchi, utile soprattutto per i dati strutturati dell’Erp, oggi è diventata anche altro. “DataCore era posizionata sulla crescita dei dati primari, quelli dell’Erp, i database SQL, i dati a valore per l’azienda, che hanno bisogno di più sicurezza”, ha detto in conferenza stampa Rémi Bargoing, country ma-

nager per l’Italia. “Il problema è che questi dati non crescevano in modo sostanziale. L’aumento dei dati è legato a quelli secondari, come i dati dell’IoT. Con il tempo i dati secondari hanno richiesto lo stesso livello di sicurezza di quelli primari, e pensiamo ai sistemi di videosorveglianza di aeroporti, che con la direttiva Nis2 devono garantire la conservazione dei dati per molti anni. Questo ci ha permesso una crescita enorme, ma le tecnologie di storage di oggi non sono le stesse del passato”. Un punto di svolta è stato il passaggio del testimone da George Teixeira, fondatore dell’azienda e suo Ceo per vent’anni, al nuovo amministratore delegato Dave Zabrowski, in carica dal 2018. “L’idea del nuovo management”, ha raccontato Bargoing, “era di trovare una nuova onda da sfruttare per tornare alla crescita significativa, dopo che lo storage era diventato ormai una commodity”.

Un percorso di acquisizioni

Le onde che DataCore ha saputo sfruttare sono, in realtà, più di una e l’azienda le ha cavalcate grazie ad acquisizioni strategiche. Si è partiti nel 2021 con la texana Caringo, che ha permesso di allargare l’offerta con una tecnologia per l’object storage, Swarm, indicata per gestire dati secondari come quelli della videosorveglianza o i dati video delle media company. Nel 2022 l’acquisizione di MayaData ha aperto le porte di un mercato che allora era di nicchia, l’archiviazione per container

Kubernetes (MayaData è lo sviluppatore originario della tecnologia cloudnativa OpenEBS). Nel 2023 è stata la volta di Object Matrix, fornitore di tecnologie per l’archiviazione a oggetti, rivolte soprattutto alle media company: da qui l’apertura di una nuova divisione di DataCore, Perifery, focalizzata su questo segmento di clientela. Dopo un’iniezione di capitale da 60 milioni di dollari, arrivata dal fondo Vistara Growth nel 2024, quest’anno altre due operazioni societarie: prima Arcastream, che ha aggiunto il tassello del file storage, e poi StarWind Software Un’azienda ucraina, quest’ultima, che ha permesso a DataCore di portare il block storage e l’iperconvergenza a contesti edge, filiali e piccole medie imprese, per clienti come banche, catene della Gdo e compagnie di navigazione. “Il dato è complesso, non può essere gestito con una singola tecnologia”, ha osservato il country manager. “Servono diverse tecnologie per diversi tipo di dato, e per questo abbiamo fatto acquisizioni”.

Un’offerta completa

Oggi DataCore si qualifica come società di storage software-defined, che permette di archiviare dati ovunque, tra core, edge e cloud, senza problemi di incompatibilità. In Italia conta circa 850 aziende clienti. “Con le nostre tecnologie”, ha detto Bargoing, “oggi abbiamo, penso, un portafoglio unico sul mercato. Senza apparire prepotente, posso dire che abbiamo il portafoglio più completo sullo storage nel mondo. Potete andare da Dell, Da Pure, da Hp, ma nessuno oggi ha un’offerta così completa e consistente sui diversi tipi di dato. Inoltre sappiamo che domani si andrà verso i container e siamo già pronti”. V.B.

Rémi Bargoing

CRESCE LA “FABBRICA DELL’AI”

DI DELL TECHNOLOGIES

Dai Pc alle infrastrutture “disaggregate”, gli algoritmi saranno sempre più vicini al luogo in cui nascono i dati.

Per fare bene intelligenza artificiale non basta un solo paradigma, un solo modello, una sola infrastruttura di calcolo. Una delle “verità” emerse nel corso del recente Dell Technologies World, tenutosi a Las Vegas, è che non esiste una formula ideale per realizzare progetti efficaci con l’AI. Ci vogliono “costellazioni” di tecnologie e modelli ma soprattutto diverse piattaforme dove far girare i processi di training e di inferenza: dal cloud pubblico a quello privato, dall’edge ai personal computer. Gli annunci del Ceo, Michael Dell, e della sua prima linea di manager a Las Vegas hanno battuto molto su questo tasto, un tema di apparente complessità che in realtà è un modo maturo di affrontare una tecnologia relativamente nuova ma soprattutto in rapidissima

evoluzione. Una certezza, però, Dell ce l’ha: i dati sono la componente più importante e i carichi di lavoro dell’AI, nel prossimo futuro, dovranno essere sempre più decentralizzati e vicini al luogo in cui i dati nascono o devono essere usati.

Una visione “policentrica”

Inutile dire che le piattaforme di Dell Technologies si prestano perfettamente a questa visione “policentrica”: dai componenti per la costruzione di grandi data center, all’edge computing, fino ai più recenti modelli di workstation e notebook, tutto contribuisce all’ecosistema dell’AI. Persino il software, che nel corso dell’evento è stato ancora più protagonista rispetto agli altri anni. “La produttività personale sta per essere reinventata grazie

all’AI”, ha detto Michael Dell nel suo discorso di esordio, “e noi torniamo a dove siamo partiti: ai personal computer, che stanno diventando delle vere e proprie stazioni di lavoro di intelligenza artificiale”. Ovviamente a Las Vegas non sì è parlato solo di Pc, anzi, hanno avuto grande spazio i server, sempre più potenti ed efficienti, e i componenti dei data center. Su quest’ultimo fronte, Dell Technologies ha dato nuova linfa alle infrastrutture multi-tier, che ora ha ribattezzato “disaggregate” per distinguerle dal trend, ormai stabile, delle apparecchiature iperconvergenti. Secondo Dell, le nuove infrastrutture a tre componenti (calcolo, storage e networking) grazie al software hanno ormai raggiunto la flessibilità di quelle iperconvergenti, ma sono più adatte ai nuovi carichi di lavoro.

L’efficienza delle AI factory

Inaugurato l’anno scorso, il paradigma della “AI Factory” sarebbe, secondo Michael Dell, il 50% più efficiente rispetto al cloud pubblico, arrivando addirittura fino al 62% nei processi di inferenza degli LLM. Il modello è costruito su alcuni blocchi fondamentali: i dati, l’infrastruttura (dal cloud all’edge, passando per data center e Pc), l’ecosistema (aperto) dei tool e delle applicazioni, i servizi e, ovviamente, gli use case (come ad esempio i digital twin, gli assistenti, la visione artificiale). La multinazionale ha lavorato in questi mesi per rendere il più possibile aperto e interoperabile questo schema, portando avanti anche partnership di rilievo come quella con Nvidia.

In effetti, al di là dell’AI Factory, al Dell Technologies World lo spazio dedicato ai partner era decisamen-

Michael Dell

DALL’HYPE ALLA CONCRETEZZA

David Keasey, global revenue lead di Dxc Technology, non usa mezzi termini: “Non si può negare che anche l’AI abbia seguito il ciclo di vita di altre tecnologie. C’è stata una fase di innamoramento, di hype, ma ora la pressione da parte dei board per ncrementare la spesa in AI è reale”. Incontrato a Las Vegas durante il Dell Technologies World, Keasey sembra come molti frastornato dal grande entusiasmo per l’AI generativa e agentica, ma il suo ruolo lo porta a stare con i piedi per terra e a osservare pragmaticamente le dinamiche del mercato. “Il modo con cui facciamo progetti AI è chiamato Intelligent Operations”, ha spiegato. “Non è nuovo, abbiamo da sempre seguito i clienti nei progetti che coinvolgevano il machine learning e gli analytics predittivi. Oggi, indubbiamente, più della metà delle soluzioni che aiutiamo a sviluppare coinvolgono in un modo o nell’altro tecnologia AI, soprattutto di tipo generativo”. L’intelligenza artificiale viene utilizzata da Dxc anche al proprio interno, per esempio per risparmiare tempo in attività come meeting, generazione di contenuti e assistenza ai clienti. “Visto che qui a Las Vegas si parla soprattutto di architetture”, ha proseguito Keasey, “il mio punto di vista è che ogni progetto ha la sua soluzione appropriata: se la natura del business è distribuita, anche l’infrastruttura sottostante deve esserlo, arrivando fino alla Private AI ad esempio negli shopfloor delle fabbriche”.

te imponente: c’erano i maggiori produttori di Cpu (come Intel e Amd), c’erano i partner hardware e software (tra cui Nutanix), c’erano i system integrator (come Dxc).

L’impressione è che, in effetti, la parola “ecosistema” non fosse solo un mantra incoraggiato dal marketing ma una vera e propria realtà di fatto da cui ormai non è più possibile tornare indietro: l’efficacia delle soluzioni dipende dal mix ideale di hardware, software e servizi che si riesce ad assemblare, e l’era dei vecchi lock-in sembra definitivamente sulla via del tramonto.

L’edge si fa strada

Sotto la spinta dell’intelligenza artificiale, finalmente il calcolo “periferico” sembra trovare un percorso virtuoso di crescita. “Anche quattro anni fa si parlava di edge”, ha raccontato Pierluca Chiodelli, vice president product management edge solutions di Dell, incontrato a Las Vegas. “Ora però l’AI ha accelerato lo sviluppo di queste architetture e c’è ancora mag-

giore necessità di connettere luoghi diversi, dove i processi di intelligenza artificiale devono poter essere eseguiti. In molte industry il problema della latenza, ad esempio, non permette di operare senza un’architettura edge, e pensiamo alla manutenzione predittiva o più in generale ai processi di fabbrica: i dati devono stare dove nascono e dove servono, e lì dev’esserci anche l’AI”. NativeEdge, la piattafor-

ma software di Dell Technologies di cui Chiodelli è un po’ il “papà” e che fa parte della più ampia famiglia delle soluzioni Private Cloud, può semplificare l’adozione delle architetture edge (è fruibile in abbonamento) e migliorare la sicurezza. “Lo installi e ti puoi permettere di pensare solo a usarlo”, ha detto Chiodelli a Technopolis. Emilio Mango

QUANTUM COMPUTING, LA SPINTA ARRIVA DALLE

RETI

Grazie a nuovi chip, Cisco punta a usare le esistenti infrastrutture in fibra ottica all’interno di sistemi di calcolo quantistico.

Le reti quantistiche di Cisco possono accelerare l’intero ecosistema del quantum computing. Forte della recente apertura dei Cisco Quantum Labs a Santa Monica, in California, la multinazionale sta sviluppando velocemente una tecnologia di rete che, secondo i suoi esperti, dovrebbe costituire le basi della futura “Internet quantistica”, velocizzando anche l’adozione del quantum computing. “Il nostro approccio potrebbe accelerare l’implementazione di applicazioni di calcolo e networking quantistiche di grande impatto, da decenni a soli cinque o dieci anni”, scrive Vijoy Pandey, senior vice president, Outshift by Cisco, sul blog dell’azienda. L’occasione è quella della presentazione del prototipo Quantum Network Entanglement Chip, una tecnologia definita rivoluzionaria, che consentirebbe alle reti quantistiche di diventare una realtà scalabile e di connettere processori quantistici per applicazioni concrete.

Come dichiarato a Technopolis dallo stesso Pandey e dal suo collega Reza Nejabati, head of Quantum Research and Quantum

Labs, le reti “targate” Cisco sono in grado di connettere tutte le tipologie di processori attualmente in fase di sviluppo, come quelli che sfruttano i Qbit topologici (di Microsoft), i superconduttori (Ibm, Google, Intel) o gli ioni intrappolati (IonQ). Cisco sta progredendo rapidamente in due segmenti del calcolo quantistico: il networking e la security, ovvero due ambiti molto importanti, dove con tutta probabilità i risultati concreti arriveranno prima rispetto ai computer quantistici commerciali. “Stiamo lavorando per connettere i quantum computer entro cinque o dieci

anni”, ha ribadito Pandey nel corso di una conferenza stampa internazionale, “e per farlo stiamo realizzando l’hardware, il software e i protocolli necessari”. Un aspetto rilevante, sottolineato dal senior vice president, è che è possibile usare anche la tecnologia esistente, vale a dire le reti in fibra ottica, perché per sfruttare l’entaglement vengono utilizzati i fotoni ed è necessaria una quantità di energia limitata.

“Il futuro del calcolo quantistico non risiede in un singolo computer quantistico monolitico”, ha scritto ancora Pandey sul suo blog. “I data center quantistici scalabili, in cui i processori lavorano insieme tramite reti specializzate, saranno la strada pratica e realizzabile e le aziende che sviluppano processori quantistici trarranno vantaggio dalle tecnologie di networking quantistico di Cisco per scalare i propri sistemi. Costruendo questa infrastruttura ora, Cisco sta contribuendo ad accelerare l’intero ecosistema quantistico”.

Il componente che permette di creare e gestire l’effetto di entaglement che abilita la trasmissione istantanea delle informazioni è sviluppato da Cisco in collaborazione con l’Università della California a Santa Barbara. Genera coppie di fotoni correlati (entangled) che consentono una connessione istantanea, indipendentemente dalla distanza, tramite il teletrasporto quantistico ovvvero ciò che Einstein descrisse come “azione spettrale a distanza”. “Il chip di Cisco”, spiega Pandey, “opera a lunghezze d’onda standard per le telecomunicazioni e può quindi sfruttare l'infrastruttura attuale. Funziona a temperatura ambiente come un chip fotonico integrato (Pic) miniaturizzato, il che lo rende adatto all’implementazione di sistemi scalabili già oggi”. Il chip consuma meno di 1 mW di potenza ma è in grado di produrre 200 milioni di coppie di fotoni entangled al secondo.

Emilio Mango
Vijoy Pandey

FINANCIAL CRIME: STRATEGIE PER COLMARE I DIVARI

L’automazione è cruciale in ambiti come la gestione del rischio, l’antiriciclaggio e la compliance.

Il crimine finanziario evolve rapidamente, alimentato anche dalle nuove tecnologie e da un panorama sempre più sofisticato di frodi, riciclaggio e attività illecite. Per discutere di come “chiudere i gap” nella prevenzione e nel contrasto di queste minacce, The Innovation Group e Appian hanno organizzato una lo scorso maggio a Milano una roundtable con esperti e responsabili di risk management, antiriciclaggio (Anti Money Laundering, AML), KYC (Know Your Customer), compliance e IT dei principali istituti finanziari italiani.

Il contesto è allarmante. Secondo i dati di Banca d’Italia, nel primo semestre 2024 le frodi nei pagamenti hanno superato i 50 milioni di euro, con un incremento del 67% rispetto allo stesso periodo del 2023. Le tecniche criminali evolvono rapidamente: false piattaforme di investimento, deepfake per aprire conti correnti, frodi sulle identità, uso di criptovalute per trasferimenti illeciti, socialengineeringe moneymuling.Le persone, siano esse clienti o dipendenti, sono il bersaglio principale. Come ha evidenziato Lorenzo Alegnani, Area Vice President, Customer Success di Appian, il cambiamento è guidato da cinque driver fondamentali: un panorama criminale in rapida evoluzione, crescenti aspettative dei clienti, nuove regolamentazioni globali, tecnologie emergenti nel campo dell’intelligenza artificiale ed esigenze di business in trasformazione. Nelle organizzazioni permangono tuttavia diverse barriere: dati frammentati, processi disomogenei, costi in crescita, sistemi legacy poco modernizzabili e un numero eccessivo di falsi positivi.

I vantaggi dell’automazione

La tecnologia, però, può rappresentare un potente alleato. L’automazione, in particolare tramite AI e machine learning, è già utilizzata nel transaction monitoring e nei processi di onboarding. La Robotic Process Automation (Rpa) supporta i controlli interni, mentre l’Open Source Intelligence (Osint) consente verifiche più efficaci, ad esempio nelle prime fasi della relazione con il cliente. Le piattaforme più moderne aiutano soprattutto in tre aree: a superare la frammentazione tra sistemi, processi e team diversi che hanno in carico AML, KYC e frodi; a ridurre i falsi positivi e migliorare il reporting; a creare una vista olistica del rischio, unificando investigazioni, automatizzando i processi e centralizzando l’accesso ai dati.

L’approccio di Appian punta proprio a integrare i sistemi senza necessità di migrare i dati, aumentando agilità e reattività. Sul piano organizzativo, la piena integrazione tra le funzioni AML, antifrode e KYC è auspicabile, ma complessa da attuare nelle strutture tradizionali. In alternativa, si speri-

mentano approcci graduali, che partono da aree specifiche e si estendono in modo progressivo. Le realtà digitali, più agili, adottano invece modelli centralizzati e integrati fin dall’inizio. Cresce, infine, l’attenzione verso il rischio legato alle terze parti.

Oltre la compliance

Il quadro normativo attuale presenta criticità: frammentazione, ambiguità e asimmetrie legislative possono essere sfruttate dai criminali. Nonostante questo, alcune iniziative come le linee guida dell’Autorità Bancaria Europea o gli standard tecnici per la Strong Customer Authentication e il Common Secure Communication hanno favorito l’innovazione. In prospettiva, l’Agenzia europea antiriciclaggio (AMLA) potrà giocare un ruolo chiave per l’armonizzazione normativa. Il messaggio emerso con forza dalla roundtable è la necessità di andare oltre la mera compliance formale, puntando a una vera efficacia nel contrasto. Per farlo, servono dati solidi per misurare l’impatto delle attività antifrode e una capacità organizzativa e tecnologica di adattarsi rapidamente alle minacce. Tre le leve per “chiudere i gap”: armonizzare e semplificare la normativa, migliorare efficienza interna e tecnologica, e promuovere una cultura della prevenzione condivisa tra attori pubblici e privati. E.V.

Lorenzo Alegnani

DALL’AUTOMAZIONE ALLA “PEOPLE-CENTRICITY”

Due acquisizioni rafforzano l’offerta di Archiva Group per la gestione documentale (anche dentro a Sap) e il controllo qualità.

Quello della gestione documentale non è, probabilmente, il tema più “sexy” del momento, ma resta di forte attualità. Una buona gestione documentale è la necessaria premessa per l’efficienza, la linearità dei processi e l’accesso alla conoscenza, e inoltre può fare da trampolino agli analytics, alla Business Intelligence e ai processi decisionali. L’evoluzione della gestione documentale si rispecchia in Archiva, azienda di Villafranca di Verona che da 25 anni eroga consulenza, servizi e tecnologie informatiche. “La nostra storia può essere divisa in quattro ere”, ha raccontato il fondatore e amministratore delegato, Giuliano Marone. “Dal 1998-2021 abbiamo vissuto nell’era dei dati, in cui Archiva si è posizionata per la capacità di estrarre dati e renderli intellegibili ai sistemi informativi”. Quest’era, in realtà, ha degli strascichi nel presente: ancora oggi, ha sottolineato Marone, si stima che il 70% delle informazioni aziendali resti inutilizzato, non sfruttato per fini di business o di automazione. E i servizi storici di Archiva continuano a essere usati per attività più evolute: è il caso di Requiro, suite di applicazioni per la gestione dei processi, la collaborazione e l’archiviazione digitale (recentemente aggiornata con capacità di AI generativa).

Nel 2012 è iniziata quella che Marone chiama “l’era dell’automazione dei processi”, in cui l’azienda ha introdotto tecnologie di Workflow Management che aiutano a velocizzare lavori ripetitivi e soggetti a errore umano, come il data entry, e strumenti low-

code per la standardizzazione dei processi. Nel 2020 si è aperta “l’era delle persone, in cui Archiva ha iniziato a fare anche un lavoro da software house, sviluppando interfacce tecnologiche”, ha proseguito Marone. “Prima partivamo da righe di codice per automatizzare dei servizi, ora partiamo dall’esperienza dell’utente e dall’aspetto funzionale per rivoluzionare il codice”. La quarta e ultima tappa ci porta ai giorni nostri ed è quella che Marone chiama “l’era della peoplecentricity”, in cui le persone sono al centro di un’offerta progettata per aiutarle a lavorare nel migliore dei modi.

Il passaggio al cloud

Per consentire personalizzazioni e flessibilità ai servizi proposti, è stato

fondamentale un altro passaggio: il trasferimento dell’infrastruttura di Archiva sul cloud pubblico, nella fattispecie quello di Amazon Web Services. Una scelta dovuta al notevole aumento della domanda di servizi che l’azienda si è trovata a dover gestire, complici sia la pandemia sia l’obbligo di fatturazione elettronica. Sono stati portati su Aws non solo i dati di Archiva ma anche i servizi, dopo aver riscritto i programmi in modo che funzionassero su un cloud esterno. “Un approccio che ha portato benefici ai clienti, perché abbiamo a disposizione tanti attrezzi nella cassetta, da offrire”, ha sottolineato il sales director, Samuele Fini. La piattaforma di Archivia è ora più scalabile e inoltre “si presta molto bene a essere una piattaforma su cui poter integrare

Giuliano Marone
Samuele Fini

ESG-TECH,

L’ALLEATO PER LA SOSTENIBILITÀ

La sostenibilità è un bell’impegno e spesso è anche un obbligo, a seconda del Paese e settore in cui un’azienda opera. La sostenibilità è però anche un’occasione per differenziarsi dalla concorrenza, per conquistare o fidelizzare clienti. Sul mercato esistono tecnologie per monitoraggio, tracciamento e reporting Esg più o meno specifiche, anche integrate con software più generalisti.

E poi ci sono gli specialisti dell’Esg-tech come Osapiens, scale-up tedesca fondata nel 2018, che conta nel mondo 1.800 clienti e 500 dipendenti. Dopo l’apertura della sede locale, a fine 2024, oggi in Italia sta già lavorando con una ventina di clienti di settori come packaging, food, carta, logistica e manifattura. Non è un caso: si tratta di ambiti che presentano particolari complessità in relazione agli obiettivi Esg, specie se si punta a rendicontare gli impatti ambientali estesi, cioè anche le emissioni Scope 2 (indirette, legate all’energia acquistata e consumata) e Scope 3 (allargate alla catena di fornitura).

Osapiens risponde a queste esigenze con un’offerta di 25 soluzioni verticali per la gestione dei rischi ambientali e di mancata compliance, che impattano sui costi dell’azienda e sulla reputazione. Il fine ultimo è abbattere, possibilmente azzerare tali rischi, con strumenti che consentono automazioni, personalizzazione e verifiche costanti sulla compliance. Un esempio specifico è Osapiens Hub for Eudr, soluzione cloud per l’analisi del rischio e la compliance alla normativa europea contro la deforestazione (European Deforestation Regulation), applicabile alle aziende che commerciano legno, caffè, cacao, gomma, olio di palma, soia, bovino e i loro derivati: saranno tenuta dimostrare che le loro attività non causano deforestazione e degrado ambientale.

Le grandi e medie aziende dei settori citati dovranno allinearsi alle nuove regole entro il 30 dicembre di quest’anno per le mentre le piccole e micro imprese avranno ulteriori sei mesi di tempo. Per gli inadempienti sono previste sanzioni (fino al 4% del fatturato annuo registrato in Ue), l’esclusione da appalti pubblici e il divieto di vendita per i prodotti non conformi. Hub for Eudr può importare automaticamente ordini e dati dai sistemi Erp, oltre a dati geospaziali registrati dai satelliti e a dati temporali relativi alla produzione o alla raccolta, direttamente dalle coltivazioni o dai siti produttivi. Algoritmi di intelligenza artificiale permettono di identificare in modo rapido e automatizzato i potenziali rischi di deforestazione o degrado forestale. L’AI viene usata anche per valutare il livello di rischio collegato ciascun fornitore e per identificare possibili lacune di conformità. Il sistema consente anche la generazione automatica della Dichiarazione di Due Diligence e il trasferimento diretto al portale europeo (IS) tramite API certificate. “L’Eudr rappresenta uno spartiacque tra chi è pronto a trasformare la sostenibilità in vantaggio competitivo e chi rischia di restare escluso dai mercati”, ha commentato Giuseppe Dimaria, sales director di Osapiens Italia. “Oggi, le imprese non possono più affidarsi a processi manuali o a gestioni frammentate. Serve una piattaforma solida, agile, e soprattutto già operativa”. V.B.

altre realtà, in ottica sinergica. Parole di Massimo Danna, partner di Progressio Sgr, il fondo di private equity indipendente che l’anno scorso ha acquisito la società veronese. “In Archiva abbiamo identificato fin da subito una realtà lungimirante rispetto ad altri competitor che sposavano ancora una visione basata su tecnologia monolitica, installata on-premise presso i clienti”.

Acquisizioni per crescere Con il supporto di Progressio, tra fine maggio e inizio giugno sono state realizzate due acquisizioni, con un investimento complessivo superiore ai 25 milioni di euro: Mitric (già controllata da Siav, che ha ceduto il 51%) e Ddm Technology. Mitric ha portato in dote varie soluzioni per la digitalizzazione dei processi e il Quality Management System, e in particolare

Checker, un software per la gestione degli audit e il controllo qualità, accessibile anche da terminali mobili (per ispezioni e attività sul campo). La padovana Ddm Technology, invece, ha permesso di potenziare l’offerta di Archiva per la gestione documentale, e più precisamente dell’Enterprise Content & Process Management per le aziende che usano il gestionale di Sap. Valentina Bernocco

l’intervista INTERNET OF THINGS, LA MARCIA IN PIÙ PER GLI

UTENSILI A BATTERIA

L‘IoT stimola l’innovazione anche fuori dall‘ambito informatico: il caso di Ego Power+.

Il segmento degli utensili alimentati a batteria cresce del 6,5% anno su anno, spinto da esigenze di sostenibilità ambientale ma anche dal continuo miglioramento delle prestazioni. Ne è esempio Ego Power+: nata 32 anni fa all’interno di Gruppo Chervon, l’azienda propone macchine utensili per la manutenzione del verde a uso domestico e professionali, come robot tosaerba, decespugliatori, sistemi per la potatura agli spazzaneve, accessori per il giardinaggio, luci portatili, ventole di nebulizzazione, idropulitrici, pompe a spalla, inverter e altro ancora. L’Internet of Things (IoT) è stata ed è una spinta all’innovazione, come ci ha raccontato Otello Marcato, sales manager Semea dell’azienda.

Quali sono i vantaggi degli utensili a batteria?

Oltre a essere più silenziosi di quelli a motore termico, sono altrettanto potenti e a volte addirittura molto di più, grazie alla maggiore efficienza del motore elettrico che permette di sfruttare al massimo la coppia e la potenza. A parità di potenza, si hanno prestazioni di gran lunga superiori, immediatamente riscontrabili con l’utilizzo. Inoltre, il motore elettrico è più economico rispetto al suo pari a benzina per vari motivi: maggiore efficienza e minori costi di ricarica, inferiore usura e minor numero di parti in movimento, dunque costi di manutenzione estremamente bassi. Praticamente, più lo si usa e più si risparmia. Tuttavia, a mio

avviso il maggior vantaggio è la totale assenza di gas di scarico: quindi durante l’utilizzo non solo si evita di inquinare, ma si elimina il rischio di respirare fumi che sono dimostrati essere cancerogeni.

Che ruolo ha l‘IoT in Ego Power+?

La tecnologia delle batterie si adatta perfettamente adatta all’approccio tipico dell’IoT, in cui dispositivi possono essere collegati via Internet e controllati i tramite app. Per offrire agli utenti professionali un vero vantaggio commerciale, Ego sta integrando soluzioni IoT nella sua gamma Pro X. L’app Ego Connect ha un’ampia gamma di funzionalità: innanzitutto, mostra i tempi di carica

e il livello rimanente per ogni batteria, e questo significa che è possibile personalizzare il ciclo di carica per avere la giusta potenza, per l’utensile giusto, al momento giusto, riducendo il più possibile i tempi di fermo. L’app consente di programmare con precisione i tempi di ricarica per sfruttare tariffe scontate, ad esempio durante la notte, con la certezza che gli utensili siano pronti quando servono il giorno seguente. Offre, inoltre, visibilità sia dei tempi di attivazione sia dei tempi di esecuzione, per aiutare a comprendere l’utilizzo e assicurare che nessuno sia esposto alle vibrazioni per troppo tempo. I vantaggi per la salute e la sicurezza sono evidenti ma, con i dati a portata di mano, si possono anche ridurre la burocrazia e i tempi amministrativi. L’app monitora anche lo stato di guasto e i “surriscaldamenti” per proteggere l’attrezzatura e migliorare la produttività. Attraverso il Gps, inoltre, è possibile sapere dove si trovino gli utensili in un dato momento e fare un audit dell’inventario in tempo reale. Questo è solo l’inizio di un programma di connettività in espansione, che contribuirà a favorire il miglioramento operativo e il successo commerciale.

Qual è il tempo medio di ricarica?

Offriamo diversi tipi di caricabatterie per diverse esigenze. Il modello più rapido da 700W ricarica completamente la batteria più leggera da 2,5Ah in circa 25 minuti, mentre per la batteria più capiente da 12Ah impiega 75 minuti. Per i professionisti abbiamo ideato un sistema multiplo, che permette di ricaricare decine di batterie da una normale presa di corrente senza la necessità di impianti speciali. Lo stesso sistema può includere anche una powerbank per ricaricare le batterie anche in assenza di prese di corrente. E.M.

Otello Marcato

FRA CLOUD, AI E UN NUOVO MODO DI PENSARE

Le esperienze di trasformazione digitale di Pirelli, Miroglio Group e Ariston: percorsi differenti, ma con alcune caratteristiche in comune.

Il panorama attuale della trasformazione digitale nelle aziende italiane è estremamente dinamico e può variare moltissimo a seconda delle realtà coinvolte. Abbiamo fatto due chiacchiere con Pirelli, Miroglio Group e Ariston per raccogliere la testimonianza di tre modi diversi di fare trasformazione digitale, in settori di mercato differenti. L’adozione del cloud e dell’intelligenza artificiale sono i punti in comune.

La corsa di Pirelli alla digitalizzazione

Con i suoi 25 anni di esperienza nel settore IT e digitale, Pirelli ha intrapreso un

percorso di trasformazione che ha avuto inizio sette anni fa, portando il proprio know-how dalla consulenza e dal mondo dei media in un contesto industriale completamente nuovo. Il chief digital officer, Pier Paolo Tamma, inizia il suo racconto sottolineando come le aziende industriali, a differenza di quelle nativamente digitali, possano ottenere benefici significativamente maggiori dall’uso dei dati e della digitalizzazione nei processi di progettazione, industrializzazione e produzione. Il percorso strutturato di trasformazione digitale è iniziato nel 2019, permeando diverse business unit

grazie a una forte cultura interna che ne ha riconosciuto la necessità per estrarre valore dai dati. Questa trasformazione è stata pervasiva, voluta dall’allora amministratore delegato Marco Tronchetti Provera e portata avanti dall’ingegner Andrea Casaluci (attuale Ceo), insieme al responsabile IT. Si è scelto di rivedere processi e metodi lavorativi, applicando i dati lungo tutta la filiera: dallo sviluppo prodotto all’industrializzazione, dalla logistica alla supply chain, fino alla forza vendita. Un esempio concreto del fare leva sui dati è rappresentato dalla capacità della forza vendita di identificare il preciso mix di automezzi circolanti nelle diverse aree del territorio e suggerire ai rivenditori che cosa mettere a magazzino, in modo da coprire la domanda e ridurre lo stock invenduto.

GREEN & TECH: NON SEMPRE A BRACCETTO

La trasformazione digitale è irreversibile, o almeno questo è il pensiero comune. Su come debba procedere tale trasformazione, con quali tempi e priorità di investimento, le opinioni differiscono e soprattutto ogni azienda fa storia a sé. Un quadro, anche se parziale, sul nostro Paese ci arriva da uno studio di Aruba, EY e Siav, condotto su un campione di imprese mediograndi del Nord Italia. Ed è un quadro in cui le iniziative di trasformazione digitale sembrano godere di buona salute, favorite anche dagli incentivi pubblici di cui le imprese hanno beneficiato negli ultimi anni (innanzitutto, quelli del Pnrr). C’è poco spazio, invece, per obiettivi di transizione verde o almeno di riduzione dell’impronta carbonica: laddove queste iniziative esistono, passano comunque in secondo piano rispetto a una trasformazione digitale percepita come prioritaria. L’89% delle aziende del campione in questi anni ha sfruttato incentivi pubblici come quelli del Pnrr e del piano Industria 4.0 per progetti di trasformazione digitale o green, ma con una netta prevalenza dei primi. Il 50% degli intervistati indica la tecnologia come la priorità principale e più urgente per la propria azienda, contro il 5% di chi indica la sostenibilità.

Sebbene non in contraddizione, queste due esigenze sono talvolta in competizione se, come si suol dire, la coperta è corta. Gli autori dello studio sottolineano che, nell’attuale contesto economico, le aziende sono soprattutto orientate verso soluzioni tecnologiche capaci di generare valore immediato e scalabile. C’è comunque un 33% che ritiene questi due aspetti procedano di pari passo. Quasi il 60% delle aziende medio-grandi del Nord Italia usa almeno uno strumento tecnologico per supportare la gestione degli obiettivi Esg, in particolare (per il 78% di questo sottoinsieme) piattaforme per la reportistica. Rispetto alle iniziative di sostenibilità, i principali ostacoli nelle aziende sono la resistenza al cambiamento da parte del management o dei dipendenti (indicata dal 45% degli intervistati), la mancanza di competenze sul tema e di risorse da dedicare (32%), gli elevati costi di adeguamento ai nuovi standard e normative (31%). Anche se più “digerita” dalle aziende rispetto al tema della sostenibilità, nemmeno la trasformazione digitale è esente da sfide. Il principale ostacolo citato dagli intervistati è lo stesso, cioè la resistenza culturale (54%), associata a difficoltà nel change management. Seguono la difficile integrazione delle nuove tecnologie con i sistemi esistenti (segnalata dal 40%) e le limitazioni di budget e accesso ai finanziamenti (33%), di cui comunque l’89% delle aziende del campione ha usufruito. Per i progetti di trasformazione digitale e sostenibile, il 55% delle aziende si affida a esperti in gestione del cambiamento organizzativo, il 35% a consulenti esperti di green tech V.B.

A livello organizzativo, questa è stata definita come una business transformation, partita dalla revisione del modello aziendale e degli obiettivi di Pirelli per massimizzare l’efficacia dei processi, con il coinvolgimento di tutte le funzioni e con il supporto di referenti interni. È stata creata una robusta struttura di governance, che include comitati e incontri mensili con il top management per monitorare l’avanzamento dei progetti e l’efficacia delle iniziative tramite metriche di misurazione specifiche. Da un punto di vista tecnologico, Pirelli ha adottato un approccio best of breed nella scelta dei partner, collaborando con diverse realtà come Salesforce, Ibm e Microsoft, e considerando Amazon Web Services (Aws) un alleato principale dal momento che fornisce l’intera infrastruttura cloud

dell’azienda e ospita il 100% delle sue applicazioni. In particolare, Aws ha contribuito alla costruzione di una piattaforma Big Data con un data lake unico, che centralizza i dati da tutte le 18 fabbriche e dalla forza commerciale: “un lavoro durato quattro anni”, dice con una punta di orgoglio Tamma. Un altro ambito in cui sono stati fatti passi cruciali è quello dell’Industrial IoT (Internet delle Cose industriale), con la connessione dei macchinari in tutte le fabbriche tramite Aws GreenGrass, permettendo l’elaborazione dei dati sia in tempo reale nell’edge per azioni immediate, sia sul cloud per l’analisi storica e l’applicazione di modelli di machine learning predittivi per qualità e manutenzione. Infine, Pirelli sfrutta tecnologie di intelligenza artificiale di Aws, tra cui i modelli per l’AI generativa del

servizio gestito Amazon Bedrock e il machine learning per prevedere l’usura degli pneumatici o le condizioni stradali, integrando dati da sensori e fonti differenti (video, temperatura esterna, geolocalizzazione). Sebbene esistano “mini lock-in” con fornitori dominanti in specifici ambiti, Pirelli bilancia la propria dipendenza tecnologica lavorando con tutti e tre i principali fornitori cloud, cioè Aws, Microsoft e Google, scegliendo di volta in volta la soluzione più adatta al problema da risolvere e costruendo relazioni di vera partnership con investimenti congiunti in innovazione.

Miroglio e la spinta del business Miroglio Group, realtà che controlla Elena Mirò, Motivi, Oltre, Fiorella Rubino e altri marchi di abbigliamento,

ha avviato la propria strategia di intelligenza artificiale nel 2024. L’obiettivo era non solo quello di implementare strumenti tecnologici ma anche di promuovere, attraverso l’AI, una cambio di mentalità all’interno dell’azienda. Questa iniziativa è nata da una stretta collaborazione tra la parte business, rappresentata dal digital data & tech strategy manager, Matteo Loro, e la parte tecnologica guidata da Marcello Foffi, head of data. La peculiarità del loro approccio risiede nell’implementazione di un ecosistema tecnologico snello, flessibile e robusto, basato su servizi serverless di Aws, che consente di costruire i casi d’uso gradualmente, evitando processi di sviluppo troppo lunghi e rigidi, da pianificare con largo anticipo e che si protraggono per anni. In quel momento Miroglio aveva già intrapreso un percorso di trasformazione digitale, iniziato tra il 2019 e il 2020 con la migrazione dei sistemi core su cloud di Aws, e su questa base ha costruito la sua piattaforma dati, utilizzando servizi gestiti come Bedrock e Sagemaker per i processi di machine learning. Un aspetto distintivo è che l’adozione dell’AI è stata

spinta dal business, non dall’IT. Tuttavia, questa collaborazione ha richiesto un cambiamento culturale significativo: il business ha dovuto accettare di essere parte attiva nello sviluppo e nella sperimentazione, comprendendo che i risultati iniziali dell’AI non sono perfetti al 100% e richiedono continue iterazioni e raffinamenti. Questa dinamica ha portato a un riavvicinamento tra le componenti tech e business, con decisioni condivise e un ciclo di sviluppo rapido e continuo: un vero cambio di paradigma rispetto ai progetti tradizionali, ma anche nel modo di pensare. Innanzitutto, è stato necessario vincere la resistenza al cambiamento di una parte della forza lavoro (un elemento immancabile quando si lanciano progetti con una tale spinta innovativa) e poi far accettare il fatto che l’AI non fornisca da subito il risultato “finito” ma un risultato da rifinire, combattendo con il fatto che se la macchina “sbaglia” viene demonizzata, mentre l’errore umano è più tollerato. Per superare queste barriere, Miroglio sta investendo nella formazione del personale, sia lato business (per far imparare a scrivere prompt efficaci) sia lato tecnico (svilup-

pando competenze ibride tra data engineer e machine learning Ops engineer). I primi risultati concreti sono notevoli: la creazione di descrizioni di prodotto online, che prima richiedeva dieci minuti per persona, ora viene completata in un minuto e mezzo per ciascun articolo, includendo il tagging e la descrizione in sette lingue diverse. Ogni processo include comunque uno human in the loop per la supervisione e l’approvazione. L’iniziale successo e la visibilità delle applicazioni AI hanno generato un effetto trascinamento, scatenando un’ondata di nuove idee da parte del personale, anche per automazioni semplici. Un esempio di come la “democratizzazione” dell’AI possa stimolare l’innovazione dal basso.

Ariston fra IoT e una nuova mentalità Ariston, azienda manifatturiera con quasi un secolo di storia, ha intrapreso il suo percorso di connettività e digitalizzazione circa dodici anni fa, partendo dalla spinta della dirigenza e da finanziamenti specifici. Due anni fa ha migrato la propria piattaforma IoT (specificamente la parte machine-to-machine) da un altro fornitore ad Aws, riconoscendo la ne-

RETI, CYBERSICUREZZA E AI TRA LE PRIORITÀ

La stragrande maggioranza dei responsabili IT aziendali in Italia condivide un pensiero: per progetti trasformativi incentrati sull’intelligenza artificiale è necessario pensare prima ai fondamentali, cioè alle infrastrutture. E in particolare alle reti. A dirlo è uno studio realizzato da Sandpiper Research & Insights per Cisco, basato sulle risposte di oltre ottomila responsabili IT e manager di medie e grandi aziende di una trentina di Paesi, tra cui anche l’Italia (“Cisco Networking Research”, interviste raccolte nel mese di dicembre 2024). Tra i responsabili IT italiani, il 96% ritiene fondamentale rinnovare le infrastrutture per poter adottare efficacemente l’AI, e l’83% sta incrementando gli investimenti di questo tipo. Un’altra area tecnologica su cui, oggi, si concentra la spesa è la cybersicurezza, e attenzione: da “male necessario” questa voce di costo sta diventando strategica, almeno nella percezione dei Ciso (ne parliamo diffusamente nella sezione “Speciale Ciso” di questo numero di Technopolis). Sembra confermarlo anche la “Global Future of Cyber Survey 2025”, ricerca condotta da Deloitte a livello globale su 1.200 executive e C-level di sicurezza informatica (tra cui 54 italiani) di imprese di grandi dimensioni. Il 52% delle aziende italiane del campione prevede un aumento degli investimenti in cybersicurezza nel medio periodo (un biennio). Discussioni riguardanti la sicurezza informatica finiscono sul tavolo del board almeno una volta al mese nel 69% delle grandi aziende italiane.

cessità di maggiore resilienza e scalabilità per gestire oltre due milioni di prodotti connessi. Questa transizione ha trasformato la relazione con Amazon Web Services in una vera partnership a 360 gradi, che include non solo la tecnologia (Aws IoT Core, EC2, S3, database) ma anche workshop di innovazione e programmi di formazione per il team interno di Ariston. Il business dell’azienda si concentra sul comfort termico (riscaldamento, acqua calda, climatizzazione) e offre tre tipi di servizi basati sui prodotti connessi: un’app per i consumatori finali che fornisce consigli sulla riduzione dei consumi energetici; una piattaforma Web per installatori, che consente ottimizzazione e assistenza remota (trasformata da remote assistance a remote optimization per valorizzare anche il miglioramento del running quotidiano); e infine l’integrazione con piattaforme di domotica di terzi, come Amazon Alexa. I dati raccolti da questi prodotti connessi sono una risorsa preziosa usata internamente per la ricerca e sviluppo, il product management (per affinare la progettazione basandosi sull’utilizzo reale), la qualificazione dei prodotti tramite field testing automatizzati in tempo reale e il monito-

raggio della qualità sul parco installato, per intervenire rapidamente su eventuali problemi. Uno scenario ampio, che all’inizio ha incontrato le sue resistenze, come tipicamente avviene in un’azienda produttiva storica che spicchi un “bel salto” verso il digitale. Il cambio di passo c’è stato con la creazione del nuovo ruolo di Innovation Advanced Solution, che ha inviato un chiaro messaggio dall’alto

e ha messo in moto meccanismi aziendali come comitati, roadmap e corsi di change management. Adesso, attività come la condivisione dei dati con i manager sono diventate la norma e inoltre le nuove funzionalità, storicamente definite a livello centrale, ora vengono sempre più integrate anche in base alle richieste dei mercati, emerse dalle analisi. Giancarlo Calzetta

LA RICERCA DIVENTA UNA CONVERSAZIONE

Prosegue l’ibridazione tra motori di ricerca e chatbot. E si profila un cambiamento strutturale nell’interazione con il Web.

Nonostante sia la pagina Web più visitata al mondo, la homepage di Google contiene un pulsante, “Mi sento fortunato”, che nessuno clicca mai se non per curiosità. Il vaglio dei risultati è, infatti, un’attenzione che nel tempo ha saputo accrescere la maturità digitale necessaria a raccogliere informazioni in modo affidabile e approfondito. Questa attenzione, tuttavia, è messa alla dura prova dalle nuove interfacce con cui è possibile fare ricerche online: l’accesso stesso all’informazione, anzi, rischia di subire una trasformazione radicale, trainato dall’introduzione

di tecnologie conversazionali che non si limitano più a suggerire link ma elaborano direttamente risposte personalizzate sulla base dei contenuti presenti nel Web. Dopo aver modificato le pagine dei propri risultati di ricerca con lo strumento AI Overview, con l’introduzione di AI Mode Google ridisegnerà in profondità l’esperienza di interrogazione del Web.

Modelli in azione

Con questa funzionalità si passa da una logica tradizionale, con un elenco di pagine indicizzate, a un’interazione dinamica in cui l’utente dialoga con un assistente virtuale capace di generare sintesi, confronti, visualizzazioni e persino suggerimenti contestuali. Questo nuovo paradigma, ancora in fase sperimentale e al momento disponibile solo negli Stati Uniti, si basa sull’integrazione del modello linguistico Gemini. Di fronte a domande complesse, l’AI Mode for-

nisce risposte articolate che combinano l’estrazione di informazioni dal Web con contenuti generati in tempo reale. L’utente può proseguire la conversazione in modo fluido, aggiungendo dettagli o approfondimenti, mentre l’algoritmo è in grado di scomporre la query inizia-

Andrea Boscaro

ANTAGONISMO O CONVERGENZA?

C’è una partita in gioco tra motori di ricerca e chatbot di intelligenza artificiale generativa: due tecnologie differenti e che però, così pare, si stanno contaminando a vicenda. Va detto che l’AI lavora nel dietro le quinte di Google da molti anni, ma in forme di machine learning diverse da quelle di un Large Language Model che alimenta un chatbot. L’azienda di Mountain View, come era forse scontato che accadesse, sta però integrando il suo modello, Gemini, all’interno del motore di ricerca per proporre una diversa presentazione dei contenuti e per confezionare risposte a domande complesse. Microsoft si era mossa d’anticipo portando dentro a Bing, già nel 2023, alcune funzionalità basate sui grandi modelli linguistici di OpenAI. In parallelo, servizi di AI generativa come ChatGpt (attraverso SearchGpt, lanciato a fine 2024) e Perplexity hanno invaso il campo della tecnologia “avversaria” mescolando funzionalità di generazione di contenuti e di ricerca Web. Anziché ricercare parole chiave e presentare un elenco di siti Web (ordinati in base a vari criteri di ranking), i chatbot confezionano delle risposte potenzialmente autoconclusive, subito fruibili, includendo link per chi voglia comunque risalire alla fonte. Questi incroci tecnologici avranno riflessi, probabilmente di lungo periodo, sulle nostre abitudini di navigazione del Web, sulla ricerca di contenuti e risposte e forse anche sul rapporto fra esseri umani, tecnologie e conoscenze. Più prosaicamente, l’ingresso dell’AI generativa nei motori di ricerca trasformerà anche il mercato della pubblicità online e le logiche con cui i siti Web vengono costruiti e riempiti di contenuti per avere la massima visibilità.

Accanto alla Seo (Search Engine Optimization) si inizia a parlare di Geo (Generative Engine Optimization) sebbene al momento non sia ancora ben chiaro che cosa serva per comparire tra i risultati delle AI Overview, di Perplexity o SearchGpt. Per semplificare all’estremo, si può dire che i motori di ricerca tradizionali funzionano sulla base di criteri di ranking e indicizzazione, mentre i Large Language Model possono comprendere l’intenzione e il contesto di una richiesta per formulare una risposta.

Difficile fare previsioni precise sul futuro, perché una nuova tecnologia (o un mix di quelle esistenti) potrebbe irrompere in scena in qualsiasi momento e portare ulteriore scompiglio. Intanto, però, già oggi le abitudini degli internauti stanno cambiando e c’è chi, come gli analisti di Emarketer, ritiene che la ricerca generativa diventerà la “nuova normalità”. Un sondaggio condotto già un anno fa da Dynata su un migliaio di consumatori statunitensi maggiorenni ha evidenziato che il 41% si farebbe bastare un risultato generato dall’AI per domande che riguardano prodotti e servizi da acquistare online. Su temi un po’ meno leggeri rispetto allo shopping, le percentuali calano: il 19% si fiderebbe di risultati generati dall’AI per restare aggiornato sull’attualità, il 12% per trovare informazioni mediche, il 9% per prenotare viaggi. V.B.

le in sotto-domande, mappare le fonti più rilevanti e costruire una risposta strutturata che soddisfi la richiesta. Nel frattempo OpenAI sta sperimentando ChatGpt Shopping, una funzionalità conversazionale che consente di ricevere suggerimenti di acquisto dentro all’interfaccia di ChatGpt. L’utente descrive ciò che sta cercando – un regalo, un capo d’abbigliamento, un dispositivo elettronico – e l’AI propone opzioni coerenti con le richieste, corredate da immagini, descrizioni, prezzi e link ai siti di vendita. Al momento non sono previsti annunci a pagamento e non viene gestita la fase di transazione, ma anche in questo caso emerge un nuovo modello in cui l’intelli-

genza artificiale agisce come filtro primario, selezionando le fonti, aggregando le informazioni e sintetizzando una proposta personalizzata.

Un cambiamento strutturale Questi sviluppi rendono sempre più evidente un cambiamento strutturale: i contenuti pubblicati online non sono più necessariamente il punto di arrivo della ricerca, ma diventano materiale di base per costruire una risposta generata dalla macchina, che può potenzialmente soddisfare l’utente senza che questi debba visitare alcun sito. Per chi produce contenuti editoriali, per i brand che puntano sulla Seo o per gli e-commerce

che vivono di traffico organico, si apre una nuova fase in cui la visibilità non è più misurata in click, ma in “leggibilità” per l’intelligenza artificiale. In Europa, il Digital Markets Act introduce un quadro regolatorio che mira a impedire pratiche discriminatorie da parte delle grandi piattaforme: Google, in quanto gatekeeper, è obbligato a garantire la neutralità dei propri servizi, a non favorire le sue applicazioni rispetto a quelle dei concorrenti. Tuttavia, il cambiamento è ormai in atto e impone alle imprese un ripensamento delle proprie strategie di presenza online.

Andrea Boscaro, fondatore e partner di The Vortex

DALLA SEARCH EXPERIENCE ALLA DELEGA COGNITIVA

Sostituendosi alla “lente di ricerca” online, le nuove AI conversazionali trasformeranno le logiche del Web.

Il paradigma della ricerca sul Web sta attraversando un cambiamento strutturale. Il modello tradizionale, basato su motori di ricerca keyword-driven e su strategie come Seo (Search Engine Optimization) e Cro (Conversion Rate Optimization), è oggi affiancato – e in alcuni casi superato – da sistemi di intelligenza artificiale generativa, in grado di comprendere intenzioni, generare contenuti e operare in tempo reale. In questo contesto, la logica in tre passi che porta dalle quer y, alla pagina di risultati (Serp, Search Engine Results Page) al “click” lascia spazio a un’interazione semantica complessa, in cui l’utente si relaziona con un modello linguistico che fornisce risposte dirette, contestualizzate e sintetizzate, spesso scavalcando del tutto l’interfaccia dei motori tradizionali.

Contenuti che “piacciono” all’AI Seo e Cro non spariscono, ma si trasformano. L’ottimizzazione non è più solo orientata al posizionamento nei risultati di ricerca, bansì alla leggibilità e assimilabilità semantica da parte di LLM (Large Language Model), i grandi modelli linguistici di AI. Il contenuto dev’essere non solo accessibile, ma processabile in modo efficiente: coerenza concettuale, marcatura strutturale e disponibilità in formati leggibili dalle macchine (API RESTful, JSON-LD, knowledge graph) diventano leve critiche. La logica on-page si sposta verso l’intenzionalità semantica e l’interoperabilità algoritmica: i

contenuti devono “piacere” non solo agli utenti umani, ma anche agli agenti AI. Storicamente, gli LLM sono stati addestrati su dataset statici, cioè su corpus testuali aggiornati fino a una certa data. L’integrazione con sorgenti in tempo reale) tramite connettori Web, scraping semantico, API dinamiche e plug-in) abilita ora una nuova generazione di AI conversazionali capaci di accedere a informazioni aggiornate, contestuali e live. Questa evoluzione trasforma il modello stesso della ricerca: non più recupero e ordinamento, ma generazione e valutazione di risposte su base multi-sorgente, potenzialmente transazionale.

Un’evoluzione naturale

L’evoluzione naturale dell’interazione utente-AI è la delega cognitiva. Gli agenti AI sono orchestratori che combinano LLM, task manager e accesso a strumenti esterni, come API, browser headless, software Erp o Crm. Grazie a questa loro configurazione multi-step, è possibile automatizzare interi flussi di ricerca e decisione. Nel contesto aziendale, un agente AI può essere programmato per fare diverse cose· ricercare e confrontare soluzioni

(per attività di benchmarking), monitorare concorrenti o trend di mercato (market intelligence), redigere report personalizzati, attivare processi downstream (come inviare notifiche, aggiornare database, prenotare risorse). Questi agenti non solo apprendono dallo storico, ma adattano le azioni sulla base di feedback in tempo reale, rendendo possibile una ricerca adattiva, iterativa e scalabile.

Mediatori tra utenti e contenuti

L’intelligenza artificiale sta imponendo la presenza di un nuovo livello intermedio tra utente e contenuto: non più un semplice motore di ricerca, ma un interlocutore cognitivo. In questo nuovo scenario, i siti Web devono evolversi in asset interattivi, documentati e accessibili tramite interfacce macchina. Solo così potranno essere realmente parte dell’ecosistema informativo dominato dai modelli linguistici. Non è più solo una questione di ranking, ma di rilevanza computazionale. Chi progetta per il Web dovrà pensare sempre più in funzione dell’interazione tra umani e intelligenze artificiali.

Stefano Brigaglia, data science & location intelligence partner di Jakala

Stefano Brigaglia

UNO SHOWROOM-LABORATORIO PER L‘AI GENERATIVA

Tra aree demo e robot, Solaria Space è il nuovo spazio futuristico inaugurato nel campus milanese di Deloitte.

Entrando nel nuovo Solaria Space di Deloitte, recentemente inaugurato a Milano, si rimane sorpresi due volte. La prima è per la bellezza degli spazi, situati all’interno del nuovo campus della multinazionale, progettato negli anni Cinquanta da Gio Ponti, Antonio Fornaroli e Piero Portaluppi e riqualificato su iniziativa di Pimco Prime Real Estate, asset manager per gli investimenti immobiliari del Gruppo Allianz (proprietario degli immobili), in collaborazione con lo studio Skidmore, Owings & Merrill. La seconda è per la presenza, a tratti inquietante, di un’intelligenza artificiale (Solaria, appunto) che fa da padrona di casa.

Solaria è stata progettata da Deloitte e prende il meglio dalle intelligenze artificiali generative (e non solo) come ChatGPT, Gemini e Llama (quest’ultima utilizzata in modalità on-premise e “custode” dei dati aziendali, che in questo modo non vengono esposti in cloud). Governa l’intero

spazio dello showroom-laboratorio, pensato per far toccare con mano ai clienti le potenzialità dell’AI, e risponde quindi vocalmente alle richieste dei visitatori, visualizzando dati e immagini sui monitor presenti nell’ambiente , ma anche “abitando”, ad esempio, i robot che si muovono all’interno del perimetro. Lo spazio, almeno in questa fase iniziale, è diviso in alcune aree demo, dedicate al manufacturing, al marketing digitale, alla finanza e ad altri ambiti verticali.

Una strategia per l’AI

L’apertura di Solaria Space a Milano, che segue quella dello spazio di Roma dello scorso aprile, si inserisce nella strategia globale di Deloitte sull’intelligenza artificiale. Una strategia che ha già previsto l’apertura di un Centro di Eccellenza per la GenAI, che si avvale della collaborazione di partner tecnologici come Nvidia, Google Cloud, Aws, Ibm e Meta e di un team

di professionisti specializzati in trasformazione digitale, architetti di sistema, analisti di dati, sviluppatori software ed esperti di prompt. “L’AI e la GenAI sono tecnologie dirompenti, destinate a cambiare in profondità l’economia e la società nel complesso”, ha dichiarato Fabio Pompei, Ceo di Deloitte Italia. “Anche le imprese europee devono cogliere le opportunità di questa grande trasformazione. In Deloitte siamo consapevoli dell’importanza di questa sfida e, per questo, il nostro network ha deciso di investire oltre 3 miliardi di dollari sulla GenAI entro il 2030”.

Impatti dirompenti

Secondo Deloitte, l’adozione della GenAI in Italia potrebbe generare un incremento di valore delle grandi imprese compreso tra i 149 e i 446 miliardi di euro nel medio-lungo termine. Nel recente studio “Generative Tomorrow. The Future Unveiled, starring GenAI”, il 78% delle imprese intervistate prevede di aumentare la propria spesa in GenAI , mentre il 74% ha già ottenuto un ritorno sugli investimenti pari o superiore alle attese e due aziende su tre registrano un ROI oltre il 30%. Sempre secondo Deloitte, l’adozione della GenAI nelle grandi imprese in Italia (con fatturato superiore a 50 milioni di euro e almeno 250 dipendenti) potrebbe portare a un aumento dei margini stimato tra il 5% e il 15% nel medio-lungo termine. Secondo lo studio, i settori industriali con il più alto incremento di valore potenziale sono quello finanziario e l’energetico, un valore calcolato rispettivamente tra i 33 e i 99 miliardi di euro e tra i 22 e i 67 miliardi di euro.

Mango

METADATI E PRIVACY: SBAGLIANDO S’IMPARA

La sanzione da 50mila euro del Gpdp a Regione Lombardia segna un precedente a cui anche le aziende private dovrebbero guardare. Per non ripetere gli stessi errori.

Ma i sottovalutare i metadati, il modo in cui vengono raccolti e conservati.

La sanzione da 50mila euro inflitta a Regione Lombardia dal Garante per la Protezione dei Dati Personali (Gpdp) il 29 aprile 2025, a seguito di un’indagine sull’infrastruttura informatica dell’ente, rappresenta un precedente significativo. Il caso ruota intorno al trattamento dei metadati della posta elettronica e della navigazione Internet dei dipendenti, e si tratta della prima sanzione emessa dal Gpdp sulla base delle linee guida in materia pubblicate nel 2024. Prima c’era stata, nel 2022, la multa di 100mila euro alla Re-

gione Lazio, per controlli non autorizzati sui metadati delle email dei dipendenti. Ma la sanzione a Regione Lombardia è la prima applicazione concreta delle linee guida del 2024 sui metadati della posta elettronica, poi riviste (lo scorso giugno, in seguito ad alcune polemiche) modificando il termine di conservazione da 7 a 21 giorni.

Perché il Garante si preoccupa dei metadati, di limitare la loro conservazione e di esercitare un controllo stringente? L'insistenza deriva dai rischi di fuga di dati personali, quelli che vengono raccolti dai fornitori tecnologici, e in particolare dai grandi cloud provider. “L’obiettivo del Garante, e non solo in Italia perché

si tratta di un trend europeo, è di limitare la dispersione di informazioni personali in questi grandi serbatoi di dati”, ha spiegato l’avvocato Ugo Di Stefano, senior partner di Studio Legale Lexellent. “Quello che viene chiesto è di dedicare tempo e risorse, interne nel caso si abbia un Data Protection Officer o esterne nel caso si ricorra per la privacy a un consulente, in modo da effettuare correttamente una valutazione di impatto preventiva, completare il registro dei trattamenti, produrre tutta l’informativa in maniera specifica e corretta”.

Gli errori da non commettere L’indagine su Regione Lombardia ha rivelato diverse violazioni delle normative sulla privacy, cioè del Gdpr europeo, e dello Statuto dei Lavoratori (Legge 300/1970). Innanzitutto, i metadati di posta elettronica (informazioni su mit-

I DATI “OLTRE” I DATI

Come da etimologia, i metadati sono informazioni che vanno “oltre i dati”, utili per descrivere i dati stessi, i file, la loro creazione e trasmissione. Contestualizzano i file o gli eventi con informazioni di vario tipo, per esempio sull’autore, su data e orario di creazione, sulla posizione geografica, sul formato, sui salvataggi e altro ancora. Tra le altre cose, possono anche registrare le modifiche apportate a un file in diversi momenti. La ricchezza di informazioni racchiuse nei metadati fa di essi uno strumento prezioso nella cybersicurezza, per esempio nel rilevamento delle minacce, nella risposta agli incidenti e nelle indagini forensi. Se non gestiti correttamente, tuttavia, i metadati possono anche rappresentare un rischio, in particolare per attacchi basati sullo sfruttamento delle vulnerabilità (exploit) e sul social engineering. Attraverso i metadati, infatti, gli attori malevoli possono ottenere accessi non autorizzati, identificare versioni vulnerabili di un software e anche per tracciare le attività degli utenti e carpire informazioni sulle loro abitudini. Indirettamente, i metadati aiutano gli attaccanti a ricostruire i processi e l’organizzazione di un’azienda, dunque a capire quali siano i punti deboli da sfruttare e quali i target più interessanti e monetizzabili.

tente, destinatario, oggetto, orario e dimensione dei messaggi) dei dipendenti sono stati conservati per 90 giorni, ben oltre i 21 indicati dalle linee guida del Garante, e in assenza di un precedente accordo collettivo con le rappresentanze sindacali”. Per quanto riguarda i log di navigazione Internet (siti visitati, inclusi i tentativi di accesso a siti in blacklist), la loro conservazione per un periodo di 12 mesi è stata ritenuta eccessiva e sproporzionata. Il Garante ha ribadito che la navigazione è un dato personale e la sua riservatezza è tutelata da principi costituzionali. Terzo punto, i log dei ticket di assistenza tecnica: sono stati conservati per periodi eccessivi (fino a sei anni e mezzo o anche nove anni, secondo alcune fonti), senza una necessità sufficientemente argomentata. La Regione non ha rispettato gli articoli 4 e 8 dello Statuto dei Lavoratori, “i quali prevedono che le attività di controllo dei dipendenti debbano essere effettuate con un accordo sindacale o un’autorizzazione ministeriale”, ha spiegato Di Stefano. “Nonostante la Regione abbia sostenuto di aver definito tutta una serie di raccordi con il sindacato e con il proprio Data Protection Officer, il Garante ha ritenuto tali consultazioni non sufficienti e non equivalenti a un accordo sindacale”.

C ’è poi un’altra lacuna contestata: la mancata valutazione d’impatto sulla protezione dei dati (Dpia), un processo che in base al Gdpr è obbligatorio quando il trattamento dei dati personali potrebbe rappresentare un rischio elevato per i diritti e le libertà dei soggetti interessati. Ultimo punto, le nomine a responsabile del trattamento (ex art. 28 del Gdpr) sono risultate carenti nei requisiti formali, mancando l’indicazione puntuale dello strumento tecnologico e delle date di riferimento.

La strategia corretta “Essere colpiti da una multa può dare il messaggio che l’organizzazione sia poco preparata in termini di gestione della privacy, e questo si riflette anche sul modo in cui sono trattati i dati di clienti e fornitori”, ha osservato Di Stefano. Una buona strategia per la compliance dovrebbe tenere in considerazione cinque mosse. Primo: valutare e motivare la congruità del termine di conservazione dei metadati, aderendo al limite di 21 giorni o giustificando un periodo più lungo tramite il principio di accountability. Secondo: stipulare accordi sindacali qualora la conservazione dei dati superi i 21 giorni per esigenze organizzative, produttive o di sicurezza. Terzo: assicurarsi che i programmi e i servizi informatici (anche quelli in cloud) consentano di limitare il periodo di conservazione dei dati. Quarto: realizzare una valutazione d’impatto sulla protezione dei dati (Dpia) per trattamenti su larga scala che incidono sulla privacy dei lavoratori. Quinto e ultimo punto: aggiornare le informative e i contratti con i dipendenti, per la massima trasparenza sulla raccolta dei loro dati e metadati, e aggiornare i contratti di nomina dei responsabili del trattamento dati.

Elena Vaciago

Ugo Di Stefano

l’intervista RISCHIO CYBER, TRA

VECCHI E NUOVI PROBLEMI

Il punto di vista di Getronics sul duplice ruolo dell’AI e sulle dinamiche che continuano a influenzare la sicurezza.

Ultimamente i vendor di cybersicurezza battono insistentemente sul tasto della gestione del rischio. Non è una novità assoluta, ma di sicuro questo tema (complementare allo slogan della cyber resilienza) è diventato più centrale sia nelle comunicazioni dei vendor sia nelle strategie delle aziende utenti. Ci ha dato il suo punto di vista Luca Pavan, amministratore delegato per l’Italia e managing director Western & Central Europe di Getronics

Nella gestione del rischio, quali sono le sfide ancora irrisolte nelle aziende?

Lo scenario del rischio informatico è sempre più critico. Le sfide principali riguardano la scarsa integrazione tra governance, compliance e tecnologie, la mancanza di processi coordinati

e la cronica carenza di competenze. Le aziende investono su soluzioni di rilevamento e risposta (detection & response), backup avanzati e segmentazione, con una crescente attenzione alle piattaforme di gestione del rischio. Ma la resilienza complessiva resta sottovalutata.

Ci sono settori esposti più di altri?

Sì, decisamente. Oggi sono particolarmente esposti quei settori in cui il digitale è diventato parte integrante del core business. Finanza, assicurazioni e manifattura avanzata sono tra i più a rischio: ambienti ad alta interconnessione, dove un’interruzione o una violazione possono causare danni economici e reputazionali enormi, spesso irrimediabili. Anche la sanità è sempre più vulnerabile: digitalizzazione spinta, dispositivi IoT e infrastrutture critiche rendono le strutture sanitarie bersagli ideali per gli attacchi ransomware. Ricordiamoci l’attacco che ha paralizzato la Regione Lazio nell’agosto del 2021.

Tra le previsioni di cybersicurezza di vendor e analisti per il 2025, quali si stanno dimostrando fondate?

Molte si stanno rivelando corrette. In particolare, si conferma il ruolo centrale dell’AI generativa, usata sia per difendere sia per attaccare. Stiamo assistendo a una corsa all’intelligenza artificiale nel cybercrimine, con l’impiego di modelli linguistici avanzati

per automatizzare phishing, social engineering e sviluppo di malware sempre più sofisticati. Ma anche le soluzioni difensive basate su AI stanno guadagnando terreno e maturità. Un’altra previsione centrata è quella sugli attacchi alla supply chain. Una vulnerabilità in un fornitore critico può oggi generare un effetto domino devastante, e proprio qui si concentrano molte richieste di supporto, anche per adeguarsi alle normative. Tra i fenomeni meno previsti, segnalo l’evoluzione rapidissima dei modelli “as-a-service” usati dal cybercrime: oggi strumenti di attacco modulari e avanzati sono accessibili anche a soggetti senza grandi competenze.

Sull’AI quali evoluzioni state notando?

Negli ultimi dodici mesi abbiamo visto un’accelerazione decisa nel suo utilizzo, tanto da parte dei team di sicurezza quanto da parte degli hacker. L’AI viene ormai impiegata per costruire attacchi sempre più realistici e personalizzati, soprattutto nel phishing e nel social engineering Combinando modelli linguistici e dati pubblici, oggi è possibile creare truffe digitali che sembrano scritte da colleghi di lavoro, con una precisione inquietante. Sul fronte difensivo, stiamo integrando modelli AI per analizzare comportamenti e attività di rete, con ottimi risultati nella rilevazione precoce delle minacce. Il machine learning e il linguaggio naturale stanno rendendo i Security Operations Center più reattivi ed efficienti, anche nella gestione degli alert. Quanto all’Agentic AI, ci aspettiamo impatti rilevanti. In positivo, permetterà di automatizzare incident response, orchestrazione e analisi predittiva. V.B.

Luca Pavan

l’intervista SERVIZI GESTITI E AI COLMANO IL GAP

Le aziende spesso non possono sostenere da sole l’attività di contrasto alle minacce. La risposta di Sophos alla carenza di personale o risorse.

Se il Ciso non c’è, lo sostituisce l’intelligenza artificiale. E se invece c’è, l’AI può diventare un supporto laddove – come nella cybersicurezza –spesso il tempismo è tutto. Sophos non è il solo fornitore di sicurezza a guardare all’AI generativa come a un potenziamento per le attività dei Security Operations Center. È però uno dei primi ad aver dato forma concreta a questa visione, racchiudendola in uno specifico prodotto. Ne abbiamo discusso con il country manager italiano, Marco D’Elia.

Qual è lo scenario italiano della cybersicurezza nelle aziende?

L’attenzione alla cybersecurity è altissima. Fino a un paio di anni fa vedevamo nelle aziende un approccio soprattutto tattico, spesso basato sui riferimenti del framework Nist: sulla base delle specifiche aree di tutela e protezione definite, le decisioni venivano prese a livello di data room, basate su qualità del prodotto, sulla logica

“best of breed”, senza una visione più integrata e olistica della cybersecurity. Oggi le aziende sono passate a un approccio più strategico, cercando di capire come la cybersicurezza possa agevolare il flusso dei loro processi, integrandosi con il business. Notiamo anche una forte interesse per i servizi: c’è consapevolezza totale sul fatto che un approccio alla sicurezza basato solo sul prodotto non sia più sufficiente.

La direttiva Nis2 ha contribuito?

La Nis2 ha introdotto un nuovo concetto, quello del governo della cybersecurity, che significa adottare piattaforme in grado di gestire la sicurezza con una visione a tutto tondo e più integrata. La direttiva ha calcato la mano su questo aspetto, stabilendo anche responsabilità penali,e ciò ha pesato sul cliente finale nel passaggio a un approccio più strategico. Credo che il messaggio della Nis2 sia ormai stato recepito dalle aziende e i Ciso con cui ci confrontiamo concordano sul fatto che la direttiva aiuti a creare un livello di resilienza in azienda. Un concetto è importantissimo, perché si accetta il fatto che un attacco possa verificarsi e si definisce una procedura operativa per affrontarlo.

Come si stanno muovendo le aziende?

Essere consapevoli dei rischi è una cosa, ma bisogna poi comunque affrontare il tema degli investimenti. Alla fin fine, nelle aziende questo si traduce nel dover prendere delle decisioni di make or buy, su che cosa si voglia gestire internamente e che cosa, invece, delegare. Su questi aspetti noi

di Sophos interveniamo in vari modi, e innanzitutto con la nostra piattaforma di offerta, che permette di costruire un servizio di Managed Detection and Response (Mdr) personalizzato: alcuni processi possiamo prenderli in carico noi direttamente, altri possono restare al cliente o essere affidati a un partner. Esempi di attività su cui tipicamente si fanno queste valutazioni sono il threat hunting, il rilevamento e la risposta agli incidenti. Inoltre abbiamo lanciato un nuovo servizio gratuito di threat profile, che estende le indagini sui rischi al Dark Web e consente alle aziende di capire se siano sotto attacco.

Come entra in gioco l’AI?

Nella nostra visione, può elaborare dati, correlare eventi e dare suggerimenti, ma le decisioni spettano comunque alle persone. Credo sia necessario rivolgersi all’AI per avere un aiuto ma non per sostituirci. In Sophos stiamo andando in questa direzione: abbiamo in roadmap un progetto importante, al momento un prototipo, che chiamiamo “virtual Ciso” ed è sostanzialmente l’evoluzione della piattaforma unificata Sophos Central. Un “sistema esperto”, che può affiancarsi al chief information security officer o magari sostituirsi a lui in certi frangenti o se in azienda non c’è una figura come quella del Ciso. Attraverso algoritmi di AI diamo visibilità su ciò che sta accadendo in quel momento nella rete aziendale e su dove intervenire. Fra l’altro con l’acquisizione di Secureworks abbiamo esteso enormemente il numero di integrazioni possibili in Sophos Central. V.B.

Marco D’Elia

LA GESTIONE DEL RISCHIO È ANCHE UN’OPPORTUNITÀ

Il punto di vista degli addetti ai lavori su strumenti, logiche vincenti e abilità da coltivare.

“Che cos'è il rischio?”. Da questa domanda ha preso il via la discussione tra i chief information security officer (Ciso) riuniti al tavolo di lavoro dedicato al tema “Integrated Risk Management e Supply Chain Cybersecurity”, durante l’evento Ciso Panel di Roma. Una domanda fondamentale, nelle cui risposte i partecipanti, andando oltre le definizioni standard, hanno trovato convergenza su un punto chiave: il rischio può e deve essere visto come un’opportunità. In questo senso, le recenti normative, in particolare la direttiva Nis2 (Network and Information Security 2), tesa a rafforzare la sicurezza informatica e la resilienza delle infrastrutture critiche e dei servizi essenziali, tra cui anche quelli digitali, e il regolamento Dora (Digital Operational Resilience Act), che si applica alle entità finanziarie dell’Unione Europea e ai loro fornitori critici di servizi Ict, sono state identificate come dei catalizzatori di questa visione. Per i Ciso, infatti, possono essere una leva per rafforzare il dialogo con il business e indirizzare più efficacemente programmi e investimenti.

Complessità e opportunità

Anziché avere una visione puramente negativa del rischio, i Ciso lo interpretano come un’occasione per meglio indirizzare gli sforzi della funzione e trasformare la percezione della sicurezza da necessità ad abilitatore di un business resiliente. La sicurezza dev’essere fattore abilitante per la continuità operativa del business, ad

esempio prevenendo perdite di dati che potrebbero impattare direttamente sui ricavi o sui servizi erogati. D’altra parte, il contesto in cui operano oggi le aziende pubbliche e private presenta complessità crescenti, che possono influenzare le dinamiche del rischio: un esempio è quello che accade nelle pubbliche amministrazioni con lo spostamento dei dati in cloud, che rappresenta una sfida significativa, anche in termini di rischio, per le organizzazioni coinvolte. È infatti proprio dal singolo contesto, sottolineano i Ciso, che dipende la gestione del rischio, così come dalla mission e dalla visione di un’azienda: questi sono elementi che possono influenzare le valutazioni e l’assegnazione di priorità. Dato che non è possibile proteggere tutti gli asset allo stesso modo, con lo stesso impegno, una

“In un approccio risk-based alla cybersecurity, la contestualizzazione e la prioritizzazione basate sugli obiettivi di business sono essenziali, data l'impossibilità di coprire tutto contemporaneamente”.
Andrea Licciardi, cybersecurity manager Mba di Gruppo Maire

prioritizzazione basata sul contesto e sugli obiettivi di business diventa fondamentale: si inizia con l’identificare i sistemi e i processi critici, quelli che, in caso di incidenti, avrebbero il maggiore impatto sul business.

Superare la frammentazione

Se dunque queste sono le opportunità di una strategia risk-based, dal tavolo di lavoro sono emersi anche alcune sfide e punti di attenzione. Prima di tutto, è necessario superare un approccio alla gestione del rischio, o meglio dei rischi, “a silos”, che prevede di trattare separatamente i diversi rischi presenti in azienda (cyber, finanziari, legali, operativi, eccetera): occorre invece adottare una visione integrata di Enterprise Risk Management, che richiede una collaborazione tra le diverse funzioni aziendali (security, operations, dipartimento legale, vendite, acquisti, e via dicendo), la capacità di comunicare il rischio in un linguaggio comprensibile per il business e l’abilità del Ciso nello stringere alleanze con le altre funzioni.

Un’altra criticità in termini di gestione del rischio è la mancanza di consapevolezza rispetto a questo tema ai diversi livelli delle organizzazioni, in particolare tra il top management, sia nelle aziende del settore pubblico sia in quelle private. La responsabilità sulla sicurezza deve partire dall’alto per potersi diffondere all’intera struttura. Un altro problema diffuso, in particolare nella Pubblica Amministrazione, è la mancanza di un

CHIEF INFORMATION SECURITY OFFICER INTORNO AL TAVOLO

Gli attacchi informatici continuano a evolversi e a crescere, facendo leva su un contesto geopolitico frammentato e sfruttando l’innovazione tecnologica, intelligenza artificiale inclusa. Alle sfide tradizionali, come il ransomware, il controllo degli accessi e la sicurezza del cloud, si sommano oggi esigenze legate ai rischi dell’AI e alla conformità alle nuove norme europee, come la direttiva Nis2 e il regolamento Dora. Come stanno vivendo l’attuale momento di trasformazione i responsabili della cybersecurity nelle organizzazioni italiane? Un quadro complesso è emerso dall’evento “Ciso Panel”, organizzato da TIG – The Innovation Group a Roma lo scorso 27 maggio. Il format dell’evento prevede discussioni tematiche tramite tavoli di lavoro, coordinati da cyber coach che presentano la propria esperienza e animano il confronto. I quattro tavoli di lavoro del “Ciso Panel” di Roma erano dedicati ad altrettanti temi, come da titolo: “Cyber resilienza e incident response”, “Cyber resilienza e IT/OT supply chain security”, “Bilanciare AI e cybersecurity nei percorsi di trasformazione digitale” e “Integrated risk management e sicurezza della supply chain”. I Ciso partecipanti dell’evento, di aziende appartenenti a diversi settori, hanno sottoscritto una riflessione di fondo: per elevare la cyber resilienza e prepararsi alla compliance con le normative europee, è necessario aver predisposto un piano articolato, procedure, tecnologie e processi. Ed è necessario aver formato le persone, non solo quelle che saranno eventualmente deputate alla gestione della crisi ma anche la più ampia area IT, manager, dirigenti e consigli di amministrazione. Solo così è possibile tenere sotto controllo l’intera catena delle azioni da intraprendere ed evitare passi falsi durante un’eventuale emergenza.

inventario preciso degli asset (sistemi, dati, informazioni): è chiaro che senza una visione completa rispetto ai beni da proteggere è impossibile prendere decisioni informate e, quindi, adottare un modello di sicurezza basato sulla gestione del rischio. In risposta a questa esigenza, i Ciso suggeriscono la possibilità di ricorrere a simulazioni di scenari di rischio, utili per far comprendere al top management l’impatto di situazioni critiche.

Supply chain e terze parti

Un tassello da non dimenticare, come evidenzia tra l’altro anche la Nis2, è il tema della gestione delle terze parti, della supply chain e dei rischi a essa collegati. In questo ambito, è vitale com-

I PARTECIPANTI:

prendere le attività degli attori coinvolti, mettere in pratica controlli e, in particolare, verificare che i fornitori abbiano adeguati processi di gestione degli incidenti, poiché una loro debolezza potrebbe avere impatti anche sull’azienda cliente. Inoltre, va ricordato che secondo la Nis2 la responsabilità sulla sicurezza informatica rimane in capo alla propria entità anche quando ci si appoggia a fornitori terzi o a servizi in outsourcing. Un processo virtuoso di gestione del rischio, che riguardi non solo le terze parti ma tutti i tipi di rischi coinvolti, richiede di testare, contestualizzare, prioritizzare e formare. In questo senso, i framework di sicurezza informatica sono certamente un ausilio per strutturare queste attività,

• Adelia Cruciani, cybersecurity solution officer di United Nations International Computing Centre (Unicc)

• Marcello Fausti, responsabile Nis2 compliance e risk management di Gruppo Italiaonline

• Andrea Licciardi, cybersecurity manager Mba di Gruppo Maire

• Marco Mastrapasqua, innovation security coach

• Mauro Restante, cybersecurity customer service manager di Cybersel

• Pierpaolo Romano, Ciso di Italo – Nuovo Trasporto Viaggiatori

• Stefano Vincenti, technology security director di Lottomatica

ma servono anche abilità “sociali”, di analisi e di comunicazione. La consapevolezza sulle opportunità da cogliere, la responsabilità diffusa, la conoscenza degli asset, la capacità di comunicare con il top management, l’inclusione di fornitori e terze parti sono, pertanto, gli elementi chiave per una efficace gestione del rischio.

Camilla Bellini

OLTRE LA LOGICA DELLA PAURA

Comunicare il valore della sicurezza informatica per ottenere investimenti è una delle sfide affrontate oggi dai chief information security officer.

Convincere il top management a investire in sicurezza informatica resta una delle sfide più complesse per gli addetti ai lavori. In molte aziende, il tema viene ancora percepito come un centro di costo, difficile da giustificare in termini di ritorno sull’investimento. Dal dibattito del tavolo “Cyber Resilienza e Incident Response” è emerso che la chiave per superare questa impasse è saper comunicare il valore della sicurezza in modo strategico, collegandola direttamente agli obiettivi di business e alla resilienza complessiva dell’organizzazione. Tradizionalmente, la cybersecurity è stata presentata come una forma di protezione contro i rischi: un’assicurazione, necessaria ma poco tangibile, utile solo “nel caso in cui succeda qualcosa”. Questo approccio, basato sulla logica della paura, fatica però a ottenere l’attenzione e il sostegno dei vertici aziendali.

Al contrario, è sempre più importante inquadrare la sicurezza come un abilitatore di business, capace di aprire nuovi mercati, garantire la continuità operativa e accrescere la fiducia di clienti e stakeholder. Per esempio, ottenere la conformità a norme come la direttiva europea Nis2 o a standard settoriali può rappresentare

“Per ottenere finanziamenti, è essenziale mostrare che la cybersecurity protegge il valore aziendale e abilita nuove opportunità di crescita”.
Simonetta Sabatino, head of cyber security di Saras

un vantaggio competitivo. In alcuni casi, è addirittura un requisito indispensabile per lavorare con determinati clienti, in particolare nel settore pubblico o in ambiti regolamentati. In quest’ottica, la cybersecurity smette di essere un costo e si trasforma in una leva di crescita e posizionamento.

Parlare il linguaggio del business

Uno dei passaggi fondamentali per ottenere finanziamenti è tradurre il bisogno tecnico in valore economico. Questo significa saper spiegare al management, con dati e scenari concreti, quale sarebbe l’impatto di un eventuale incidente in termini di business: perdita di produttività, danni reputazionali, sanzioni, esclusione da gare o partnership strategiche. Lo storytelling e la dimostrazione casi d’uso reali possono aiutare a rendere la minaccia più comprensibile. Un’azien-

da che ha vissuto un attacco informatico, poi, è spesso più propensa a investire perché ha già sperimentato direttamente le conseguenze di una cattiva preparazione. Ma per chi non abbia (ancora) vissuto episodi simili, simulazioni ed esercitazioni sono strumenti essenziali per far “toccare con mano” il rischio e valutare concretamente le proprie vulnerabilità organizzative.

Nella discussione è stato anche affrontato il ruolo della tecnologia nell’incident response: si è discusso delle soluzioni Soar (Security Orchestration, Automation, and Response) per l’automazione della gestione e del contenimento degli incidenti, e si è parlato dell’intelligenza artificiale come strumento di cruciale supporto specialmente nella fase di analisi dell’evento, per velocizzare l'individuazione delle cause di vulnerabilità o comportamenti anomali, correlare dati e arricchire le informazioni. Nelle architetture più evolute, agenti AI possono persino superare il concetto tradizionale di Soar. Infine, è stato menzionato l’approccio cosiddetto shift left, che prevede controlli di sicurezza già nelle prime fasi dello sviluppo software, con l’obiettivo di ottenere una sicurezza by design effettiva su vasta scala. Questo richiede però una stretta collaborazione tra security e team IT.

Simulare per capire (e convincere)

Le esercitazioni pratiche, come dicevamo, sono uno strumento sempre più efficace per far emergere le lacune, costruire consapevolezza, ottenere l’attenzione della direzione e giustificare il budget, in quanto permettono di rendere tangibili i rischi. Diverse le tipologie usate nelle aziende: gli esercizi tabletop rivolti al top management; i cyber drill, ovvero simulazioni che coinvolgono l'intera azienda e non solo il personale IT, incluse funzioni come legale, procurement, comunicazione; i cyber range, ovvero

I PARTECIPANTI:

• Vittorio Baiocco, Ciso di Inail

• Massimiliano Brugnoli, senior sales engineer di Recorded Future

• Pierguido Iezzi, director BU cyber di Maticmind

• Alessandro Luzzi, dirigente dell'Ufficio IV: Infrastrutture, Rete e Sicurezza del Ministero dell’Istruzione e del Merito

• Paolo Schintu, senior cybersecurity specialist and manager di Sogei

• Simonetta Sabatino, head of cyber security di Saras

• Nicola Sotira, responsabile Cert di Poste Italiane

• Stefano Vincenti, technology security director di Lottomatica

esercitazioni più tecniche, spesso realizzate su piattaforme che simulano o clonano l’infrastruttura reale. Anche la frequenza varia, tra esercitazioni trimestrali, annuali e a sorpresa. In generale, queste attività servono a misurare lo scarto tra il comportamento atteso (basato su policy o procedure) e la risposta reale. Tale gap evidenzia la necessità di piani d’azione e giustifica le richieste di nuovi investimenti. Nella discussione è stato citato il beneficio legato all’uso di framework come Mitre e soprattutto Tiber (nato per il settore finanziario, ma anche altrove applicabile altrove) per strutturare queste simulazioni. Strumenti strutturati come il framework Tiber permettono di pianificare simulazioni complesse, coinvolgere le funzioni di business e identificare percorsi inusuali, potenzialmente sfruttabili da un attaccanto. Il valore di questi test risiede nella loro capacità di evidenziare le conseguenze operative e reputazionali di un attacco, e nel supportare la definizione di piani d’azione basati sull’evidenza. Tra l’altro, come osservato dai partecipanti al tavolo di lavoro, la direttiva Nis2 include le esercitazioni tra i requisiti di base.

Tra compliance e coinvolgimento

Anche la normativa può giocare un ruolo positivo nel facilitare l’approvazione di investimenti. La direttiva Nis2, per esempio, ha introdotto obblighi più stringenti, rendendo il board diretta-

mente responsabile delle scelte in materia di cybersecurity. In molti casi, ciò ha contribuito a elevare il tema a livello strategico e ad accelerare il rilascio dei budget necessari. Va ricordato, infatti, che investimenti etichettati come funzionali alla compliance sono spesso percepiti come prioritari e diventano più facilmente approvabili. Tuttavia, permane il rischio che la compliance sia vissuta come un semplice adempimento formale. Per evitare questo, è fondamentale legare il rispetto delle norme a una visione più ampia, che vede la sicurezza come strumento per garantire la continuità operativa e la competitività dell’azienda. In tutto ciò, il coinvolgimento diretto del top management nelle attività di pianificazione, esercitazione e risposta agli incidenti è cruciale. Manager e membri del board devono essere messi nelle condizioni di comprendere a fondo il rischio, partecipando attivamente ai momenti decisionali e formativi. Solo così si può costruire una cultura condivisa della resilienza.

Organizzare corsi dedicati, sviluppare analisi strategiche basate sulla Business Impact Analysis, coinvolgere le funzioni non tecniche nelle simulazioni: tutte queste azioni aiutano a integrare la sicurezza informativa nella governance aziendale, rendendo più naturale la discussione sul budget e più trasparente la relazione tra investimento e valore.

Elena Vaciago

IL CAMPO MINATO DELLA TECNOLOGIA OPERATIVA

Supply chain, obsolescenza e governance sono aspetti critici dei sistemi di Operational Technology (OT). Contenere il rischio, tuttavia, è possibile.

Le infrastrutture IT sono bersaglio di minacce informatiche da molto tempo e oggi – complici anche i numerosi attacchi ransomware che stanno flagellando le imprese negli ultimi anni – il tema della cybersicurezza è arrivato sui tavoli dei consigli d’amministrazione, che ne riconoscono l’importanza. Purtroppo, nel mondo dell’Operational Technology (OT) non funziona allo stesso modo. Tradizionalmente, le macchine impegnate nella produzione facevano parte di un mondo a sé, separato e poco integrato con le restanti attività e sistemi dell’azienda. Questo nel tempo ha generato una gran quantità di inefficienze, ma anche un contesto in cui gli attacchi cyber erano più complessi da portare a segno. Con l’avvento dell’industria 4.0 e dei sistemi Internet of Things (IoT), però, le cose sono cambiate in peggio. Da un lato, esiste un ecosistema di hardware, software e risorse umane che è poco attrezzato per resistere ai criminali; dall’altro, ci sono enormi opportunità che i cybercriminali potrebbero cogliere sfruttando a dovere la connettività e i dati che ne derivano.

Le specificità dell’OT Indipendentemente dal settore merceologico, le organizzazioni che gestiscono device OT e IoT affrontano alcuni problemi di fondo. Le vulnerabilità legate alle supply chain tecnologiche sono un tema noto nell’ambito della cybersicurezza e in molti report di settore figurano nei piani alti delle classifiche delle fonti di rischio. Non è un caso che la questione sia trattata in maniera attenta da normative recenti come la direttiva Nis2 e il Codice degli Appalti del 2024, oltre che da standard

“Molti asset tecnologici presenti nelle infrastrutture legacy di organizzazioni pubbliche e private rientrano nei loro rispettivi perimetri critici e, di conseguenza, si collocano nella fascia alta dei sistemi da proteggere secondo la direttiva Nis2”.

Valerio Visconti, Ciso di Autostrade per l’Italia di Saras

internazionali come ISO 27001. Tuttavia, come i chief information security officer ben sanno, nel contesto dell’Operational Technology il tema della catena di fornitura ha un peso ancora maggiore. C’è, poi, il problema dell’obsolescenza

Le tecnologie OT, a differenza di quelle IT, si caratterizzano per cicli di vita estremamente lunghi e dunque è più probabile avere sistemi datati e non corretti da patch in contesti industriali. Si tratta anche – terzo aspetto critico – di contesti storicamente meno sensibili alle tematiche cyber, fatto che ha causato un forte ritardo nell’adozione di pratiche di sicurezza informatica. Inoltre i device OT si trovano spesso in una porzione di rete vasta e distribuita, insufficientemente segregata sia al proprio interno sia verso il mondo IT classico. Negli ultimi anni abbiamo assistito a una crescente convergenza verso il mondo IT e, in particolare, verso il cloud, fatto che ha amplificato i punti di contatto e le potenziali vulnerabilità. Infine (ricollegandoci al tema della supply chain) la gestione dei fornitori, soprattutto per quanto concerne le manutenzioni, avviene tramite processi

che possono essere considerati meno severi di quelli ottimali. Questa mancanza di un controllo rigoroso può mettere a repentaglio non solo il business, ma anche la sicurezza fisica.

Un problema di governance

Un’altra sfida riguarda le responsabilità nella gestione della sicurezza OT. La governance dei sistemi di Operational Technology non sempre ricade sotto le direzioni IT, bensì sotto altri dipartimenti che potrebbero essere meno sensibili alle tematiche cyber e, giustamente, più focalizzati sulla continuità del servizio. Questo disallineamento può portare a lacune nella gestione della sicurezza. Molte aziende, inoltre, al loro interno non sono ancora riuscite a calare la cybersecurity in tutti i processi e capita che il Ciso venga coinvolto tardivamente, con conseguente aggravio di costi e ritardi nelle operazioni da compiere. Un esempio classico, che descrive più in generale cosa spesso succede per l’approvvigionamento di IoT, è quello delle flotte: la gara viene preparata e indetta dall’ufficio competente senza pensare che all’interno di ogni veicolo ci sia un modem che rappresenta un punto di vulnerabilità da gestire.

La mitigazione del rischio

Di fronte alle scadenze delle direttiva Nis2 (obbligo di adeguamento alle misure tecniche e organizzative entro ottobre 2026), che classifica molti di questi

I PARTECIPANTI:

• Vittorio Baiocco, Ciso di Inail

oggetti all’interno dei perimetri critici, emerge l’urgenza di colmare il significativo divario fra le tecnologie usate a livello corporate (l’IT) e quelle di produzione (OT), come evidenziato da qualsiasi risk assessment. Le aziende, in effetti, stanno implementando azioni di mitigazione che riguardano l’infrastruttura, i processi e gli aspetti contrattuali. Sul fronte delle infrastrutture, si sta procedendo con una segregazione molto spinta che include non solo la rete, ma anche elementi critici come la gestione delle identità, degli accessi e dei privilegi (Active Directory, soluzioni di Identity Access Management e Privilege Access Management). Dal punto di vista dei processi, è fondamentale riconoscere per i sistemi OT la priorità della continuità del servizio. Per fare un esempio, mentre un software informatico come un Erp può essere messo in pausa per manutenzione senza conseguenze, un sistema di controllo industriale ha una tolleranza minima ai fermi e richiede finestre temporali di patching molto più ampie. Per le tecnologie più datate, per cui la riscrittura da zero non è economicamente sostenibile o conveniente (per costi elevati o sistemi che ancora si trovano nel mezzo del ciclo di vita), si introducono tecnologie di mitigazione come il virtual patching Un’altra strategia utile è adottare processi di approvvigionamento che seguano il principio della security by design. Tutti i nuovi progetti riguardanti l’OT o le

• Massimiliano Brugnoli, senior sales engineer di Recorded Future

• Pierguido Iezzi, director BU cyber di Maticmind

• Alessandro Luzzi, dirigente dell’Ufficio IV: Infrastrutture, Rete e Sicurezza del Ministero dell’Istruzione e del Merito

• Paolo Schintu, senior cybersecurity specialist and manager di Sogei

• Simonetta Sabatino, head of cyber security di Saras

• Nicola Sotira, responsabile Cert di Poste Italiane

• Stefano Vincenti, technology security director di Lottomatica

integrazioni tra IT e OT devono partire con un focus spinto sulla cybersecurity, poiché sistemare tali tecnologie “in corsa” è spesso impossibile o eccessivamente oneroso e ogni giorno perso nell’attuare a monte questa politica può tradursi poi in lustri o decenni di sicurezza non ottimale. Infine, è essenziale esercitare pressione sul legislatore affinché i produttori di device OT assumano una “postura cyber” adeguata, possibilmente attraverso certificazioni basate su norme internazionali come la ISA/IEC 62443.

L’irruzione dell’AI

L’intelligenza artificiale da anni è ampiamente utilizzata nel campo dell’Operational Technology, in progetti intersettoriali, spesso per attività di diagnostica e monitoraggio che impiegano device OT e IoT come fonti di dati. Tuttavia, il boom dell’AI generativa ha reso evidente la necessità di una governance più rigorosa per questi progetti. L’utilizzo di modelli di dati non adeguatamente controllati presenta rischi significativi, non solo in termini di diffusione involontaria di dati verso l’esterno, ma anche per output inattesi (come le famose “allucinazioni”) che possono avere impatti diretti sui servizi e indiretti sulla sicurezza delle persone. È quindi imperativo stabilire una governance completa dell’AI, che copra il suo impiego da parte degli utenti aziendali, la gestione dei data model nei nuovi progetti e anche l’integrazione con l’IT. In qualsiasi strategia di sicurezza dell’OT, infine, è cruciale il coinvolgimento diretto del top management nelle attività di pianificazione, esercitazione e risposta agli incidenti. Organizzare corsi dedicati, sviluppare analisi strategiche basate sulla Business Impact Analysis (Bia), coinvolgere le funzioni non tecniche nelle simulazioni: tutte queste azioni aiutano a integrare nella governance aziendale la sicurezza. Anche quella dell’OT. Giancarlo Calzetta

GOVERNARE L’AI PER LA CYBERSICUREZZA DEL FUTURO

Norme, policy aziendali e responsabilità chiare: così si possono arginare le incognite e i rischi (anche quelli latenti) associati all’intelligenza artificiale.

La vera sfida oggi non è tanto usare l’intelligenza artificiale, ma farlo in modo sostenibile, sicuro e tracciabile. Questa tecnologia è entrata nei processi aziendali come leva di produttività e innovazione, ma spesso senza un disegno preciso che ne governi l’impatto complessivo. Eppure, l’AI è un elemento sistemico, così potente da trasformare il modo in cui si prendono decisioni, si analizzano i dati e si costruiscono relazioni tra persone e macchine: proprio per questo, richiede un trattamento alla pari delle infrastrutture critiche. Molte realtà aziendali stanno integrando gli strumenti di AI senza un piano strutturato.

L’introduzione avviene spesso per iniziativa di singoli reparti, senza un coordinamento centralizzato con le funzioni di cybersicurezza e di compliance. Questo approccio frammentato porta a una proliferazione di soluzioni non presidiate, con responsabilità poco chiare e limitata visibilità sui processi. Il risultato è un rischio crescente di esposizione, non sempre percettibile nell’immediato, ma potenzialmente impattante nel medio periodo: la man-

canza di policy condivise e strutture di governance solide rappresenta una delle principali debolezze nei percorsi di trasformazione digitale. Le aziende, insomma, si trovano spesso a reagire anziché guidare l’innovazione. I Ciso concordano sul fatto che per garantire un utilizzo consapevole e sicuro dell’AI sia fondamentale definire ruoli chiari, processi trasparenti e meccanismi di controllo, integrando

“Oltre che da un potenziamento delle minacce esterne note, i pericoli di cybersicurezza legati all’AI sembrano derivare dagli usi inconsapevoli, sottovalutati o mal compresi all’interno delle organizzazioni”.
Massimo Cottafavi, director cyber security & resilience di Snam

la cybersicurezza fin dalle prime fasi di progettazione. Solo così l’adozione può diventare una leva di resilienza e non un elemento di fragilità.

Una cornice normativa insufficiente Il tentativo di regolamentare l’uso dell’intelligenza artificiale in Europa si scontra con la realtà operativa delle aziende. Il quadro normativo attuale, rappresentato anzitutto dall’AI Act, non fornisce strumenti pratici per orientare le scelte quotidiane dei responsabili tecnologici e dei manager. I principi generali enunciati sono condivisibili, ma non bastano a coprire le specificità dei diversi settori o a rispondere alla velocità con cui l’innovazione avanza. In questo vuoto applicativo, molte aziende si affidano a soluzioni interne, spesso scollegate tra loro. Alcune hanno creato comitati dedicati, altre hanno formalizzato delle policy d’uso, ma manca una convergenza su modelli di governance replicabili e adattabili: la conseguenza è una grande varietà di approcci che rischia di aumentare la frammentazione e di rendere sempre più difficile il dialogo tra imprese, regolatori e stakeholder.

Malgoverno, phishing e deepfake Nell’immaginario collettivo, l’AI è spesso associata a scenari catastrofici e minacce invisibili, ma nella pratica quotidiana i problemi reali si manifestano in modo più sottile. Le aziende non segnalano al momento gravi episodi di danni causati da intelligenze artificiali fuori controllo, mentre i rischi più ricorrenti derivano da utilizzi non governati, laddove degli strumenti innovativi vengono introdotti senza che ne siano stati valutati gli impatti in termini di sicurezza e protezione dei dati. Tra gli esempi più comuni ci sono piattaforme di videoconferenza che registrano conversazioni senza un’adeguata gestione dei consensi, o assistenti virtuali che memorizzano contenuti sensibili senza adeguate policy di conservazione delle informazioni. Sono falle silenziose, spesso non eclatanti nell’immediato, ma potenzialmente critiche sul lungo periodo. Questi errori non derivano da malafede, bensì da un approccio all’adozione troppo rapido, che antepone la funzionalità al controllo.

Anche sul fronte esterno si nota un’evoluzione nei metodi di attacco. Il phishing si raffina, sfruttando la capacità dell’AI di personalizzare i messaggi, di simulare il linguaggio aziendale, di imitare toni e abitudini; i deepfake, in forma audio e video, stanno invece emergendo come strumenti per colpire la fiducia tra interlocutori. Queste tecniche, sebbene ancora limitate nei numeri, stanno cambiando il modo in cui il rischio si presenta. In tale scenario, la percezione delle

I PARTECIPANTI:

imprese è ambivalente: da un lato l’interesse verso l’AI cresce, dall’altro resta forte la consapevolezza che un’adozione disordinata possa generare vulnerabilità difficili da sanare.

L’AI che piace ai Ciso

Le tecnologie basate su modelli AI non sono solo fonte di rischio: se utilizzate correttamente, rappresentano un potente alleato per rafforzare le difese aziendali. I principali ambiti d’uso e riguardano l’individuazione precoce delle minacce, l’analisi dei comportamenti anomali, la gestione delle vulnerabilità e l’automazione della risposta agli incidenti. Grazie alla velocità di elaborazione e alla capacità di apprendimento continuo, queste soluzioni permettono di migliorare i tempi di reazione e di alleggerire il carico sui team di sicurezza. I sistemi possono riconoscere pattern sospetti in grandi volumi di dati, correlare eventi distanti tra loro e suggerire azioni correttive in tempo reale. Secondo l'indagine “Cyber Risk Management 2025” di TIG – The Innovation Group e CSA – Cyber Security Angels, il 71% delle aziende ha già adottato strumenti di intelligenza artificiale almeno in un ambito della sicurezza informatica, mentre un ulteriore 19% è in fase di valutazione. Il 64% delle organizzazioni evidenzia anche l’importanza di mantenere una supervisione umana continua, indispensabile per gestire eventuali errori o falsi positivi. Per sfruttare appieno i vantaggi di queste tecnologie riducendo al minimo le

• Massimo Cottafavi, director cyber security & resilience di Snam

• Elisabetta Fortunato, data protection officer di ASL Bari Mario Paolo Garofano; Ciso di Fondazione Policlinico Universitario Campus Bio-Medico Paolo Leoci; Ict director di Cementir Group

• Marco Rottigni, technical director di SentinelOne

• Luca Tinaburri, cyber security awareness & relationship manager di Ferrovie dello Stato

criticità, è fondamentale inserirle in un ecosistema strutturato, composto da controlli regolari, audit indipendenti e aggiornamento costante delle competenze interne. Gli algoritmi non sostituiscono il giudizio umano ma possono potenziarlo, a patto che siano utilizzati con consapevolezza e responsabilità.

Sostenibilità: un dialogo incompleto La discussione sull’AI raramente si intreccia con il tema della sostenibilità, se non per qualche riferimento all’impatto ambientale dei data center. Eppure, inserire l’intelligenza artificiale all’interno dei parametri Esg (Environmental, Social, Governance) è oggi una necessità strategica. Il consumo energetico associato alla potenza di calcolo necessaria per far funzionare i modelli è solo l’aspetto più visibile di un tema molto più ampio. L’impatto sociale dell’adozione di queste tecnologie è altrettanto rilevante, poiché si potrebbero introdurre nuove forme di esclusione, discriminazione o marginalizzazione, specialmente quando i modelli vengono sviluppati su basi dati parziali o distorte. In questo contesto, l’equità nell’accesso, la trasparenza delle decisioni automatizzate e la tracciabilità dei processi non sono semplici requisiti tecnici, ma elementi chiave di una visione autenticamente sostenibile della trasformazione digitale. Sul piano della governance, così come per la cybersicurezza, servono strumenti adeguati per garantire l’accountability e il controllo effettivo dei sistemi automatizzati, assicurando che ogni decisione presa attraverso l’AI sia verificabile, giustificabile e conforme ai principi etici e normativi. La cybersecurity, in questo scenario, assume un ruolo cruciale, rappresentando proprio uno dei pochi ambiti già maturi nella gestione del rischio, nella definizione dei controlli e nella verifica della conformità.

VELOCITÀ, RISPARMIO E INNOVAZIONE CON UN ERP IN CLOUD

La multinazionale emiliana ha adottato Sap S/4Hana Cloud su Aws per ottimizzare i costi e le attività di produzione.

L’Erp è una tecnologia di fondamentale importanza per molte aziende ma specialmente per quelle grandi, geograficamente distribuite e caratterizzate da una filiera lunga e complessa. È il caso di Bonfiglioli, azienda del bolognese che affonda le proprie radici negli anni Cinquanta e che oggi è una società per azioni multinazionale da 4.700 dipendenti. I suoi prodotti e le sue soluzioni per l’automazione industriale, le macchine mobili e le energie rinnovabili escono da 23 fabbriche per arrivare in un’ottantina di Paesi del mondo. L’incontro con la tecnologia di Sap risale al 1999 ma è solo nel 2024 che Bonfiglioli ha compiuto il grande passo della migrazione in cloud. “Abbiamo deciso di sposare una nuova filosofia di gestione della piattaforma Sap, da software amministrato dall’azienda a una piattaforma utilizzata in modalità di subscription”, racconta il chief information officer, Enrico Andrini. “Non aveva più

LA SOLUZIONE

Sap S/4HANA Cloud è un Erp ottimizzato per il database in-memory Sap Hana, che può elaborare grandi volumi di dati in tempo reale su carichi di lavoro transazionali o analitici. Sap Digital Manufacturing è una piattaforma di gestione delle attività di produzione, con funzioni di pianificazione delle risorse, monitoraggio di Kpi, insight, controllo di processo e altro ancora.

senso ritardare il passaggio a Sap S/4Hana Cloud, una tecnologia moderna, in costante aggiornamento e al passo con le evoluzioni tecnologiche, sempre più rapide”. La necessità di elaborare più rapidamente grandi volumi di dati ha trovato risposta in questa versione dell’Enterprise Resource Planning, ottimizzata per funzionare sul database in-memory Sap Hana. Bonfiglioli si è orientata su una soluzione in cloud, oltre che per migliorare le prestazioni dell’Erp, anche per ottimizzare i propri costi operativi, per aiutarsi a mantenere un elevato livello di aggiornamento tecnologico e per poter accedere a nuovi e avanzati servizi. Si è quindi scelto di adottare S/4Hana Cloud come Erp gestito da Sap e ospitato sul cloud di Amazon Web Services (Aws).

La migrazione, avviata nel marzo 2024 e completata in dieci mesi in tutte le filiali del gruppo, è stato realizzata all’interno del

progetto Rise with Sap, per il quale Bonfiglioli si è affidata al system integrator milanese Avvale (in precedenza Techedge). Quest’ultimo ha messo a disposizione un team multidisciplinare che ha racchiuso solide competenze sulle architetture Sap ed esperienze consolidate in progetti complessi di trasformazione digitale. Avvale ha accompagnato il cliente in tutte le fasi della migrazione, dall’assessment iniziale fino al go-live

“Con la nuova soluzione riduciamo il total cost of ownership in termini gestionali e non abbiamo più in carico la responsabilità delle prestazioni del software Sap, ricadendo quest’ultima sul vendor stesso”, testimonia Andrini. Il percorso di innovazione di Bonfiglioli non è terminato: l’azienda emiliana ha scelto di adottare la soluzione cloud Sap Digital Manufacturing, sia per migliorare ulteriormente l’efficienza operativa, la reportistica, la qualità dei prodotti sia per armonizzare i processi produttivi in tutte proprie fabbriche italiane ed estere. La soluzione sarà implementata entro il primo trimestre del 2026 nel sito produttivo di Bologna, per poi essere progressivamente estesa a tutti gli altri.

L’azienda si sta anche interessando all’intelligenza artificiale generativa. “Anche se al momento siamo in fase prematura, stiamo comunque prendendo in considerazione l’introduzione di Joule, il Copilot di AI generativa di Sap”, racconta il Cio di Bonfiglioli. “Capiremo insieme a Sap quale tra gli oltre 130 use case già disponibili adottare per gestire i nostri specifici scenari di produzione e supply chain in modo intelligente e migliorare la produttività”. L’azienda sta anche valutando la possibilità di adottare altre soluzioni Sap, ovvero i moduli Production Planning and Detailed Scheduling (per creare piani di produzione dettagliati e piani di sequenza di lavoro) ed Extended Warehouse Management (per meglio gestire le operazioni nei magazzini e integrarle con la logistica della supply chain).

PAGAMENTI DINAMICI PER AMANTI DELLO SPORT

Adyen ha permesso di semplificare i processi, aumentare l’efficienza e garantire un’esperienza di acquisto sicura e fluida su tutti i canali.

Uno specialista degli sport dinamici — sci, motociclismo, ciclismo — non poteva che ricercare velocità e reattività anche nei pagamenti elettronici, sia in negozio sia online. Dainese, marchio sinonimo di equipaggiamento tecnico e protezioni per sportivi, cercava una soluzione tecnologica che aiutasse a migliorare l’esperienza di acquisto su diversi canali di vendita. Negli anni, la crescita delle vendite senza intermediari (direct to consumer) e l’espansione internazionale hanno aumentato la complessità delle operazioni aziendali. Da un lato, era necessario garantire a ogni cliente un’esperienza di pagamento sicura, coerente sui diversi canali ma anche declinata sulle abitudini di acquisto e specificità di ogni Paese. Inoltre era diventato indispensabile ottimizzare la gestione interna: bisognava integrare i sistemi retail ed e-commerce ancora disgiunti, semplificare la riconciliazione dei pagamenti, ridurre i costi e mantenere elevati standard di sicurezza e controllo delle frodi. Da qui la scelta della tecnologia di Adyen, una piattaforma per la gestione end-to-end dei pagamenti su più canali di vendita, con integrate funzionalità di autenticazione, controlli antrifrode e ottimizzazione del funnel. Con tempi di implementazione piuttosto rapidi (dimezzati rispetto a quelli di soluzioni adottate in passato), l’azienda ha adottato la piattaforma per le attività di e-commerce del marchio Dainese in tutta Europa e negli Stati Uniti, oltre che per i pagamenti nei negozi di otto Paesi europei, tra cui l’Italia. È stato possibile

attivare rapidamente i principali metodi di pagamento locali e internazionali, come carte di credito e debito, pagamenti rateali e split payment, a soluzioni come Affirm, PayPal, Pay by Link e Klarna, sia per le transazioni in negozio sia per quelle online. Dainese sfrutta anche le funzionalità di intelligenza artificiale della piattaforma di Adyen per ridurre il rischio di frode, aumentare il tasso di autorizzazione dei pagamenti e diminuire i costi di gestione.

“Lavorare con un partner tecnologico affidabile come Adyen ci permette di concentrarci sull’innovazione e sul miglioramento continuo dei nostri processi, contando su continuità, scalabilità e un supporto costante”, racconta Laura Benedettino, global digital director di Dainese. Il progetto ha portato benefici trasversali ai diversi team aziendali, dall’IT alla contabilità, e impatti positivi sull’esperienza del cliente. I risultati ottenuti spaziano dalla sicurezza dei dati alla riduzione delle frodi, dalla compliance all’aumento del tasso di autorizzazione dei pagamenti online, dalla gestione centralizzata e da remoto delle attività a livello globale e alla semplificazione dei processi di riconciliazione dei pagamenti. Ci sono stati, inoltre, benefici di ottimizzazione dei costi, efficienza operativa e controllo finanziario.

“Collaborare con un brand come Dainese significa accettare ogni giorno la sfida di andare oltre, puntando su sicurezza, velocità e innovazione”, commenta Gabriele Bellezze, country manager di Adyen in Italia. “Lavoriamo al fianco del

LA SOLUZIONE

La piattaforma di gestione dei pagamenti di Adyen è multicanale e include funzionalità di autenticazione e controlli antifrode, ma anche strumenti per l’ottimizzazione del funnel e per la massimizzazione delle conversioni, e ancora prodotti finanziari (conti aziendali, emissione di carte di pagamento e altro ancora).

brand per supportarlo nell’implementazione di soluzioni che non solo rispondano alle esigenze attuali, ma che siano già pronte per il futuro, in linea con la passione per la performance e la protezione che definiscono Dainese”. “Nei prossimi mesi”, anticipa Benedettino, “prevediamo di attivare nuovi metodi di pagamento locali e la soluzione Adyen Giving, oltre che sfruttare al massimo le potenzialità della piattaforma e le funzionalità basate sull’AI per generare valore concreto, migliorando l’efficienza, e offrire ai clienti un’esperienza sempre migliore e sicura”.

UNA “SCALA” VERSO IL (MULTI)CLOUD

Megaport ha permesso di realizzare un’architettura di rete affidabile e flessibile, collegata a data center di Aws, Google e Oracle.

Il cloud è spesso la porta d’ingresso o, se preferiamo, il punto di partenza della trasformazione digitale. Ma a volte serve anche avere una “scala verso il cloud”. Questo ha rappresentato Megaport per Sara Assicurazioni, gruppo presente in Italia attraverso oltre 630 agenzie sparse sul territorio e oltre 650 dipendenti. Fondata nel 1946 a Roma, l’azienda sviluppa un’offerta di soluzioni per assicurazione auto, casa, salute, risparmio e investimenti, rivolta a Pmi, professionisti e privati. Fino al recente passato, la rete IT di Sara Assicurazioni era caratterizzata da alcuni limiti e rigidità, che impedivano tra le altre cose la migrazione sul cloud pubblico. Con il fornitore di rete privato utilizzato fino a quel momento, l’azienda era alle prese con lentezze nei tempi di provisio -

ning e costi elevati per la rimozione delle risorse, e inoltre era impossibilitata ad adottare tecnologie innovative come il machine learning. Tutto questo rappresentava un ostacolo alla trasformazione digitale.

Da qui la decisione di rivolgersi a Megaport per realizzare una’architettura di rete multicloud scalabile e flessibile, che potesse consentire la migrazione dei carichi di lavoro critici verso i servizi cloud pubblici. In sostanza, si voleva ottenere un accesso affidabile e sicuro al cloud attraverso una rete privata. Il data center di Roma di Sara Assicurazioni è stato collegato a un’infrastruttura del network di Megaport, collocata in Italia: da qui, poi, sono stati attivati collegamenti diretti su differenti data center di cloud pubblico, di Amazon (Aws), Oracle e Google. Un servizio di router virtuale gestito permette di trasferire i carichi di lavoro transazionali missioncritical sul cloud pubblico senza passare dal data center fisico di Roma. Questa architettura di rete ha reso possibile una migrazione dei carichi di lavoro più efficiente e a bassa latenza. Il personale IT di Sara Assicurazioni può attivare e modificare le connessioni in pochi minuti attraverso un portale self-service, senza tempi di attesa. Terzo vantaggio, la nuova infrastruttura consente una scalabilità dinamica per adattarsi ai ritmi di sviluppo delle applicazioni e per

LA SOLUZIONE

Il data center di Roma di Sara Assicurazioni è stato collegato a un’infrastruttura del network di Megaport, collocata in Italia. Da qui sono stati attivati collegamenti diretti verso Aws (Dublino e Francoforte), Oracle e Google Cloud. Il servizio di router virtuale gestito Megaport Cloud Router permette di trasferire in cloud pubblico i carichi di lavoro transazionali, senza passare dal data center di Roma.

poter integrare facilmente tecnologie le innovazioni offerte dai cloud provider. “Megaport è stata per noi la vera scala verso il cloud”, testimonia Paolo Perrucci, direttore delle infrastrutture IT di Sara Assicurazioni. “Grazie alla loro soluzione, siamo riusciti a superare le rigidità infrastrutturali che rallentavano la nostra evoluzione tecnologica. Ora possiamo supportare in modo agile e sicuro i nostri carichi di lavoro più critici, riducendo drasticamente i tempi di provisioning e adattando le risorse IT in tempo reale alle esigenze del business. Questo ci ha permesso di accelerare l’adozione delle tecnologie più avanzate, come il machine learning e l’interazione uomo-macchina, rafforzando la nostra competitività in un mercato in continua trasformazione”.

Dopo aver spostato i carichi di lavoro critici sui data center di Aws, Oracle e Google, la società assicurativa prevede di trasferire sulla Google Cloud Platform il proprio sistema Erp, ancora ospitato on-premise. Nelle intenzioni di Sara Assicurazioni, questo ulteriore passaggio permetterà di consolidare ancora di più la propria infrastruttura digitale e di accedere più facilmente a servizi innovativi.

L’IPERCONVERGENZA È SICUREZZA E SEMPLICITÀ

L’infrastruttura IT basata su tecnologia Nutanix ha portato vantaggi di performance, controllo e gestione.

Una banca vicina al territorio, con 63 filiali distribuite su tutte le province della regione in cui è presente, ma anche tesa verso l’innovazione, con un’offerta di servizi multicanale e personalizzati: questo il profilo di Gruppo Banca Popolare del Lazio (Gruppo BPLazio). Una realtà (di cui fanno parte anche l’Istituto Finanziario Europeo, Ife, intermediario finanziario specializzato nella cessione del quinto, e la compagnia assicurativa San Pietro Broker) che negli anni ha investito in trasformazione digitale. Come molti istituti di credito, anche BPLazio utilizza un outsourcer informatico (di cui è socio) per le funzioni core della banca, nel caso specifico Cse, Consorzio Servizi Bancari. “Negli anni”, racconta Fabio Cavola, responsabile ufficio IT e sicurezza informatica di Gruppo BPLazio, “abbiamo costruito anche un sistema informativo interno e parallelo, per la gestione in autonomia di applicazioni informatiche agili e di semplice utilizzo. L’infrastruttura molto limitata e il gruppo di lavoro ristretto non ci hanno impedito di essere premiati nel 2024 da Abi Lab per l’innovazione, nella sezione canali di relazione con la clientela, per il progetto PiucrediX”. Recentemente si è deciso di mettere mano al data center interno: l’hardware aveva ormai raggiunto il limite delle capacità, mentre il software di virtualizzazione in uso era diventato troppo oneroso per un’organizzazione snella come quella del gruppo. Si puntava a migliorare le prestazioni del sistema ma anche a semplificare le attività di gestione per un team ristretto, “possibilmente concentrando tutto l’hardware in un singolo rack”, dettaglia Cavola. “Ci siamo guarda-

ti intorno valutando sia il rinnovamento della vecchia soluzione, un hypervisor con architettura tradizionale, sia il passaggio a un’infrastruttura iperconvergente basata su software Nutanix”. Questa la scelta finale, dettata da considerazioni sia tecniche sia economiche. Il progetto, realizzato insieme al partner Eurome (Gruppo R1), ha portato ad allestire una soluzione di infrastruttura iperconvergente a quattro nodi, basata su hardware Lenovo e su software di Nutanix: qui sono state trasferite le applicazioni di back-office, il file server, i sistemi di monitoraggio e sicurezza e l’Active Directory. Diversi i benefici ottenuti: una semplificazione del data center, a cui si lega una drastica riduzione dei tempi di manutenzione e aggiornamento; miglioramenti di prestazioni delle applicazioni; una maggiore sicurezza e compliance, perché il software di Nutanix permette di cifrare anche i dati “a

LA SOLUZIONE

L’infrastruttura iperconvergente a quattro nodi si basa su hardware di Lenovo e su software di Nutanix, in particolare il sistema operativo Aos (Acropolis Operating System) e l’interfaccia gestionale Prism, entrambi in versione “Ultimate”. Viene garantita la cifratura dei dati a riposo, in conformità a Dora. Sono state trasferite sul sistema le applicazioni di backoffice, il file server, i sistemi di monitoraggio e sicurezza e l’Active Directory.

allo standard ISO 27001 e al regolamento Dora. “Rispetto all’architettura precedente, con Nutanix abbiamo un unico punto di contatto, un’unica console e un unico ambiente da aggiornare e da gestire”, testimonia Francesco Comandini, responsabile sicurezza informatica del gruppo bancario. “Questo ovviamente riduce sforzi e tempi, anche della manutenzione. In più, abbiamo fatto un salto notevole anche sul fronte delle prestazioni e della sicurezza”. I circa 450 utenti aziendali che interagiscono ogni giorno con le applicazioni hanno notato netti incrementi di performance. “È come essere passati da un’utilitaria a una macchina sportiva”, assicura Cavola. “Il progetto ha visto anche il passaggio a un uplink a 10 Gbps, che ci ha permesso di migliorare le prestazioni complessive”.

A detta del responsabile IT, la caratteristica più apprezzata è la semplicità di gestione e manutenzione: se prima ogni modifica si rifletteva su più componenti (server, storage e apparati di rete), ora c’è un unico sistema da aggiornare. “I controlli che prima richiedevano circa un’ora al giorno al nostro personale ora vengono eseguiti in pochi minuti”, sottolinea Cavola. “Insieme a Nutanix abbiamo previsto una partnership di almeno quattro anni, adeguata al nostro piano strategico di crescita; una scelta che ci consente di conoscere in anticipo i costi di tutta l’infrastruttura e di risparmiare almeno il 20% rispetto alla soluzione alternativa”. Gli sviluppi futuri prevedono il refresh tecnologico del sito di disaster recovery, con l’installazione di un secondo rack iperconvergente in un data center esterno.

NETCOMM FOCUS FASHION & BEAUTY

Quando: 22 settembre

Dove: Magna Pars Event Space, Milano

Perché partecipare: tra keynote e tavole rotonde, verranno esplorate le tendenze e le interconnessioni tra il settore della moda e l’industria della bellezza. Evento su invito e in diretta streaming.

BANKING SUMMIT

Quando: 23-24 settembre

Dove: Grand Hotel Dino, Baveno (VB)

Perché partecipare: giunto alla 15esima edizione, l’appuntamento di TIG Events porterà sul palco economisti, accademici, analisti e imprenditori del settore. Si parlerà, tra le altre cose, di intelligenza artificiale, omnicanalità e nuovi regolamenti.

MILANO DIGITAL WEEK

Quando: 1-5 ottobre

Dove: Meet Digital Culture Centre e altre location, Milano

Perché partecipare: l’evento diffuso, rivolto ad addetti ai lavori e curiosi, esplorerà le nuove frontiere e l’impatto del digitale su imprese e cittadini, tra esperienze immersive, talk e incontri.

HEALTHCARE INNOVATION SUMMIT

Quando: 8-10 ottobre

Dove: Magna Pars Event Space, Milano

Perché partecipare: si discuterà, dati alla mano, della trasformazione digitale del Servizio Sanitario Nazionale, tra sfide e casi di eccellenza. Saranno anche presentate le linee guida di Aisis sulla conformità alla direttiva NIS2.

19-20 novembre 2025

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.