Technopolis 66

Page 1


STORIE DI ECCELLENZA E INNOVAZIONE

CYBERSICUREZZA, UNA QUESTIONE GLOBALE

Alimentata dall’AI, l’evoluzione delle minacce porta nuove sfide agli addetti ai lavori ma si intreccia anche con la geopolitica mondiale.

INTELLIGENZA ARTIFICIALE

Nuovi casi d’uso si fanno strada nell’e-commerce, ma anche nel real estate e nelle smart city.

INDUSTRIA 4.0

Casi italiani di trasformazione nel manifatturiero: l’obiettivo sono i processi, ma tutto parte dai dati.

SPECIALE CIO

Come cambia e cambierà (tra gli ostacoli) il ruolo del Chief Information Officer nelle aziende.

CYBER SECURITY summit

19-20 marzo

MAGNA PARS EVENT SPACE Milano

PER INFO SULLE SPONSORSHIP

sales@theinnovationgroup.it www.theinnovationgroup.it

N° 66 - MARZO 2025

STORIE DI ECCELLENZA E INNOVAZIONE

Periodico mensile registrato

presso il Tribunale di Milano al n° 378 del 09/10/2012

Direttore responsabile:

Emilio Mango

Coordinamento:

Valentina Bernocco

Hanno collaborato:

Camilla Bellini, Sergio Bevilacqua, Roberto Bonino, Stefano Brigaglia, Alessandro de Bartolo, Gianluca Dotti, Elena Vaciago, Igor Valandro

Foto e illustrazioni: 123rf.com, Burst, Freepik, Pixabay, Unsplash, Adobe Firefly

Editore e redazione:

Indigo Communication Srl Via Ettore Romagnoli, 6 - 20146 Milano tel: 02 499881

Pubblicità:

TIG - The Innovation Group Srl tel: 02 87285500

Stampa: Ciscra SpA - Arcore (MB)

© Copyright 2024

The Innovation Group Srl

Tutti i diritti di proprietà letteraria e artistica riservati.

Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto.

Pubblicazione ceduta gratuitamente.

4

STORIA DI COPERTINA

Un’arma a doppio taglio

Un’agenda cyber per il sistema Paese

14 IN EVIDENZA

Washington e la Silicon Valley mai così vicine... e l’Europa?

AI, cloud, sostenibilità: terzetto inscindibile

Senza dati, la guida autonoma è ferma allo “stop”

Il valore di servizi e partner contro i “vampiri” dell’Ucc

Sarà l’anno di agenti, robot e data center

AI e cybersicurezza nella lente della videosorveglianza

Tre sfide per la visibilità sulla supply chain

L’osservabilità unificata è la risposta alla frammentazione

A tutta AI, dagli Stati Uniti all’Italia

26 ITALIA DIGITALE

Le aziende lombarde alle prese con l’AI, tra presente e futuro

28 SPECIALE CIO

Il chief information officer non è mai fermo

34 INTELLIGENZA ARTIFICIALE

Buone intenzioni, strategie sbagliate

Edifici più smart e più sostenibili

La GenAI è alleata dello shopping

40

INDUSTRIA 4.0

La manifattura è sempre più smart

Dal dato ai processi digitali

L’automazione è collaborativa

46 ECCELLENZE

Con le giuste informazioni si lavora meglio

Uno storage per l’AI nella culla del sapere

Un nuovo gestionale per un business che lievita

Il backup immutabile è essenziale come l’acqua

50 APPUNTAMENTI

UN’ARMA A DOPPIO TAGLIO

Cresce l’uso dell’intelligenza artificiale nel fronte della difesa informatica, così come nell’attacco. Il punto di vista delle aziende italiane e dei chief information security officer.

Gli attacchi informatici non si fermano mai: evolvono e crescono in volume, facendo leva su un contesto geopolitico frammentato e su un’innovazione tecnologica rampante. Con una digitalizzazione che cresce a tassi sostenuti, la superficie da proteggere aumenta esponenzialmente. E la stessa intelligenza artificiale, che trova già ampio impiego in cybersecurity, presenta, nella sua diffusione incontrollata in molteplici ambiti del business, rischi legati all’introduzione di vulnerabilità e a possibili utilizzi malevoli. Come stanno vivendo questo periodo di rapida trasformazione i responsabili della cybersecurity nelle organizzazioni italiane? I risultati

dell’indagine di TIG – The Innovation Group e CSA – Cyber Security Angels (condotta su un campione di 191 organizzazioni italiane medie e grandi, intervistate a dicembre 2024) sui percorsi di gestione del rischio informatico (Cyber Risk Management) mettono in luce lo stratificarsi di problematiche vecchie e nuove. Alle sfide tradizionali, come il ransomware, il controllo degli accessi e la sicurezza del cloud, si sommano, infatti, nuove esigenze come la compliance alle norme europee e la necessità di mettere in sicurezza gli sviluppi di intelligenza artificiale.

Nella lista delle priorità dei Ciso per il 2025 i due temi principali sono la conformità alle normative europee (indicata dal

59% dei rispondenti) e la cosiddetta security awareness, concetto che indica le competenze e la sensibilità al tema (54%). Gli attori malevoli continuano a sfruttare, in modo predominante, le debolezze umane: l’endemica presenza del phishing, nel 96% delle aziende, mette in luce che il principale vettore di attacco è legato agli utenti e alla loro vulnerabilità. Una tecnica, quella del phishing, che oggi beneficia anche delle capacità dell’AI generativa, che aiuta gli autori a realizzare in tempi molto rapidi dei messaggi personalizzati e credibili.

I pericoli più temuti Guardando avanti, a quali saranno per gli intervistati le evoluzioni future più preoccupanti, al primo posto c’è proprio il phishing basato su intelligenza artificiale, citato dall’86% de campione. Ne sono già esempio i deepfake e più in generale l’uso dell’AI per potenziare gli attacchi di inge-

Immagine di Freepik

UNA BUONA “POSTURA”

La cosiddetta postura di cybersicurezza (cybersecurity posture) è un tema emerso negli ultimi anni, a indicare la necessità di rafforzare i controlli, la gestione del rischio e le policy aziendali. Una bella notizia è che, nel campione d’indagine, la postura di sicurezza è considerata già oggi buona o sufficiente per molti degli ambiti IT. Ad esempio, la sicurezza di Pc da scrivania e portatili è valutata come “solida” (un punteggio medio pari a 4 in una scala da 1 a 5), probabilmente grazie a misure consolidate come antivirus, firewall e gestione centralizzata degli aggiornamenti. Il punteggio positivo per i cloud privati e pubblici (soprattutto nelle aziende di media dimensione) evidenzia, inoltre, una discreta fiducia sulla sicurezza di questo tipo di ambienti, grazie a miglioramenti nei controlli realizzati dai fornitori del servizio. Anche la sicurezza del network e dei database aziendali è considerata sufficiente (con un punteggio, rispettivamente, di 3,7 e 3,6 in una scala da 1 a 5). Ambito critico è invece quello dell’Internet of Things, che riceve un’insufficienza (2,7 in una scala tra 1 e 5): la sicurezza degli oggetti connessi rimane una sfida, probabilmente a causa della eterogeneità dei dispositivi stessi e della mancanza di standard consolidati. Il punteggio relativamente basso per le API (Application Programming Interface) riflette, inoltre, preoccupazioni per la sicurezza applicativa e per le vulnerabilità nell’integrazione e nella protezione dei dati. Anche i dispositivi mobili, spesso usati anche per lavorare in contesti Byod (Bring Your Own Device), richiederebbero miglioramenti in termini di sicurezza. Considerando invece i processi di gestione del rischio, l’ambito del backup e del ripristino ottiene la valutazione più alta (con un punteggio medio di 3,9), indicando una buona fiducia nella capacità dell’organizzazione di garantire la continuità operativa in caso di incidente. Contrasto alle minacce cyber (3,8), monitoraggio delle minacce (3,5) e riduzione della superficie d’attacco con il vulnerability management (3,4) sono anch’essi valutati positivamente, mentre la formazione dei dipendenti (3,3) e quella del team di security (3,2) ricevono solo un giudizio medio di sufficienza, evidenziando la necessità di continuare a investire in queste attività per migliorare la cultura di sicurezza interna. La risposta agli incidenti (3,2) e la gestione delle identità e degli accessi (Identity e Access Management, 3,1) ricevono punteggi medi, indicando che anche queste capacità potrebbero essere migliorate.

gneria sociale, per renderli più convincenti e difficili da rilevare. Inoltre, il 64% degli intervistati teme le compromissioni lungo la catena di fornitura, che si propagano sfruttando vulnerabilità di prodotti har-

Le priorità dei CISO nel 2025

Fonte: CSA e TIG, “Cyber Risk Management Survey”, gennaio 2025

dware e software di terze parti. Sul tema dell’identificazione dei rischi cyber, dalla ricerca emerge l’importanza della tecnologia: le aziende si affidano innanzitutto a soluzioni di monitoraggio (nel 76% dei casi) per individuare le minacce, dimostrando un’elevata maturità nell’adozione di strumenti di sicurezza. Inoltre è abbastanza diffusa (65%) l’abitudine di condurre test sulle capacità del personale in materia di sicurezza informatica. Nella gestione del rischio di cybersecurity, poi, sono diffuse per la loro efficacia misure come le valutazioni sulle vulnerabilità (vulnerability audit, 62%) e i penetration test (61%), attività ricorrenti nella maggior parte delle organizzazioni. Il 59% delle aziende conduce anche risk assessment per misurare il rischio informatico: una percentuale elevata ma che, visto l’arrivo di nuove norme europee come la Direttiva Nis 2 e il regolamento Dora, potrebbe ancora aumentare. In generale, l’indagine mostra che le grandi organizzazioni sono più avanzate sul fronte dell’identificazione e della comprensione dei rischi, in particolare nell’adozione di soluzioni di cyber threat intelligence.

La potenza dell’AI I risultati dell’indagine, che ha coinvolto un campione di realtà pubbliche e private in prevalenza di dimensione media e grande (nel 74% dei casi con oltre 100 milioni di euro di fatturato), mostra che nel 71% delle aziende l’intelligenza artificiale è già presente in almeno un ambito della cybersecurity. La quota è destinata a crescere rapidamente, dato che un ulteriore 19% di aziende sta valutando l’adozione. L’uso dell’AI in cybersecurity vede alcuni ambiti favoriti: nel filtraggio della posta elettronica, nell’Endpoint Detection and Response (Edr) e nei sistemi anti-malware riflette l’urgenza di proteggere i principali vettori e bersagli di attacco; nelle soluzioni di behavioral analytics e cyber threat intelligence aiuta a rilevare le anomalie rispetto agli schemi comportamentali ricorrenti. Emerge poi un’elevata comprensione dei benefici raggiungibili con un approccio basato sull’AI. Al primo posto, il migliore rilevamento e la capacità di bloccare le minacce, indicato dal 78% dei rispondenti. Segue la risposta agli incidenti tempesti-

va, citata dal 69% del campione. In terza posizione, la capacità di automazione per migliorare il lavoro del team di sicurezza, segnalata dal 51% degli intervistati. Altri vantaggi attribuiti all’AI sono una maggiore capacità di difesa complessiva (46% delle risposte), la riduzione dei falsi positivi nelle allerte di sicurezza (42%) e la migliore gestione e prioritizzazione delle vulnerabilità (35%).

Sfide e rischi

Le sfide nell’adozione riguardano invece la necessità di supervisionare i risultati prodotti dall’AI (per il 64%), necessità rafforzata dal fatto che per il 51% degli intervistati le soluzioni AI sono percepite come ancora poco avanzate o non ben testate per garantire sicurezza e risultati stabili. La compliance ai regolamenti come il Gdpr europeo o altre normative sulla privacy è una delle sfide più significative (segnalata dal 49% del campione), ma anche il costo economico per l’implementazione e il mantenimento delle soluzioni di AI è percepito come una barriera (42%). Com-

potenziati dall’AI: le evoluzioni future più temute

prensione tecnica limitata (39%) e governance dei dati (38%) sono problematiche significative, che richiedono maggiore formazione e migliori processi operativi. Solo il 17% ritiene che la scarsa dedizione del top management sia un problema: sembrerebbe che la cybersecurity sia ormai vista come una priorità, a cui fa seguito l’AI come strumento facilitante.

Il timore di chi si occupa di cybersecurity è che l’AI venga sfruttata per aumentare le capacità degli attaccanti e l’efficacia del loro operato: nei messaggi di phishing innanzitutto (tema sottolineato dall’84% dei rispondenti) ma anche in altri possibili utilizzi malevoli, come i deepfake audio e video che impersonano dirigenti aziendali (rischio indicato dal 53% dei rispondenti). I deepfake possono servire a predisporre frodi sofisticate come la Business Email Compromise, che possono portare a danni economici elevati. E ancora, attacchi che nella fase di ricognizione sfruttano l’AI per ottenere in tempi più rapidi informazioni rilevanti sulle organizzazioni prese di mira (45% delle risposte). Altri rischi percepiti sono l’uso dell’intelligenza artificiale per individuare vulnerabilità note o zero day (43% delle risposte), l’incremento del volume degli attacchi (43%) e i malware autonomi che apprendono e si adattano in tempo reale per eludere le soluzioni di cybersicurezza (42%).

Attacchi
Fonte: CSA e TIG, “Cyber Risk Management Survey”, gennaio 2025
Quali minacce monitorare già oggi per arginare i rischi futuri?
Fonte: CSA e TIG, “Cyber Risk Management Survey”, gennaio 2025
Immagine
di rawpixel su Freepik

UN’AGENDA CYBER PER IL SISTEMA PAESE

Dalla tecnologia alla cultura collettiva, passando per l’impatto delle normative: ecco ciò che andrebbe fatto (e non fatto) in Italia secondo l’analista William Nonnis.

Con la crescente digitalizzazione delle istituzioni, la protezione e la gestione dei dati sensibili assumono un ruolo centrale e strategico. La tecnologia e la connettività digitale rendono la sicurezza informatica una priorità cruciale per governi, aziende e cittadini, in uno scenario che intreccia novità high-tech, normative che si aggiornano ed esigenze di protezione in continua evoluzione. Per decifrare la complessa situazione odierna abbiamo inter vistato William Nonnis, analista tecnico per la digitalizzazione e innova-

zione presso la Presidenza del Consiglio dei Ministri – Struttura di missione

Pnrr.

Quali sono le peculiarità del nostro Paese in materia di iniziative per la cybersicurezza?

Con l’approvazione della nuova legge sulla cybersecurity (Legge n. 90 del 28 giugno 2024), l’Italia compie un importante passo avanti nella protezione delle sue infrastrutture digitali e nella salvaguardia della privacy dei cittadini. Paesi come la Francia, che dedica circa 15 miliardi di euro all’anno a queste iniziative, lo stanno già facendo. Tuttavia, non basta stanziare fondi: è fondamentale che la classe dirigente adotti una visione strategica di lungo periodo. In Italia il Governo Meloni sta portando avanti una grossa rivoluzione nei confronti della cybersicurezza, e lo vediamo anche dal Pnrr, che dedica una parte significativa degli investimenti

proprio al rafforzare la resilienza del Paese contro le minacce informatiche. Questo è in linea con gli obiettivi dell’Unione Europea sulla trasformazione digitale, ma soprattutto con un cambio di paradigma obbligatorio. L’investimento di 620 milioni di euro dedicati alla sicurezza informatica è finalizzato a proteggere infrastrutture digitali e dati critici, migliorare la resilienza cibernetica, adottare tecnologie avanzate e allinearsi alle normative europee come la direttiva Nis2.

Le nuove norme europee, dal regolamento Dora (Digital Operational Resilience Act) per il settore finanziario alla direttiva Nis2, mirano a potenziare la sicurezza in tutto il sistema produttivo: che impatto avranno sulle aziendei?

Non sono particolarmente favorevole alle normative, perché spesso non è chiaro chi debba fare che cosa e in che modo.

Dora si concentra sulla resilienza digitale e sul monitoraggio dei fornitori esterni, mentre Nis2 introduce obblighi stringenti su notifiche di incidenti, gestione delle vulnerabilità e collaborazione con le autorità. Tuttavia, per applicare queste norme nelle piccole e medie imprese bisogna affrontare alcune sfide: servono investimenti economici, occorre comprendere il contesto aziendale e formare il personale su questi cambiamenti normativi e tecnici. In sintesi, adeguarsi alle nuove normative europee come Dora e Nis2 rappresenta una sfida importante per le Pmi, ma anche un’opportunità per rafforzare la loro resilienza digitale e competitività. Investire in mappatura dei processi, gestione dei rischi, formazione del personale e collaborazione con il settore è essenziale per garantire una sicurezza informatica solida e sostenibile. Con un approccio strutturato e una chiara definizione di ruoli e responsabilità, le imprese possono non solo rispettare i requisiti normativi, ma anche proteggersi meglio dai crescenti rischi legati al cybercrime.

Quali sono, nel concreto, le principali azioni da intraprendere?

Ne elenco alcune: mappare sistemi e processi critici, valutare i rischi di governance e responsabilità, proteggere e monitorare strumenti e sistemi di intrusione, pianificare la resilienza operativa, creare e testare piani per continuare le attività e recuperare velocemente in caso di incidenti e assicurarsi di avere backup regolari e affidabili. Ancora, collaborare con autorità e operatori del settore scambiandosi informazioni sulle minacce e partecipare a reti e iniziative permette di migliorare la risposta coordinata agli attacchi informatici. Formare il personale con corsi specifici sulla sicurezza informatica e la gestione degli incidenti aiuta a promuovere una cultura aziendale più consapevole e orientata alla sicurezza. Un tema

critico è la gestione del rischio legato alle terze parti, che le nuove norme indicano come una priorità da considerare. Come impatteranno questi requisiti? Le nuove norme avranno un impatto importante sulla gestione dei rischi legati ai fornitori. Anzitutto su quattro direttrici: in primo luogo, le aziende dovranno valutare e monitorare i fornitori controllando i rischi associati e verificando regolarmente che rispettino gli standard di sicurezza. Poi, dovranno definire responsabilità nei contratti inserendo clausole che chiariscano obblighi sulla sicurezza informatica e la resilienza. Ancora, rafforzare i controlli di sicurezza accertandosi che i fornitori adottino sistemi e politiche in linea con i requisiti normativi. Infine, preparare un piano per gli incidenti stabilendo strategie per gestire problemi causati da vulnerabilità dei fornitori. In breve, queste regole richiedono un approccio più organizzato e attivo, che aumenta la sicurezza ma anche la complessità della gestione.

L’intelligenza artificiale può potenziare la cybersicurezza di dati e infrastrutture. Quali sono però i punti critici e i rischi?

Anche sull’AI l’Italia sta facendo un grosso balzo in avanti, grazie ai fondi (anche se pochi, ma abbiamo dei limiti dati dal debito pubblico) e a una visione concreta di che cosa si debba fare con essa. L’obiettivo non è sostituire l’essere umano, ma far sì che possa governare queste tecnologie. Siamo di fronte a un potente strumento per migliorare la sicurezza informatica delle aziende, ma il cui utilizzo presenta alcuni rischi importanti.

Ci fa qualche esempio?

I modelli sono complessi e difficili da comprendere: gli algoritmi non sempre sono trasparenti e possono commettere errori a causa di dati sbagliati o poco rappresentativi, e questo rende difficile fidarsi completamente delle loro decisioni.

Poi c’è un tema di dipendenza dai dati, perché l’AI funziona bene solo con dati di qualità: se i dati sono vecchi o scorretti, le sue prestazioni calano. Inoltre, la gestione di dati sensibili può creare problemi di privacy. A questo si aggiungono gli attacchi contro l’AI, perché i cybercriminali possono ingannare i sistemi manipolando i dati di input o sfruttando vulnerabilità per estrarre informazioni sensibili. E c’è anche il rischio di un’eccessiva fiducia nell’AI: pensare che risolva tutti i problemi di sicurezza è un errore, servono comunque strumenti tradizionali e personale preparato per gestire le minacce più sofisticate. Ulteriori tre punti sono i costi elevati (implementare l’AI richiede investimenti notevoli in infrastrutture e personale specializzato, che la rendono poco accessibile alle piccole aziende), i problemi etici e legali (l’utilizzo deve rispettare regole e normative in continua evoluzione) e il fatto che anche i criminali informatici stiano usando l’AI per creare attacchi più complessi, come malware avanzati o phishing personalizzato.

Una tecnologia che garantisce sicurezza e trasparenza è la blockchain. Qual è lo stato di adozione in Italia? Parto con una premessa: conoscendo molto bene la tecnologia blockchain e avendola analizzata insieme a illustri colleghi e amici, come Eraldo Vaccargiu, presidente di EvoDigitale e BlockchainElite, come Marco Crotta, Giacomo Zucco e molti altri, ritengo che l’adozione di questa tecnologia diventerà inevitabile nel tempo. Grazie al principio di distribuzione e alla possibilità di governare autonomamente le proprie informazioni, la blockchain può e deve trasformare un paradigma tecnologico ormai obsoleto. Tuttavia, questa transizione è ostacolata da una cultura digitale ancora poco diffusa e profondamente radicata in tradizioni socioculturali, dove il digitale fatica a

trovare un dialogo efficace. In Italia l’uso della blockchain è ancora agli inizi, anche se ci sono progetti interessanti in settori come finanza, logistica, sanità e Pubblica Amministrazione. Questa tecnologia è più utilizzata nel settore bancario e assicurativo, dove i sistemi di registro distribuito (distributed ledger) stanno dimostrando di poter migliorare la trasparenza e la sicurezza. Tuttavia, in altri ambiti l’applicazione è ancora limitata a progetti sperimentali.

Quali sono i benefici dimostrati e quali i limiti a una maggiore diffusione?

Tra i vantaggi ci sono anzitutto sicurezza e trasparenza: la blockchain protegge i dati e li rende immutabili, riducendo il rischio di frodi o manipolazioni. A questo si aggiungono l’efficienza, poiché automatizza operazioni complesse e velocizza i processi grazie al supporto degli smart contract, e la tracciabilità, dato che aiuta a seguire il percorso dei prodotti nella filiera, aumentando la fiducia dei consumatori. E ancora la decentralizzazione, che riduce la necessità di intermediari, rendendo i processi più semplici ed economici. Il grosso ostacolo per la diffusione a oggi – e ripeto, a oggi – è sicuramente la resistenza

al cambiamento, in un contesto dove molte aziende preferiscono restare sulle soluzioni tradizionali, faticando a comprendere i vantaggi della blockchain. Soprattutto vedo una carenza di competenze: mancano professionisti esperti in materia, il che rallenta lo sviluppo di nuovi progetti, e molte aziende faticano ad adottare la blockchain non disponendo di competenze specifiche. Per favorire lo sviluppo di questa tecnologia in Italia, è essenziale superare barriere tecniche e culturali attraverso maggiore formazione, regole chiare e sensibilizzazione. Così, la blockchain potrebbe offrire benefici significativi in diversi settori.

La sicurezza informatica è anche una questione collettiva, sociale: quali vie possibili per sollecitare una più ampia attenzione a questi temi?

In Italia non si è ancora compreso il valore reale di un processo di cambiamento sociale, che viene solo ed esclusivamente dalla formazione, a prescindere dall’età. Siamo un Paese in cui si vuole creare e progettare per raccogliere dopo due minuti, ma la tecnologia non funziona così. E aggiungo che non è solo la tecnologia a non funzionare così, anche la nostra quotidianità andrebbe strutturata e valo-

rizzata diversamente. Queste tematiche dovrebbero essere insegnate dalla scuola elementare a quella superiore, come formazione base e obbligatoria per approcciare al meglio alla nostra quotidianità. E smettendo di mettere a punto piattaforme pubbliche e private di e-learning, che non funzioneranno mai poiché il cittadino anzitutto va guidato coinvolto, facendo capire perché debba seguire quella strada. Oggi, su queste tematiche, è come se le persone fossero nell’oceano e senza bussola, rischiando di continuare a vagare senza capire nemmeno dove si trovano. Infatti – come dice il dottor Eraldo Vaccargiu, che ho già citato –non chiamiamola più cybersecurity, ma life-security, perché queste tematiche ci limitano nella nostra quotidianità. La cybersecurity non riguarda solo esperti e tecnici, ma coinvolge chiunque utilizzi dispositivi digitali nella vita quotidiana.

Quali azioni concrete suggerisce?

Per aumentare la consapevolezza e promuovere comportamenti sicuri, credo ci siano alcune strategie utili. Primo, promuovere l’educazione alla sicurezza informatica attraverso campagne di sensibilizzazione e programmi scolastici, in tutti gli ordini e gradi, per diffondere buone pratiche e consapevolezza dei rischi digitali. Poi, creare applicazioni intuitive e utilizzare un linguaggio chiaro con esempi pratici aiuta a rendere la sicurezza informatica accessibile anche a chi non ha competenze tecniche. In terzo luogo, aziende e istituzioni possono promuovere la sicurezza informatica attraverso collaborazioni strategiche e normative che incentivino la formazione dei dipendenti. E infine la consapevolezza che bilanciare tecnologia e formazione significa investire nelle persone, offrire corsi aggiornati e monitorare i risultati per garantire un uso efficace delle risorse contro le minacce digitali. Gianluca Dotti

UNA GESTIONE INTEGRATA DEL RISCHIO

Una piattaforma efficace deve integrare più elementi, dal rilevamento delle minacce all’automazione, ai servizi gestiti Mdr (Managed Detection and Response).

Perché è sempre più importante adottare un approccio integrato alla gestione del rischio? Ne parliamo con Marco Rottigni, technical director di SentinelOne.

Come è cambiata la cybersicurezza negli ultimi anni?

Oggi, rispetto a qualche anno fa, la cybersecurity concorre alla definizione del rischio aziendale. Una corretta gestione del rischio parte da una sua misurazione e quindi dalla necessità di dotarsi di Kpi: le soluzioni di cybersecurity possono aiutare a costruire indicatori (come il Mean Time to Remediate o il Mean Time to React) che riflettono l’esposizione al rischio. Questa misurazione è fondamentale per capire quanto il rischio sia tollerabile e quando debbano essere intraprese azioni correttive. Oltre al Cvss (Common Vulnerability Scoring System) un indicatore molto interessante è l’Epss (Exploit Probability Scoring System), che aggiunge una dimensione temporale misurando la probabilità che l’exploit di una vulnerabilità sia in fase di studio o già sfruttato negli attacchi.

La datagovernanceoggi è un tema critico?

Con l’AI Act europeo ormai operativo, le aziende devono gestire i dati in modo conforme, evitando di cedere senza controllo informazioni sensibili. Il problema della corretta gestione dei dati è enorme: l’ampliamento continuo delle fonti di informazione porta a una varianza di dati che è difficile da governare. Sono sempre troppi: se non li normalizziamo e li rendiamo consumabili in modo omogeneo, ci sommergono. La datagovernance , oltre a essere correlata all’AI, è cruciale per garantire che i dati siano trattati in modo sicuro, rispettando privacy e normative. In cybersecurity siamo passati dai logmanageralle piattaforme Siem (Security Information and Event Management) e al loro completamento con il Soar (Security Orchestration, Automation, and Response) e oggi parliamo di datalake , ossia di piattaforme che uniscono i fattori di governo del dato con i fattori di automazione dei processi di interrogazione e normalizzazione del dato. I datalakesono lo stato dell’arte della tecnologia e proprio qui si dovrebbe innestare l’AI generativa per farla risiedere entro il perimetro dell’azienda, “istanziata” nello stesso ambiente in cui i suoi dati esistono.

Come si riflette una buona datagovernancenella cybersecurity?

Le piattaforme moderne di cybersecurity devono garantire una gestione

ottimale dei dati a tre livelli: privacy, operatività e performance. Una piattaforma dev’essere in grado di interrogare e normalizzare i dati provenienti da diverse superfici (cloud, endpoint, identità) in modo omogeneo, e oggi questo è possibile grazie a uno standard, l’Open Cybersecurity Schema Framework (Ocsf). Inoltre, per le performance, la piattaforma deve fornire risposte rapide, anche a query complesse, garantendo così la possibilità di interventi tempestivi.

Quanto è importante poter mettere a fattore comune securityautomation, rilevamento e risposta agli incidenti, AI e intelligence sulle minacce?

Security automation , Mdr (Managed Detection & Response), AI e threat intelligencesono oggi quattro temi estremamente interconnessi: una piattaforma cyber deve implementare tutto insieme, in modo da poter gestire bene i dati dal punto di vista di privacy, operatività e performance. E in modo, anche, da potervi innestare la GenAI ed eventualmente un servizio gestito Mdr, con l’aggiunta delle preziose informazioni di threatintelligence (in modo da prioritizzare gli allarmi). La securityautomationè fondamentale per risolvere questa complessità e oggi, rispetto al passato, è anche più accessibile, tramite ad esempio un approccio no-code

Marco Rottigni

UN MONDO DI MINACCE IN EVOLUZIONE

Dagli abusi della GenAI alle applicazioni SaaS, dalle frodi basate su cryptovalute agli attacchi

ransomware: le tendenze e previsioni dei ricercatori.

Come sta cambiando il crimine informatico? L’Insikt Group è il gruppo di ricerca e analisi di Recorded Future che si occupa di studiare e monitorare tattiche, tecniche e procedure dei gruppi criminali informatici. Ecco i principali fenomeni osservati lo scorso anno e le tendenze attese per il 2025.

Resoconto 2024

I gruppi di estorsione proliferano

Nonostante i significativi sforzi globali delle forze dell’ordine contro gruppi ransomware come LockBit e Alphv, i criminali informatici hanno dimostrato capacità di adattarsi e prosperare, riorganizzandosi in gruppi più piccoli e indipendenti, sfruttando builder di malware trapelati dai gruppi più noti. Nella prima metà del 2024 i pagamenti di ransomware avevano già raggiunto i 459,8 milioni di dollari.

Il SaaS e credenziali

Le organizzazioni usano decine se non centinaia di applicazioni Software as-a-Service (SaaS), ciascuna delle quali richiede delle credenziali di accesso. Questo causa una forte dipendenza delle aziende al modello SaaS, che ha presentato per i threat actor maggiori opportunità sfruttando credenziali rubate o esposte.

L’escalation delle operazioni State-sponsored I threat actor State-sponsored, inclusi quelli legati a Cina, Russia e Iran, hanno intensificato le attività nel 2024. Questi soggetti hanno preso di mira infrastrutture critiche e sfruttato l’intelligenza artificiale generativa per diffondere contenuti inautentici influenzando l’opinione pubblica in vista di appuntamenti elettorali.

Minacce sempre più sfuggenti

Abbiamo rilevato un aumento di malware rivolto a sistemi macOS e Linux. Tool come come RustDoor e Amos sfruttano funzionalità multipiattaforma per diffondere payload sofisticati. Inoltre abbiamo rilevato gruppi ransomware indirizzarsi verso hypervisor come Vmware ESXi, che stanno alla base di grandi infrastrutture cloud. Tecniche di evasione come reflective code loading e l’abuso di strumenti di monitoraggio remoto sono sempre più usate al fine di evadere i controlli tradizionali (per esempio EDR).

Previsioni 2025

La falsificazione dell’identità minaccia il SaaS

L’Insikt Group di Recorded Future prevede un aumento di esposizioni a ri-

schi causata dalla crescente adozione della GenAI nei flussi di lavoro aziendali, inoltre si prevede un aumento dall’abuso dell’AI per un’efficace “impersonificazione”. In entrambi i casi, è probabile che le app SaaS giochino un ruolo nell’accesso iniziale o nell’esposizione dei dati.

Attacchi APT colpiranno nuovi settori

Nel 2025 ci saranno ulteriori violazioni di alto profilo delle infrastrutture critiche occidentali da parte di gruppi APT (Advanced Persistent Threat) legati alla Cina, che si espanderanno oltre i settori dell’energia e delle telecomunicazioni. Queste violazioni probabilmente serviranno per ottenere un “preposizionamento” in vista di potenziali operazioni dirompenti. Dispositivi mobili e macOS nel mirino

Insikt Group prevede che gli incidenti informatici di alto impatto del 2025 saranno probabilmente associati a malware per macOS o smartphone. Ciò deriverà da alcuni fattori ambientali, come una maggiore attenzione ai bersagli macOS e un maggiore accesso a dati aziendali e finanziari sensibili tramite dispositivi mobili.

Una frode crypto destabilizzerà il mercato

Il valore crescente delle criptovalute, unito alla nuova amministrazione statunitense pronta a perseguire politiche favorevoli a questi strumenti, determinerà tentativi di frode più aggressivi e ambiziosi. Il boom delle criptovalute incoraggerà i cybercriminali a realizzare truffe che destabilizzeranno il mercato e che, almeno temporaneamente, ridurranno il valore delle criptovalute stesse e porteranno a richieste di limitarne l’uso.

Massimiliano Brugnoli

VERSO UN APPROCCIO “RISK-BASED”

La conformità alle normative europee e i pericoli legati alla supply chain richiedono alle aziende di definire nuovi metodi e responsabilità.

Le nuove norme europee, come il regolamento Dora e la direttiva Nis2, richiedono nelle aziende, sempre di più, un approccio integrato alla gestione del rischio cyber. Ne parliamo con Renato Bloise, chief operating officer di Cybersel.

Quali sono gli impatti di Dora e Nis2 sulla gestione del rischio cyber?

L’introduzione delle nuove normative porta a una gestione più integrata dei rischi, sia quelli classici interni all’Ict sia quelli esterni legati alle terze parti. Questo impatta fortemente sui ruoli di chief information security officer (Ciso) e chief risk officer (Cro), che diventano sempre più sinergici: se in passato i primi avevano il compito di lavorare sulla protezione dai rischi individuati dagli altri, ora queste figure sono chiamate a collaborare. Non è un caso che, secondo alcune norme di Banca d’Italia, la governance della sicurezza possa essere una sottostruttura del rischio. La gestione dei rischi diventa più trasversale e riguarda più funzioni come, ad esempio, il procurement . Diventa, quindi, sempre più importante adottare una piattaforma che consenta l’interscambio di più ruoli aziendali.

Come sta evolvendo la governance? Come cambiano i ruoli e quali competenze, tecnologie e processi servono a mitigare i rischi e a supportare l’innovazione?

Il cambiamento porta alla necessità di dotarsi di indicatori di rischio il più possibile oggettivi e, soprattutto, a utilizzare piattaforme in grado di mettere a fattor comune le informazioni tra i diversi ruoli in modo evoluto ed efficiente. Le piattaforme sono molteplici: quelle legate alla postura di sicurezza delle terze parti, alla cybersecurity interna, ai risultati di una Breach & Attack Simulation (Bas), durante la quale le misure di difesa sono messe sotto stress per verificare eventuali criticità. Se prima queste attività facevano capo al Ciso, oggi anche il Cro è chiamato a misurare il livello di rischio cyber e la stessa informazione, tramite opportuni KRI (Key Risk Indicator), va inserita nel reporting al vertice. Inoltre, serve una visione costantemente aggiornata perché il rischio è in continua evoluzione, sia dal punto di vista delle minacce sia a livello di contromisure messe in atto.

Come mitigare il rischio legato alle terze parti, anche considerando i requisiti delle nuove norme entrate in vigore, come Dora?

Queste norme non riguardano solo le terze parti, sebbene vi sia un focus importante sulla supply chain. Buona parte delle informazioni per analizzare il rischio può essere di natura oggettiva (derivare cioè da indicatori specifici) ma vi sono informazioni che le aziende sono obbligate a raccogliere o verificare tramite apposite liste di controllo, richieste specifiche sulle azioni e le attività di rimedio poste in essere per mitigare i rischi di sicurezza. Bisogna quindi disporre di una metodologia o sistema di collaborazione funzionale alla gestione della propria supply chain, per mettere in atto gli obblighi normativi richiesti dal regolatore. Ci si deve quindi dotare di strumenti a supporto per la gestione dei rischi, strumenti che devono necessariamente prevedere l’utilizzo di dati e fonti esterne per la loro valutazione, oltre a un sistema di workflowper la gestione dell’interazione con i fornitori. L’ideale è che la piattaforma sia anche capace di gestire tutti i tipi di rischio interno. A questo proposito, Cybersel ha selezionato una piattaforma nata e sviluppata proprio per questo tipo di esigenze, ProcessUnity. La tecnologia è senza dubbio uno strumento di supporto importante, ma le competenze e le capacità nell’offrire un servizio completo sono il giusto complemento per ottenere un risultato ottimale nell’approccio integrato al rischio.

Renato Bloise

CON LA NIS2 SI APRE UNA NUOVA ERA

Dall’inventario degli asset alla gestione degli incidenti: la direttiva europea richiede alle aziende di cambiare le vecchie abitudini.

Di fronte ad attacchi informatici sempre più numerosi e sofisticati, non stupisce che la cybersicurezza sia diventata una priorità per aziende e istituzioni di tutto il mondo. L’Unione Europea ha risposto con la direttiva NIS2, che fissa nuovi standard per la protezione delle infrastrutture digitali in vari settori, tra cui telecomunicazioni, trasporti, salute e servizi Ict. La direttiva obbliga i soggetti interessati a una valutazione delle possibili minacce e delle proprie vulnerabilità, per poter adottare misure di protezione adeguate.

L’analisi del rischio

L’analisi del rischio dovrebbe essere un processo continuo e non un’attività una tantum Per prepararsi ad affrontare minacce in costante evoluzione sono richiesti un approccio flessibile e strategie di sicurezza flessibili. La chiave è identificare i più importanti asset su cui si regge l’azienda: può trattarsi di beni materiali e immateriali, dall’hardware ai dati. Un inventario accurato e sempre aggiornato di questi asset rappresenta il punto di partenza per implementare un sistema di sicurezza integrato.

La gestione proattiva degli incidenti

La NIS2 rende obbligatoria la tempestiva e accurata notifica degli incidenti informatici gravi, che vanno comunicati alle autorità competenti. In base a ciò, le aziende devono non solo potenziare la vigilanza ma anche predisporre meccanismi di analisi e documentazione dell’incidente. Il punto di svolta per un’efficace gestione degli incidenti è proprio la documentazione sistematica di tutti gli episodi: un metodo di questo tipo permette di tracciare gli eventi e anche di capire l’efficacia delle azioni correttive. Una dettagliata analisi post-incidente, inoltre, è utile per identificare le vulnerabilità e migliorare le procedure. La documentazione e l’analisi degli incidenti dovrebbero diventare parte integrante della strategia di sicurezza aziendale, coinvolgendo il personale IT e anche i manager.

Il supporto della tecnologia

Di fronte alle sfide della NIS2, le aziende possono contare sul supporto di soluzioni tecnologiche avanzate come quelle di Axence, società polacca specializzata in strumenti di monitoraggio e gestione delle infrastrutture IT, appena entrata sul mercato italiano. Con funzionalità avanzate di monitoraggio e gestione, nVision consente un’efficace vigilanza su dispositivi e risorse critiche di una rete, fatto essenziale per la conformità ai nuovi stan-

dard. Il sistema permette verifiche accurate sulle configurazioni hardware e software e, inoltre, monitora il carico dei dispositivi e identifica anomalie indicative di minacce come attacchi DDoS. Nella gestione degli incidenti nVision offre avanzate funzionalità di registrazione e categorizzazione delle richieste, consentendo un’efficace risposta e documentazione. Associato alla capacità di monitorare le attività degli utenti, questo strumento permette una gestione della cybersicurezza efficace e coerente. Inoltre nVision può gestire i processi dei dispositivi removibili, la crittografia e l’analisi delle operazioni sui file, elementi chiave per proteggersi dagli accessi non autorizzati e dai malware.

Un nuovo livello di cybersicurezza

“La direttiva NIS2 pone nuove sfide per le aziende italiane, ma allo stesso tempo dischiude la possibilità di portare la cybersicurezza su un livello più alto”, ha detto Piotr Wrona, head of international partner channel di Axence. “In questo, gli investimenti in tecnologia, lo sviluppo di competenze e la creazione di una cultura della sicurezza sono cruciali”. Mettere in pratica la NIS2 è un processo difficile ma anche necessario di fronte alla crescente minaccia del cybercrimine. Anche l’Italia deve affrontare la sfida per garantire sicurezza e stabilità alle sue infrastrutture e all’intera sua economia.

Per saperne di più: axence.net/it

Piotr Wrona

WASHINGTON E LA SILICON VALLEY

MAI COSÌ VICINE... E L’EUROPA?

Il 2025 si è aperto all’insegna di intrecci sempre più stretti tra politica, geopolitica e tecnologia. L’AI, ovviamente, è in primo piano.

Di intelligenza artificiale si parla ovunque e in ogni contesto da almeno un paio d’anni a questa parte (se ne parlava anche prima, ma non in modo così pervasivo). In quest’inizio di 2025, sempre di più, il tema è al centro delle sfide geopolitiche che si stanno delineando a livello globale. Appena insediatosi alla Casa Bianca per il suo secondo mandato, Donald Trump ha radunato attorno a sé i top manager di aziende come Oracle , OpenAI e Softbank per lanciare un piano di investimenti da 500 miliardi di dollari, destinato a coagularsi sulla nuova entità Stargate (joint-venture tra OpenAI e Softbank) e teso al potenziamento dell’infrastruttura americana dedicata all’intelligenza artificiale. Al di là del classico annuncio a effetto, occorrerà vedere se le premesse saranno rispettate e come le ripercussioni potenzialmente positive (per esempio l’attesa di creazione di 100mila nuovi posti di lavoro negli Usa) si bilanceranno con quelle più controverse (reperimento degli ingenti fondi, impatto sull’ambiente).

Tuttavia, è ormai evidente che sull’AI si stiano costruendo il futuro dell’industria mondiale e la sfida geopolitica fra le grandi potenze globali, Cina e Stati Uniti in particolare. Infatti, a breve distanza dal lancio del progetto Stargate, è arrivata la risposta dell’Unione Europea. Al “Summit for Action on Artificial Intelli-

gence” di Parigi è stato annunciato un piano da 200 miliardi di euro teso a rafforzare la posizione del Vecchio Continente nel settore dell’AI, puntando su innovazione, cooperazione e infrastrutture avanzate. La Commissione Europea stanzierà 50 miliardi di euro, mentre 150 miliardi arriveranno da oltre 60 aziende nell’ambito della EU AI Champions Initiative, un’alleanza pubblico-privata per il progresso dell’AI. Nessuna di queste, va notato, è italiana. Ed è segno di una debolezza endemica e probabilmente incolmabile, se pensiamo che, in contemporanea, il presidente francese Emmanuel Macron ha annunciato un piano di investimenti da 109 miliardi di euro (per metà provenienti dagli Emirati Arabi Uniti) per la

costruzione di infrastrutture dedicate all’intelligenza artificiale in Francia. Ecco, appunto, qui sta il punto centrale della contesa che si sta delineando a livello geopolitico. Se in termini finanziari siamo di fronte a una svolta rispetto a investimenti fin qui irrisori per le esigenze del settore, non si può fare a meno di notare come la Francia abbia sentito l’esigenza di muoversi in proprio, mentre l’Italia sia assente dai tavoli che contano e il Regno Unito (peraltro fuori dall’Ue) non abbia firmato nemmeno la dichiarazione volta a promuovere un’intelligenza artificiale “aperta, inclusiva ed etica” proposta in chiusura del Summit di Parigi (anche gli Usa si sono astenuti, ma non c’è da sorprendersi).

Oggi l’Europa ospita solo il 18% dei data center attivi nel mondo. Per gli operatori europei dell’intelligenza artificiale, questa mancanza di accesso alla potenza di calcolo rappresenta già un ostacolo, anche perché dei pochi data center presenti meno del 5% appartiene ad aziende del Vecchio Continente. Il restante 95% è gestito da giganti americani come Aws, Google e Microsoft , che offrono alle aziende soluzioni cloud “chiavi in mano”, sottoposte alla giurisdizione statunitense.

Siamo dunque a un bivio. In assenza di una politica industriale europea coordinata, questi futuri data center potrebbero avere come unico effetto quello di consentire a potenze straniere di delocalizzare parte della loro filiera produttiva nei nostri territori. Un quadro abbastanza classico – poco lusinghiero per l’Europa – dell’equilibrio di potere nell’economia globalizzata tra dominanti e dominati.

Roberto Bonino

Immagine di Freepik

AI, CLOUD, SOSTENIBILITÀ: TERZETTO INSCINDIBILE

La corsa all’intelligenza artificiale deve combinarsi all’efficienza: la visione di Hpe.

L’intelligenza artificiale è il volano di crescita, obbligato, delle aziende. Per i Paesi e i continenti, oltre che sull’AI è necessario anche scommettere (e quindi investire) sull’innovazione di frontiera, come quella del supercalcolo. Se questi sono i motori della crescita economica, le fondamenta sono le infrastrutture, cioè data center e reti, che devono essere sufficientemente potenti ma anche sostenibili. Questa in sintesi è la visione di Hpe , racchiusa negli ultimi annunci di prodotto e di alleanze. “Siamo all’inizio di un’epoca in cui esistono molti dati e le aziende cominciano a estrarne valore, anche grazie ad algoritmi sempre più complessi”, ha detto Claudio Bassoli, presidente e amministratore delegato della filiale italiana, incontrando la stampa di settore. “Questo rappresenta ovviamente una sfida di performance, sostenibilità, efficienza energetica ed efficacia”.

Come noto, il settore dei data center è un forte espansione e con esso la sua impronta carbonica, quindi è necessario agire su più fronti: l’uso delle rinnovabili, l’efficienza dei server, i sistemi di raffreddamento. Hpe vanta oltre 300 brevetti nell’ambito del liquid cooling e oggi sta puntando, in particolare, sul raffreddamento a liquido diretto fanless (che impiega fino al 90% di energia in meno rispetto ai sistemi di raffreddamento ad aria, dimezza il consumo legato alla connettività di rete e occupa metà dello spazio). “Uno dei nostri obiettivi, oltre ad arrivare al net zero come azienda nei prossimi cinque anni, è contribuire in termini di impatto sul mercato con soluzioni energeticamente più efficienti", ha detto l’AD italiano. Questa è

un’evoluzione obbligata, ha sottolineato, perché senza controbilanciare la potenza di calcolo con l’efficienza si arriverebbe alla situazione paradossale di non poter usare le future macchine sempre più potenti.

Hpe non è però solo un vendor ma anche un ambasciatore dell’intelligenza artificiale: da anni l’azienda usa queste tecnologie al proprio interno, per la manutenzione predittiva delle reti e non solo. “In un decennio siamo riusciti a ridurre i guasti del 70%”, ha raccontato Bassoli. “Poi abbiamo iniziato a usare l’AI per lo sviluppo software interno e per ridurre i costi di gestione delle informazioni. Ultimamente, poi, non facciamo annunci di novità che non includano in una

qualche forma l’intelligenza artificiale”. Il cloud ibrido di Greenlake resta il pilastro della strategia tecnologica e commerciale di Hpe, ma l’azienda punta anche sulle infrastrutture che possono funzionare offline, consentendo di rispettare preferenze o in molti casi obblighi di compliance (ne sono esempio le offerte Private Cloud Enterprise Disconnected e Alletra Storage MP Disconnected, di recente lancio). “Da un lato ci sono le infrastrutture tradizionali di calcolo, storage e networking, dall’altro c’è il cloud pubblico”, ha detto Bassoli. “Nella nostra visione c’è anche una terza via, rappresentata da Greenlake, che negli ultimi anni si è ampliata sia dal punto di vista dell’offerta sia di presenza sul mercato”. Pur senza fare numeri, Bassoli ha ammesso che in Italia “stiamo crescendo molto con Greenlake, ma potremmo crescere molto di più”. Come? Servirebbero due fattori di spinta, complementari tra loro. Il primo sono gli investimenti in infrastrutture digitali, che crescono ma forse non abbastanza. Il secondo è la cultura della trasformazione digitale, da cui possano nascere nuove applicazioni e modelli di business.

Hpe anche in Italia sta lavorando con Deloitte soprattutto (ma anche con altri system integrator) per realizzare progetti di intelligenza artificiale customizzati nelle grandi aziende, mentre per il target delle Pmi collabora con una rosa di startup con soluzioni di AI specifiche o verticali in catalogo. Insieme a Nvidia, invece, Hpe propone una soluzione co-ingegnerizzata e preconfigurata per l’addestramento e l’affinamento di modelli di AI.

Valentina Bernocco

Claudio Bassoli

l’opinione

OOO

SENZA DATI, LA GUIDA AUTONOMA È FERMA ALLO “STOP”

Le mappe stradali ad alta risoluzione, sempre aggiornate, sono essenziali per i sistemi self-driving. L’esempio della Provincia di Brescia.

L’intelligenza artificiale sta trasformando il modo in cui viviamo e ci muoviamo nelle città. Tra le innovazioni più dibattute in questo campo, la guida autonoma e la mappatura stradale avanzata, necessaria al suo sviluppo, hanno il potenziale di offrire soluzioni per problemi cronici come congestione, inquinamento e accessibilità. Tuttavia, per realizzare questa visione, occorre affrontare sfide significative, sia tecnologiche sia legislative.

Le mappe stradali ad alta risoluzione sono fondamentali per il funzionamento dei veicoli a guida autonoma. Queste mappe 3D, combinate con sensori, lidar (laser scanner) e telecamere, consentono ai veicoli di analizzare accuratamente in tempo reale l’ambiente circostante, identificando segnali stradali, ostacoli, condizioni metereologiche e persino dettagli del manto stradale. Tuttavia, creare e mantenere mappe di questo tipo può risultare complesso, soprattutto in

Europa, dove la frammentazione delle infrastrutture e la presenza di strade storiche rendono il processo particolarmente oneroso.

Una soluzione innovativa potrebbe derivare dall’utilizzo di flotte pubbliche già in circolazione, come autobus o camion della nettezza urbana, per raccogliere dati stradali in modo capillare e ridurre i costi di mappatura. Un esempio concreto è dato dalla Provincia di Brescia, dove veicoli della Pubblica Amministrazione equipaggiati con sensori vengono impiegati per monitorare le condizioni delle strade, migliorando la manutenzione e riducendo i costi operativi. Questo modello, facilmente replicabile e integrabile con progetti di smart mobility, potrà essere impiegato in futuro anche per mantenere sempre aggiornate le mappe stradali necessarie per la circolazione dei veicoli a guida autonoma.

In questo contesto l’intelligenza artificiale offre strumenti avanzati per migliorare l’accuratezza e l’efficienza della mappatura: grazie alla capacità di analizzare enormi quantità di dati in tempo reale, l’AI può essere utilizzata per aggiornare le mappe con informazioni su nuovi percorsi, cambiamenti infrastrutturali o condizioni stradali. Rispetto ad altre tecnologie già in uso, come i tradizionali sistemi Gps o i software di mappatura manuale, l’AI comporta vantaggi cruciali: una maggiore precisione, analisi predittive, riduzione degli errori di mappatura, gestione del traffico in tempo reale e supporto alla pianificazione urbana.

Presente e futuro del self-driving

Negli ultimi anni, la guida autonoma ha fatto passi da gigante. Aziende come Waymo e Baidu hanno già implementato servizi di robotaxi a Phoenix e Shenzhen, mentre in Europa la sperimentazione è più lenta proprio a causa delle caratteristiche urbane e della regolamentazione frammentata. Sebbene la tecnologia di guida autonoma sia avanzata, il suo utilizzo è ancora limitato a contesti controllati, come arterie stradali ben segnalate o aree suburbane poco trafficate. In aggiunta a strade poco uniformi e moderne, nel Vecchio Continente le prospettive future per la guida autonoma dipendono dall’evoluzione normativa: manca ancora un quadro giuridico uniforme per consentire la circolazio-

Igor Valandro

IL DRIVERLESS È SOLO LA META

Il viaggio dell’automobile (o altro veicolo) a guida autonoma è cominciato da tempo, ma ancora non è giunto alla sua destinazione finale. Per arrivare alla piena realizzazione del concetto di self-driving, e quindi al massimo grado di autonomia del sistema di guida, c’è ancora un po’ di strada da fare sia dal punto di vista delle tecnologie sia della regolamentazione sia, soprattutto, della sicurezza. Basti pensare ai piedi di piombo (o ruote di piombo, se vogliamo) con cui si sta muovendo Apple: a Cupertino il progetto di sviluppo di una automobile elettrica driverless, inizialmente battezzato Project Titan, si parla da un decennio, ma tra cambi di direzione, licenziamenti e rilanci dell’iniziativa a oggi, finora, non si è visto nulla. In ogni caso per il mercato dei veicoli autonomi, inclusivo di hardware, software e servizi, ci sono previsioni di crescita sostanziosa: secondo Allied Market Research, per esempio, il giro d’affari mondiale sfiorerà i 135 miliardi di euro nel 2030, per salire oltre i 980 miliardi nel decennio successivo.

Dal punto di vista tecnologico, i fattori di spinta saranno le innovazioni fatte nel campo dei sensori, della connettività di rete, della computer vision e, naturalmente, dell’intelligenza artificiale. Il mercato si svilupperà anche perché ci sarà una reale e crescente domanda di soluzioni per il trasporto personale (non necessariamente di proprietà individuale) più sicure ed efficienti, capaci di ridurre il rischio di incidenti e le morti su strada ma anche le emissioni di gas serra (almeno quelle legate all’uso dei veicoli, perché sulla produzione e sullo smaltimento di batterie elettriche ci sono, al momento, questioni aperte). Non mancano ostacoli sul percorso, e in particolare gli analisti sottolineano l’assenza di standard tecnologici e la frammentazione legislativa, oltre a preoccupazioni sull’efficacia e sulla sicurezza di una guida che dovrà fare a meno di volante e pedale del freno anche i contesti “difficili”, come traffico cittadino e avversità meteo. In una scala di autonomia che va da uno a cinque, si sta consolidando l’affermazione dei veicoli di “livello 2”, cioè dotati di sistemi avanzati di assistenza alla guida (Adas), e avanza quella del “livello 3”, in cui la guida diventa autonoma in determinate circostanze ma è ancora richiesta l’attenzione vigile di chi siede al volante, anche se non lo sta usando. Non siamo ancora al “livello 4”, quando si potrà anche (ansia permettendo) schiacciare un pisolino mentre la vettura dotata di elevata autonomia procede da sola. E siamo ancor più lontani dal “livello 5”, quello di veicoli totalmente autonomi in qualsiasi circostanza e fondo stradale, dove pedali e volanti potranno scomparire del tutto. Oggi come oggi, tra i principali player del mercato ci sono alcune grandi case automobilistiche come Tesla, General Motors, Hyundai, Toyota, Renault, AB Volvo. Ma figurano anche società nate con l’idea di sviluppare veicoli a guida autonoma come Waymo, uno spin-off di Google, e come Aurora Innovation, ex divisione di Uber, oltre naturalmente alla stessa Uber, focalizzata sul business dei robotaxi.

ne su larga scala di veicoli autonomi. Nonostante le difficoltà, il potenziale della guida autonoma resta enorme. Le sue applicazioni nel trasporto pubblico potrebbero rivoluzionare la mobilità urbana, riducendo i costi operativi, migliorando la sicurezza (gli errori umani sono responsabili del 90% degli incidenti stradali) e aumentando l’accessibilità, offrendo soluzioni anche per le persone con disabilità o residenti in aree remote. Nel trasporto di massa i veicoli a guida autonoma potrebbero, ad esempio,

rappresentare la cerniera che connette zone rurali a snodi di trasporto e hub cittadini. Questo approccio multimodale è la chiave per creare un ecosistema di mobilità sostenibile e inclusivo.

Una collaborazione necessaria Per realizzare il pieno potenziale dell’AI nei trasporti, è indispensabile una stretta collaborazione tra settore pubblico e privato. Mentre le aziende tecnologiche possono fornire strumenti innovativi per la raccolta e l’analisi dei dati, le amministrazio-

ni pubbliche hanno la possibilità di mettere a disposizione infrastrutture e risorse per sperimentazioni su larga scala. Investimenti in mappe stradali dinamiche, flotte pubbliche utilizzate per la raccolta dei dati, collaborazione tra pubblico e privato e sviluppo di un quadro normativo chiaro: sono elementi fondamentali per costruire un ecosistema di mobilità intelligente in grado di rispondere alle esigenze delle città del domani.

Igor Valandro, Ceo di Air-Connected Mobility

V.B.

IL VALORE DI SERVIZI E PARTNER

CONTRO I “VAMPIRI” DELL’UCC

Wildix aggiorna la propria offerta di Unified Communication & Collaboration e il programma rivolto al canale.

In un mercato nel quale anche le soluzioni di Unified Communication & Collaboration (Ucc) sono ormai diventate una commodity, non sono più i prodotti a fare la differenza, ma i servizi e la capacità di comprendere a fondo le necessità della clientela. Secondo Wildix, questo è il lavoro primario che spetta ai propri partner globali per superare quella concorrenza che l’amministratore delegato dell’aziende, Steve Osler, ha definito come “vampiresca”. “Operiamo in un comparto dove certi big, Microsoft in testa, stanno dettando le regole e non si possono affrontare a suon di sconti”, ha detto il Ceo in occasione dell’evento “Uc&C Summit” dello scorso gennaio. “Dobbiamo lavorare insieme alla nostra rete per generare valore con i servizi e preservare una clientela che, altrimenti, viene presa di mira da competitor che usano armi difficili da contrastare”. In

occasione del summit, pertanto, il vendor di origine italiana ha lanciato Sales Elevate Lab, un programma costruito su formazione avanzata e strumenti dedicati, per rafforzare il legame con un canale che, nel caso di Wildix, è responsabile del 100% della generazione di business. “Si tratta di un laboratorio interattivo, pensato per fornire strumenti pratici e strategie innovative a supporto del lavoro dei partner”, ha precisato Alberto Benigno, chief sales officer di Wildix. “Il nostro obiettivo è aiutare i professionisti delle vendite a diventare partner strategici per i loro clienti, sfruttando appieno il potenziale delle nostre soluzioni”.

A sostegno dell’iniziativa, è stato messo a disposizione un fondo da un milione di euro per consentire agli operatori di canale di concretizzare transazioni a forte impatto. A ciò si affianca un nuovo Seles Engineering Team, incaricato di suppor-

tare con competenza tecnica la gestione delle opportunità complesse. Tutte queste iniziative sono sostenute da “miglioramenti significativi negli strumenti resi disponibili sulla Salesforce Partner Community per noi di riferimento, soprattutto in direzione dell’ottimizzazione dei workflow e della fornitura di analisi sfruttabili per raggiungere più consistenti performance commerciali”, ha indicato Osler.

Poiché, tuttavia, c’è pur sempre la tecnologia alla base di ogni offerta poi da arricchire con servizi e consulenza, Wildix ha approfittato del proprio evento annuale anche per puntare i riflettori su Wms 7, piattaforma progettata soprattutto per “rispondere ai problemi legati alla frammentazione dei sistemi presenti nelle aziende e alle crescenti minacce in termini di sicurezza”, ha illustrato Dimitri Osler, Cto di Wildix. Nella nuova versione del prodotto, sono integrati la trascrizione in tempo reale delle interazioni, strumenti per ricavare sintesi intelligenti e un motore conversazionale (chat engine) in cui l’intelligenza artificiale ha, oggi, un peso più rilevante. Wildix ha, inoltre, annunciato che la piattaforma x-bees, basata sull’intelligenza artificiale e integrata con Salesforce, sarà oggetto di un aggiornamento importante, che includerà funzioni di intelligence avanzata sulle vendite, analisi del sentiment in tempo reale, assistenza alle chiamate e reporting dettagliato. Aggiornata anche la soluzione x-hoppers, con capacità di rilevamento dei furti basato su AI, gestione delle linee e avvisi di sicurezza. Qui Wildix è già in grado di portare esperienze concrete a supporto, come quella di House of Spells a Londra: nel negozio dedicato all’universo del fantasy i tentativi di furto sono scesi da una media di quattro a uno a settimana.

Roberto Bonino

Dimitri e Steve Osler

l’opinione

SARÀ L’ANNO DI AGENTI, ROBOT E DATA CENTER

Si parlerà ancora molto di AI, con nuove sfumature, e della la questione energetica.

Il 2025 si preannuncia come un anno di svolta per l’innovazione tecnologica, trainata da tre tendenze chiave e con l’accelerazione di cambiamenti già in atto.La domanda di sistemi di elaborazione sempre più efficienti aumenterà vertiginosamente, alimentata dalle esigenze energivore dell’AI e dalla crescente attenzione per la sostenibilità. I responsabili IT devono affrontare una crescente pressione per ridurre sia l’impronta di carbonio sia i costi energetici, non solo per rispettare le normative Esg ma anche per rispondere alle richieste di clienti e investitori. Nel 2025 e negli anni seguenti, le aziende adotteranno sistemi di elaborazione a basso impatto ambientale e perseguiranno l’obiettivo con azioni a breve termine, come l’adozione di hardware più efficiente, o con strategie a lungo termine basate su tecnologie innovative. Massimizzare l’efficienza dell’hardware esistente è essenziale, in particolare attraverso l’ottimizzazione degli algoritmi. Ma bisogna anche considerare la necessità di sostituire sistemi obsoleti ed energivori con alternative moderne ed efficienti. La misurazione accurata delle emissioni dell’IT è fondamentale e richiede investimenti in strumenti di tracciamento per individuare le inefficienze in sistemi o applicazioni. Nei data center, la tecnologia di raffreddamento a liquido ha tassi di adozione sempre più veloci: questo cambiamento è guidato dal crescente utilizzo di Gpu e Cpu ad alta intensità energetica, dall’aumento della densità di potenza dei server e dalla diminuzione delle tem-

perature operative di sicurezza dei chip. Le tecnologie di raffreddamento ad aria si sono rivelate poco efficienti, mentre l’alternativa a liquido offre prestazioni superiori sia a livello di dispositivo (nel server) sia per nel raffreddamento perimetrale, e ciò consente di gestire il calore nell’intero data center.

L’AI nel 2025 diventerà sempre più cruciale per le aziende, grazie all’introduzione di agenti di AI, cioè software orientati agli obiettivi in grado di completare le attività e raggiungere gli scopi assegnati in modo indipendente. Non hanno bisogno di istruzioni specifiche tramite prompt e non producono output predeterminati, ma ricevono istruzioni, formulano un piano dettagliato e raggiungono il proprio obiettivo. Gli analisti prevedono un’adozione rapida e si stima che entro il 2028 un terzo delle soluzioni software aziendali integrerà la cosiddetta Agentic AI, rispetto all’1% dello scorso anno. Gli agenti di AI daranno supporto in settori come il servizio clienti, mentre i machine customers (sistemi con capacità di acqui-

sto autonome) automatizzeranno l’acquisto e la vendita all’interno delle aziende. Oggi gli agenti sono in grado di eseguire solo compiti specifici in condizioni definite, ma le barriere allo sviluppo di questa tecnologia si stanno abbassando grazie al no-code e alla disponibilità di framework e strumenti “agentici”. Nelle aziende si prevede prevarranno approcci alle piattaforme di Agentic AI private ondevice e on-premise, perché garantiscono una migliore governance, gestione e integrazione nelle applicazioni aziendali. Quest’anno vedremo in vari settori la comparsa di robot polifunzionali, abbastanza flessibili da saper apprendere nuove attività non già previste dalla loro programmazione originale. Per esempio, i robot per il controllo qualità potrebbero saper passare dall’ispezione di una catena di montaggio alla verifica dell’assenza di detriti nell’ambiente di lavoro. Oggi ci sono quattro milioni di robot monofunzione operativi nell’industria, che riducono i costi e aumentano l’efficienza. Adottando sistemi polifunzionali, però, si possono però aumentare i vantaggi e e avere un più rapido ritorno sull’investimento. Questi robot avranno fattori di forma adattabili e software più intelligenti che consentiranno loro di svolgere più attività. Saranno, inoltre, costruiti per lavorare a fianco degli esseri umani, anziché operare in spazi delimitati o gabbie per motivi di sicurezza. L’adozione è stata finora lenta, ma accelererà nei prossimi 24 mesi grazie a implementazioni semplificate, che non richiedono modifiche architettoniche o infrastrutture fisse. Le aziende gestiranno i rischi implementando piccole flotte di robot poi ampliarne l’utilizzo progressivamente.

Alessandro de Bartolo, country general manager, Infrastructure Solutions Group di Lenovo Italia

Alessandro de Bartolo

l’intervista AI E CYBERSICUREZZA NELLA LENTE

DELLA VIDEOSORVEGLIANZA

Tra normative, casi d’uso e innovazioni tecnologiche, il settore è in fermento. Così lo vede Axis Communications.

Quello della videosorveglianza è un mercato consolidato, che tuttavia continua a trasformarsi sotto la spinta di diversi fattori, tecnologici e non. L’intelligenza artificiale ha fatto irruzione anche qui, così come in altri campi, aprendo inedite possibilità e casi d’uso. Ma a stimolare il cambiamento ci sono anche le nuove normative, come le direttive Nis2, sulla sicurezza informatica, e Cer sulla Resilienza delle Entità Critiche. Ne abbiamo parlato con Stefano Banzola, sales manager per l’Italia di Axis Communications.

Che anno è stato il 2024 per il settore della videosorveglianza?

È stato sicuramente un anno significativo per l’intero settore. Si è maggiormente affermato un trend in realtà già presente, ossia l’applicazione dell’intelligenza artificiale ai sistemi di sorveglianza, che stanno diventando sempre più efficaci ed efficienti. Un altro aspetto chiave del 2024 è legato al tema della digital transformation e, dunque, alla sempre più profonda digitalizzazione dei processi specie in ambito industriale. In questo caso, la necessità di rendere più efficienti e flessibili alcune funzioni ha reso essenziale (molto più che in passato) integrare i sistemi industriali con soluzioni come gli apparati di ripresa, diventati molto più che semplici sistemi di sicurezza. Infine, ma non ultimo, c’è il tema della sicurezza informatica: si è sviluppata maggiore

sensibilità, spinta anche indubbiamente dalla necessità per le aziende di doversi adeguare alle nuove direttive (Cer e Nis2 in primis) che prevedono l’adozione di sistemi e pratiche in grado di rendere le soluzioni di difesa sempre più resilienti e robuste. Per quanto ci riguarda, si è trattato di un anno speciale perché Axis ha festeggiato un traguardo importante, quello dei suoi primi quarant'anni di vita, un percorso di continuo consolidamento della nostra realtà nel settore della videosorveglianza. Axis ha di fatto inventato la telecamera di rete e ha costantemente portato innovazione nel network video, posizionandosi in un segmento di eccellenza tecnologica e divenendo un punto di riferimento per questo mercato.

Quali sono i casi d’uso più in crescita?

Sicuramente vi è una crescente adozione di tutto ciò che è intelligenza artificiale e una maggiore propensione all’uso di analitiche in grado di migliorare le soluzioni di videosorveglianza, anche dal punto di vista dell’efficienza. Un altro trend molto importante è l’aumento delle soluzioni di cloud ed edge computing, che garantiscono maggiore flessibilità e potenza a tutto il sistema. Quanto ai mercati verticali, a livello globale aumentano significativamente i casi d’uso all’interno delle città (in ambito smart city), nel settore industriale (dove gli apparati di videosorveglianza sono ormai sempre più utilizzati per digitalizzare i processi) e soprattutto nelle infrastrutture critiche. E in questo l’Italia non fa eccezione. Altra applicazione in ascesa per i sistemi di videosorveglianza è legata alla prevenzione di incidenti o eventi straordinari. Gli esempi sono molto vari: si va dalle analitiche per il rilevamento dell’effettiva presenza dei dispositivi di protezione individuale, alle telecamere dotate di specifici sensori IoT per il monitoraggio meteo e la prevenzione di eventi critici come le inondazioni, fino alla prevenzione di situazioni molto critiche che possono derivare, ad esempio, da comportamenti sospetti o dall’uso delle armi. Tutte queste applicazioni rientrano nel quadro di quello che in Axis definiamo smarter and safer world, che è da oltre dieci anni il nostro motto.

Stefano Banzola

RETI VELOCI PER LA SANITÀ DEL FUTURO

Fastweb da sempre ricopre un ruolo centrale nella trasformazione digitale del Paese, facendo leva su infrastrutture fisse e mobili ultraveloci e promuovendo lo sviluppo di applicazioni e servizi innovativi per famiglie, aziende e pubbliche amministrazioni. In particolare, in ambito sanitario Fastweb è l’interlocutore primario di enti sanitari nazionali e locali (ospedali, Asl) e ricopre un ruolo chiave nell’ambito del progetto “Sanità Connessa” previsto dal Piano Nazionale di Ripresa e Resilienza (Pnrr) e finalizzato a collegare 12mila strutture sanitarie attraverso connessioni a banda ultra larga fino a 10 Gbps. In seguito all’aggiudicazione di quattro lotti degli otto previsti del bando di gara, Fastweb è impegnata a coprire oltre la metà delle strutture sanitarie del Paese realizzando reti in fibra ottica affidabili e sicure. Grazie a esse sarà possibile dare ulteriore impulso alla digitalizzazione sanitaria, abbattere significativamente il digital divide territoriale e favorire una sanità di prossimità, anche a domicilio. La disponibilità di infrastrutture e collegamenti affidabili e performanti consentirà, inoltre, alle strutture sanitarie di potenziare la telemedicina e il Fascicolo Sanitario Elettronico, rivoluzionando l’erogazione delle prestazioni e il rapporto con i medici. Oltre a collegamenti ultraveloci e a servizi innovativi erogati attraverso il cloud computing, Fastweb fornisce al mondo sanitario servizi avanzati di cybersecurity per garantire protezione dei dati sanitari e continuità dei servizi.

Onofrio Pecorella, head of local government sales, Enterprise Team di Fastweb

Dal punto di vista tecnologico,quali sono le nuove frontiere?

Le architetture ibride sono sempre più presenti. Mentre in passato edge e cloud erano considerate tecnologie alternative, oggi la tendenza va verso la coesistenza delle due e ognuna schiera i propri punti di forza perché il sistema sia sempre più performante e aderente alle esigenze dell’utente. Le nuove frontiere sono, però, definite soprattutto dall’ampia gamma di possibilità abilitate dall’AI. Sebbene le evoluzioni nell’adozione del deep

learning e dell’AI generativa siano imprevedibili, sappiamo per certo che lo sviluppo di queste tecnologie consentirà di avere dati e analisi sempre più puntuali, garantendo performance oggi impensabili. Solo per fare un esempio, tra gli aspetti più importanti della videosorveglianza vi è, per ovvie ragioni, la qualità dell’immagine, che è uno dei punti di forza delle nostre soluzioni e un elemento su cui Axis investe da sempre. Le analisi basate su AI (e quindi le informazioni che trarremo da esse), se sviluppate e trattate con un profondo senso etico, saranno tanto più accurate quanto più elevata sarà la qualità dell’immagine.

Come vedete il futuro?

Per il 2025 ci aspettiamo un forte aumento nell’adozione di soluzioni basate sul cloud, che sta guadagnando terreno anche nel settore della videosorveglianza, seppur più lentamente rispetto ad altri ambiti. Un altro trend rilevante è l’integrazione dei sistemi di videosorveglianza con altre soluzioni

di sicurezza. Le normative come la direttiva Nis2, la Cer e l’AI Act avranno un impatto crescente sul mercato e influenzeranno sia il settore pubblico sia il privato, soprattutto nel caso delle infrastrutture critiche.

Tra tutti i casi d’uso, ci aspettiamo una forte crescita nella trasformazione digitale, poiché i sistemi di sorveglianza diventeranno sempre più avanzati e personalizzati per soddisfare esigenze specifiche, integrando funzionalità aggiuntive oltre alla sicurezza tradizionale. Così, ad esempio, gli apparati di sicurezza potranno sempre più essere usati anche per raccogliere dati da far processare ai sistemi di analisi (un impiego molto diffuso in ambito smart city, dove è ormai comune che le telecamere preposte alla sicurezza vengano anche utilizzate per la raccolta di dati). Ma c’è un altro aspetto da non sottovalutare: il confronto diretto con i nostri clienti, che ci consente di scoprire continuamente nuovi usi della tecnologia esistente e nuovi campi di applicazione. V.B.

l’opinione

TRE SFIDE PER LA VISIBILITÀ SULLA SUPPLY

CHAIN

Non sempre gli investimenti tecnologici in quest’area garantiscono un ritorno. La qualità dei dati è un punto cruciale.

La visibilità sulla supply chain è oggi un’area di focus per molte organizzazioni: non c’è quindi da stupirsi se gli strumenti di analisi, monitoraggio e reportistica a essa correlati continuano ad avere la priorità quando si parla di investimenti tecnologici. Nonostante le aziende abbiano compreso l’importanza di questi aspetti, secondo un report di PwC ben il 69% dei responsabili delle operation e della supply chain afferma che gli investimenti in tal senso non hanno prodotto i risultati attesi. Altri studi hanno poi evidenziato un divario tra il ritorno sull’investimento previsto e quello effettivamente ottenuto (va però tenuta presente la definizione che si dà di Roi: visioni diverse possono portare a un disallineamento tra le aspettative e ciò che è realistico raggiungere in ogni situazione).

In questo panorama, è comunque possibile identificare alcune sfide chiave per la visibilità sulla supply chain. La prima è rappresentata dalla disponibilità dei dati: nonostante la digitalizzazione abbia fatto passi da gigante, ci sono ancora diverse lacune nell’acquisizione dei dati strutturati sui diversi processi. Questo significa che i dati disponibili coprono solo parzialmente le attività reali della supply chain. La seconda problematica riguarda l’accesso ai dati: anche quando i processi sono digitalizzati e i dati disponibili per l’analisi, questi potrebbero essere accessibili solo per

una specifica funzione aziendale. Si tratta di una sfida che viene affrontata tutt’oggi dai team di numerose aziende. In terzo luogo, c’è il tema della qualità dei dati: la diffusione dell’uso di dati errati attraverso algoritmi di intelligenza artificiale può essere catastrofica per l’azienda. Quindi, quanto più sono avanzate le funzionalità ricercate da un’azienda, tanto più importanti diventano la gestione, il controllo della qualità e la capacità di governance dei dati. Affrontare queste sfide richiede un approccio innovativo alla visibilità sulla supply chain ed è positivo,

comunque, che le aziende inizino a comprenderne il valore e a investire in strumenti volti a migliorarla sempre di più. Ciononostante, affrontare le sfide legate a disponibilità, accessibilità e qualità dei dati sarà la chiave per raggiungere gli obiettivi aziendali più ambiziosi.

La disponibilità dei dati è strettamente legata alla digitalizzazione dei processi e questo spesso richiede diverse capacità, tra cui una moderna soluzione di integrazione. Ciò significa che per migliorare la visibilità sulla supply chain è spesso necessario rivedere gli esistenti processi e strumenti per l’acquisizione e lo scambio di dati, così risolvere eventuali lacune che la limitano. In merito alla seconda sfida, l’accesso ai dati, è richiesto un approccio originale, in cui quelli analitici riferiti alla supply chain siano archiviati in un hub di dati condiviso.

I problemi relativi alla qualità dei dati sono forse i più impegnativi da affrontare e richiedono un approccio multisfaccettato, che combini solide pratiche e strumenti di gestione dei dati. Le organizzazioni possono, infatti, aver bisogno di diverse forme di convalida dei dati, controlli di processo, gestione dei dati master e altre funzionalità al fine di garantire che le informazioni fornite siano accurate e affidabili.

Sergio Bevilacqua, Sr. account executive business network di OpenText Italy

Sergio Bevilacqua

L’OSSERVABILITÀ UNIFICATA È

LA RISPOSTA ALLA FRAMMENTAZIONE

Riverbed amplia l’offerta per portare una visibilità più estesa sul funzionamento di ambienti IT complessi.

Vederci bene è il primo passo, ma non basta. Bisogna anche saper collegare tra loro i dati e gli eventi, e poi serve la capacità di correggere il problema in poche mosse, anche da remoto. Oggi quello della cosiddetta osservabilità (observability) è uno dei tanti ambiti dell’informatica in cui l’intelligenza artificiale sta portando innovazione. Ma per Riverbed questa innovazione deve tradursi in un valore concreto e immediato: aiutare le aziende a gestire infrastrutture IT sempre più complesse e frammentate tra una molteplicità di ambienti, dispositivi, software e fonti di dati. Fondata nel 2002 e attiva in Italia dal 2006, Riverbed oggi cala la sua proposta in un contesto ben diverso da quello di venti, dieci o cinque anni fa. Come noto, negli ultimi anni l’adozione del cloud (cioè di più cloud, in abbinati agli ambienti onpremise) e la diffusione del lavoro ibrido hanno accentuato la tendenza alla frammentazione dell’IT. Ed è diventato molto più difficile garantire sicurezza, prestazioni, buon funzionamento e controllo nell’intero ambiente informatico, per tutti gli utenti. Il punto di svolta, rispetto a una semplice piattaforma di monitoraggio, è quella che Riverbed chiama “osservabilità unificata”, Unified Observability. “La nostra piattaforma dà una vista unica, completa e aperta su tutto lo stack, permettendo di ottimizzare al massimo le esperienze digitali degli utenti”, ha spiegato Victor Calderón, sales manager Mediterranean countries di Riverbed, in un incontro con la stampa di setto -

re. “Proponiamo una serie di strumenti utili a monitorare e migliorare le prestazioni. Non siamo i soli a farlo, ma quello che ci differenzia è la visuale totale e integrata”. Dai Pc portatili e smartphone usati per lavorare alle piattaforme per la collaborazione, dai server alle applicazioni: i “punti ciechi” e i malfunzionamenti possono essere di varia natura. Quel che accomuna le varie situazioni è il fatto che un disservizio o una prestazione non ottimale si traducano in problemi, cattiva user experience, inefficienze, vulnerabilità.

A detta di Calderón, le aziende si confrontano oggi con tre sfide: migliorare l’esperienza digitale di clienti e dipendenti, semplificare la gestione dell’infrastruttura IT e adottare un’intelligenza artificiale che porti vantaggi reali. Per rispondere a queste sfide Riverbed propone quindi tecnologie differenti e specifiche, ma connesse tra loro dallo Unified Agent, uno strumento che raccoglie dati da varie fonti (sistemi desktop, portatili, cloud) e li aggrega in una piattaforma centralizzata. Qui si innestano i vari moduli per il monitoraggio delle prestazioni di rete (Network Performance Monitoring), delle applicazioni (Application Performance Management), degli ambienti cloud-nativi e di lavoro remoto (Npm+, di recente lancio), della user experience (Aternity). Le dashboard visuali di Riverbed riassumono gli eventi e le azioni applicate, ma è anche possibile integrare questi flussi di lavoro con strumenti di IT Service Management. Sono più di trenta le integrazioni (predefinite e personalizzabili) con software e servizi terzi, tra cui quelli di Microsoft, Dynatrace, Red Hat, ServiceNow e Splunk. “Eliminiamo i punti ciechi e garantiamo una visuale uniforme sull’intera infrastruttura IT”, ha rimarcato il manager spagnolo. L’intelligenza artificiale completa e migliora l’ingranaggio. Alla base della piattaforma c’è una tecnologia di AIOps (gestione delle operazioni IT basata sull’intelligenza artificiale) che analizza e correla i dati di telemetria raccolti, per identificare rapidamente la causa di un problema e poi risolverlo con un’azione automatica. “L’AI non è solo una moda”, ha commentato Calderón. “Vogliamo aiutare le aziende a trarre valore dai propri dati, con insight che possano migliorare l’efficienza operativa e ridurre i costi”.

Valentina Bernocco

Victor Calderón

A TUTTA AI, DAGLI STATI UNITI ALL’ITALIA

Oracle vuol essere in prima linea nella corsa mondiale all’intelligenza artificiale, come dimostra il coinvolgimento nel progetto Stargate.

Oracle non è più solo sinonimo di database, infrastrutture e cloud, ma ha l’intelligenza artificiale al centro della propria strategia. Ne è segno, tra le altre cose, la presenza del fondatore, chairman e chief technology officer, Larry Ellison, al fianco di Donald Trump durante l’annuncio del progetto Stargate, un piano di investimenti da 500 miliardi di dollari per la costruzione di nuovi data center al servizio dell’intelligenza artificiale. Stargate è, tecnicamente, una joint-venture formata da OpenAI e Softbank , ma Oracle è coinvolta nel progetto. L’azienda oggi vuol essere in prima linea nella corsa all’AI, sfruttando il proprio knowhow sui dati, la propria infrastruttura e il radicamento nel mercato enterprise. “Possiamo già contare su diversi casi concreti di sviluppo sulla nostra infrastruttura”, ha detto in occasione del “Data AI Forum” di Milano Andrea Sinopoli, vice president country leader Cloud Tech di Oracle Italia. “Grandi banche europee usano la GenAI per migliorare la soddisfazione del cliente, la compliance e il rilevamento delle frodi. Gli operatori telco stanno sfruttando Oracle Ecp per portare le funzionalità di data intelligence in tempo reale ai dispositivi IoT, e ci sono esperienze nella ricerca e nel fashion, per ottenere risparmio di risorse ed energia o rafforzare la customer experience”. Anche in Italia si inizia a sperimentare concretamente. Il Consiglio di Stato, per esempio, ha intrapreso un percorso di adozione dell’AI per mi-

gliorare l’efficienza e la qualità delle proprie attività. Fanno parte del piano la recente reingegnerizzazione dei portali dell’ente e anche la scelta di offrire uno strumento di open data, attivo dallo scorso dicembre, con cui i cittadini possono accedere ai contenuti dei procedimenti di giustizia amministrativa. “L’introduzione dell’AI non mira a sostituire il giudice ma a supportarlo, accelerando e semplificando le fasi di studio, aggiornamento e analisi delle cause”, ha specificato Brunella Bruno, magistrata responsabile del servizio per l'informatica al Consiglio di Stato. “La tecnologia non viene mai usata per scrivere sentenze o fare riassunti, come elemento per risparmiare tempo, ma per accelerare le ricerche e aumentare le informazioni a disposizione, facendo emergere casistiche similari tra loro e sentenze già emesse, verificando le fonti giurisprudenziali o identificando leggi di riferimento a partire da un atto”.

Tea , invece, è un’azienda multiservizi e società per azioni partecipata d ai Comuni dell’area mantovana, che gestisce servizi pubblici essenziali come acqua, ambiente, energia e altro ancora. Sei, società del gruppo, si occupa in particolare della rete di distribuzione del gas nella provincia di Mantova e ha scelto di implementare strumenti di AI e digital twin a supporto dell’attività operativa, per esempio per ridurre le perdite di gas sulla rete e per meglio proteggere le tubature dalla corrosione. “L’introduzione dell’AI ci ha permesso di rafforzare i nostri cruscotti di analisi e controllo della rete, potendo analizzare in modo rapido una grande quantità di dati raccolti tramite sensoristica dai vari punti della rete, ad esempio componenti e apparecchiature”, ha illustrato Stefano Bianchi, Ceo di Sei. “Il gruppo Tea ha anche realizzato un digital twin della rete, per poter impiegare l’AI per creare delle simulazioni”. Al centro degli sviluppi descritti c’è l’utilizzo della Oracle Cloud Infrastructure (Oci) e di supercluster progettati per gestire carichi di lavoro di AI su larga scala. L’Oci Generative AI Service, poi, dà accesso a modelli ottimizzati per casi d’uso enterprise, e non mancano strumenti rivolti agli sviluppatori, come Code Assist (disponibile anche in italiano). Inoltre Oracle ha integrato capacità AI nelle proprie soluzioni Fusion Applications e NetSuite e ha introdotto strumenti come AI Vector Search, per la ricerca e le analisi semantiche.

Roberto Bonino

Andrea Sinopoli

UNA PROTEZIONE TOTALE PER STAMPA E DOCUMENTI

Le aziende hanno bisogno di una sicurezza su più livelli, estesa a dispositivi, software, applicazioni e processi di stampa. La risposta di Brother.

La sicurezza della stampa è una questione complessa e spesso sottovalutata. Dall’hardware ai servizi, passando per il software ma anche per procedure, documenti, dati: tutti questi elementi devono essere considerati in una buona strategia di sicurezza della stampa. Una strategia che, quindi, esige una protezione totale.

Le vulnerabilità sono numerose e differenziate: firmware non aggiornati, che diventano un punto di ingresso per hackeraggi e malware; falle della rete, che consentono attacchi man-in-the-middle ; password di default che non vengono modificate e risultano facilmente intercettabili dai malintenzionati; e ancora, documenti che escono da una stampante e finiscono nelle mani sbagliate. Nella migliore delle ipotesi, per l’azienda possono verificarsi dei disservizi o interruzioni forzate nei flussi di lavoro, ma si rischiano anche fughe di dati che ledono la proprietà intellettuale, danneggiano la reputazione e comportano violazioni della compliance. Una fuga di dati può partire dall’hard disk di una macchina compromessa, da un file condiviso in rete e anche da un foglio che viene stampato e poi dimenticato nel cassetto di uscita della stampante.

Una sicurezza multi-livello

La risposta a queste sfide è una sicurezza multi-livello, che parta dalla scelta dell’hardware e arrivi alla corretta gestione del parco stampanti e dei documenti in azienda. Una strategia efficace deve prevedere quattro aspetti.

• La crittografia. I processi documentali coinvolgono informazioni di ogni genere, tra cui proprietà intellettuale, dati di bilancio, anagrafiche e dati dei clienti. L’uso di protocolli crittografici come TLS e SSL impedisce ad hacker e malintenzionati di accedere a queste informazioni.

• La protezione della rete e delle comunicazioni. Non va trascurata, considerando che i dispositivi di stampa presentano molte interfacce di connettività e si collegano al cloud.

• L’accesso selettivo ai processi di stampa e ai documenti. I dispositivi più evoluti prevedono funzioni di gestione degli accessi e di autenticazione (tramite credenziali, codice PIN o NFC).

• Il monitoraggio dei dispositivi. Avere piena e continua visibilità sulla flotta aziendale serve per rilevare eventuali anomalie e dunque per prevenire o limitare le fughe di dati. Inoltre aiuta a tenere d’occhio i costi e a dimensionare correttamente il parco stampanti.

L’offerta di Brother

I dispositivi di stampa e multifunzione di Brother sono intrinsecamente sicuri: molti modelli non necessitano di dischi fissi (e quindi riducono la superficie d’attacco potenziale), mentre i top di gamma applicano protocolli di crittografia TLS o SSL alle comunicazioni di rete. La maggior parte dei dispositivi Brother permette di bloccare da remoto i tentativi di accesso alle stampanti tramite rete, con funzioni di filtro degli indirizzi IP e disattivazione dei protocolli non necessari.

Una delle funzionalità più importanti è il Pull Printing, che permette di trattenere l’ordine di stampa, inserendo i documenti in una coda virtuale e consentendo solo all’utente legittimo di ritirare i fogli dopo essersi autenticato sulla macchina. Eliminando il problema dei documenti abbandonati o dimenticati nella stampante, questo meccanismo migliora la sicurezza e la privacy dei dati e allo stesso tempo evita gli sprechi di carta, consumabili ed energia.

Per garantirsi una piena conformità al Gdpr si può scegliere Secure Print+, la tecnologia di Brother che consente ai soli utenti autorizzati (in possesso di codice PIN o card NFC) di ritirare i documenti in stampa. Una soluzione particolarmente adatta per le stampanti collocate in open-space, luoghi di passaggio o altri ambienti di lavoro condivisi. In alternativa, l’autenticazione dell’utente può avvenire attraverso le esistenti credenziali di accesso alla rete aziendale. Altri strumenti preziosi per gli amministratori del parco stampanti sono Setting Lock, che limita l’accesso alle impostazioni del dispositivo tramite il pannello di controllo, e Secure Function Lock, che assegna determinate funzionalità del dispositivo a ciascun utente.

UN PRESENTE CHE GUARDA AL FUTURO

Il 34% delle imprese lombarde utilizza soluzioni di AI generativa, ma anche gli enti pubblici (lentamente) si muovono. I dati di TIG – The Innovation Group.

Tra le spinte propulsive su cui imprese ed enti oggi possono contare per rafforzare e supportare la propria crescita e competitività, l’intelligenza artificiale è indubbiamente quella che sta attirando maggior attenzione da parte dell’opinione pubblica, di istituzioni, enti e imprese.

Tra annunci di investimenti, nuove evoluzioni tecnologiche e scontri geopolitici AI-driven, resta però da domandarsi quanto oggi aziende e organizzazioni nel territorio italiano stiano effettivamente utilizzando queste tecnologie o se preferiscano, al momento, essere semplicemente spettatori di questo dibattito globale. Per poter rispondere a questa domanda, TIG – The Innovation Group si è proposta di analizzare il grado e lo stato di adozione di questa tecnologia all’interno di un territorio, quello lombardo, che spesso è stato apripista in termini di innovazione digitale all’interno del nostro Paese. Nel dettaglio, tra gennaio e febbraio 2025 è stato intervistato un campione rappresentativo di 102 imprese lombarde con almeno 20 addetti, coinvolgendo in particolare il top management, i responsabili IT e altre figure manageriali coinvolte e informate in merito a queste iniziative.

Generativa, ma non solo I risultati di questa analisi evidenziano che le aziende lombarde si stanno già dimostrando attori attivi rispetto alle tecnologie di AI. Il 43% delle aziende sta, infatti, utilizzando questa tecnologia, in forma sperimentale (la quota maggiore) o con strategie più avanzate. D’altra parte, se si annoverano nel computo anche le realtà che dichiarano di stare affrontando attività di formazione e informazione rispetto all’AI ma senza adottare ancora concretamente questa tecnologia, la percentuale di aziende che possono essere definite “attive” arriva al

L’AI nelle imprese lombarde

59%, raggiungendo quindi la maggioranza. Non va dimenticato, però, che quello dell’intelligenza artificiale è un cappello sotto il quale rientrano diverse tecnologie, tra cui l’AI generativa, gli strumenti orientati all’automazione di processi e gli assistenti virtuali, così come soluzioni specifiche di settore o customizzate.

A questo riguardo, le imprese del territorio regionale stanno utilizzando attualmente soprattutto soluzioni di AI generativa (il 34%), benché anche altre soluzioni e strumenti vengano adottati; solo il 9%, in ogni caso, dichiara di

TIG, “Trasformazione digitale e spinta propulsiva dell’AI: indagine sulle imprese lombarde”, febbraio 2025

Ekaterina Grebeshkova

stare utilizzando solo queste soluzioni “altre”, senza affidarsi anche all’AI generativa. Per quanto riguarda gli investimenti in AI, è invece un’azienda lombarda su quattro a dichiare di stare investendo o che investirà entro il 2025 in questo ambito, e la previsione è che il dato arriverà al 40% nel medio periodo.

Il settore pubblico

L’analisi sul grado di diffusione dell’AI in Lombardia non si limita però al solo settore privato, estendendosi anche agli enti pubblici e alle amministrazioni locali. In questo caso, facendo riferimento ai risultati relativi al territorio lombardo emersi da una recente rilevazione condotta dalla stessa TIG – The Innovation Group in collaborazione con Gruppo Maggioli sugli enti locali in Italia, è stato possibile identificare alcune traiettorie rilevanti in termini di adozione delle tecnologie di intelligenza artificiale.

In particolare l’analisi dimostra che, tra le amministrazioni locali lombarde intervistate, è il solo 4% ad aver già attivato applicazioni di AI, benché al momento del sondaggio la maggior parte non prevedesse ancora di utilizzare questa tecnologia. In ogni caso, tra i principali benefici dell’AI che attirano l’interesse dei rispondenti attivi in enti lombardi, e che potrebbe presumibilmente attivarne un maggiore utilizzo in futuro, emerge soprattutto la possibilità di automatizzare le attività più ripetitive e ridondanti, aspetto menzionato dal 63% degli intervistati; seguono l’incremento della qualità e dell’efficacia dell’erogazione dei servizi pubblici (per il 51%) e la migliore assistenza virtuale per fornire informazioni all’utente (per il 44%).

L’attenzione all’automazione dei processi e al miglioramento della relazione con il cliente è evidente anche analizzando i casi d’uso di maggiore interesse per i rispondenti lombardi: vengono soprattutto menzionate le soluzioni di AI per

L’AI nel settore pubblico in Lombardia

Focus Regione Lombardia

Benefici attesi dall’uso dell’AI negli enti locali

Gruppo Maggioli e TIG, “2024: Cloud, AI e Cybersecurity nella PA italiana”, novembre 2024, Focus Regione Lombardia

rispondere in modo più efficace alle domande frequenti dei cittadini (dall’87%) e gli strumenti di automazione delle pratiche amministrative (dall’85%). Interessante anche l’analisi, tra gli enti locali lombardi, dei principali ostacoli percepiti rispetto alla diffusione di queste tecnologie: il 57% dei rispondenti coinvolti, infatti, cita la mancanza di competenze interne e a seguire il tema dei costi per l’adozione (citati dal 46%) come principali freni. Nel complesso, quindi,

in Lombardia mondo privato e pubblico si stanno muovendo per essere parte attiva rispetto ad un tema, quello dell’intelligenza artificiale, che sempre più assume una scala globale: si sperimenta, alcuni aziende e enti cominciano a consolidare e a scalare alcune iniziative, benché molti ancora si interroghino sulle competenze necessarie e sugli ambiti di applicazione concreti in cui valorizzare investimenti e iniziative in ambito AI.

Camilla Bellini

Gruppo Maggioli e TIG, “2024: Cloud, AI e Cybersecurity nella PA italiana”, novembre 2024,

IL CHIEF INFORMATION OFFICER NON È MAI FERMO

Un ruolo in continua evoluzione, che entra nelle strategie aziendali. Impegnato a promuovere il cambiamento e le competenze digitali, ma non senza ostacoli.

Il ruolo dei chief information officer sta cambiando. Lo si sente dire da molti anni, in realtà, ma è un’affermazione sempre vera: il panorama IT è in continua evoluzione e con esso i rischi da governare e le opportunità da cogliere. E i Cio, da esecutori di strategie decise da altri, sempre più sono diventati le “antenne” del cambiamento, coloro che per primi lo captano e poi lo propagano e lo adattano alle necessità dell’azienda. Il team di ricerca di TIG – The Innovation Group ha anche provato a immaginare quali saranno le responsabilità di questi professionisti in futuro, intervistando lo scorso anno i manager Line of Business (LoB) e IT di un campione di circa 150 aziende italiane.

Nel momento del sondaggio, le principali responsabilità attribuite ai chief

Il ruolo del CIO: le responsabilità attuali e future

Fonte: TIG, “Digital Trasformation Business Survey”, 2024

Immagine di Freepik

information officer erano l’allineamento dell’IT agli obiettivi di business (per il 51% degli intervistati), il coinvolgimento nella definizione delle strategie

aziendali (51%) e il potenziamento di cybersicurezza e resilienza (47%). A detta degli intervistati, queste responsabilità resteranno prioritarie anche nel medio

CIO INTORNO AL TAVOLO

In riva al Lago Maggiore si parlerà di rischi, opportunità, sfide da affrontare attraverso la tecnologia, le competenze e la cultura aziendale. Al “Cio Leaders Summit” organizzato da TIG al Grand Hotel Dino di Baveno (VB) si incontreranno i chief information officer (o figure analoghe) di aziende italiane utenti e vendor di informatica, in un confronto che seguirà una formula ormai collaudata.

La prima giornata (14 marzo) è dedicata alle sessioni plenarie e ai panel di discussione: si parlerà del contesto geopolitico attuale e dei suoi riflessi sui mercati Ict (con un intervento di Natalie Tocci, direttrice dell’ Istituto Affari Internazionali), di frontiere tecnologiche (con il “filosofo tech” Cosimo Accoto, research affiliate & fellow del Mit di Boston, e professore aggiunto dell’Università di Modena e Reggio Emilia), del profilo dell’azienda “post-digitale” (con Gianluigi Castelli, direttore del Devo Lab di Sda Bocconi), e ancora di competenze, nuovi stili di management e psicologia del lavoro.

La seconda giornata (15 marzo) è dedicata ai tavoli di lavoro tematici, coordinati da Cefriel, mentre nella mattinata di chiusura (16 marzo) si condivideranno i risultati emersi.

I TAVOLI DI LAVORO DEL “CIO LEADERS SUMMIT”

• Trust e rischi legati alle nuove tecnologie: dal cloud all’AI

• Governance dei dati e dell’AI e impatto sul business

• Obiettivi Esg e digitale sostenibile

• Capitale umano, nuovi lavori, valori e competenze

• La nuova organizzazione Ict per il post digitale e il ruolo del Cio

periodo (a tre anni dal rilevamento), ma allo stesso tempo guadagnerà importanza un altro tema, cioè il miglioramento dell’esperienza digitale dei dipendenti. In circa un’azienda su tre, il 35% (verrebbe da dire “soltanto”), i chief information officer sono anche responsabili di promuovere il cambiamento organizzativo all’interno del contesto di lavoro. In ogni caso, come evidenziato dalla ricerca, diversi segnali ci dicono che oggi rispetto al passato i Cio sono maggiormente coinvolti nelle strategie aziendali. Tuttavia, la paura del cambiamento, le ristrettezze di budget e la presenza di sistemi informatici legacy (cioè “ereditati” dal passato) sono ancora ostacoli da superare per una efficace evoluzione digitale delle aziende.

La maggioranza dei manager LoB e IT crede che i Cio siano preziosi per far raggiungere all’azienda migliori risultati. Come? Suggerendo soluzioni digitali che risolvono problemi di business (per il 62% dei manager LoB), evidenziando le tendenze tecnologiche critiche per l’azienda (54%), promuovendo la conoscenza e le competenze digitali (54%), interpretando le esigenze di dipendenti e clienti (46%) e anche influenzando, in qualche caso, le scelte dei vertici aziendali (43%).

Valentina Bernocco

Immagine di Freepik

OBIETTIVI E SFIDE PER IL RUOLO DEL CIO

“Le attuali sfide per i Cio in Italia sono molteplici e complesse. In un contesto economico incerto, i Cio devono ottimizzare le risorse esistenti e migliorare l’efficienza operativa. L’adozione di tecnologie di intelligenza artificiale generativa è cruciale per colmare il divario tra i team IT e marketing, migliorando la collaborazione e la produttività. Un’altra priorità è la razionalizzazione dello stack tecnologico di marketing. Molte aziende italiane investono ingenti somme in tecnologie di marketing, ma spesso si trovano a gestire sistemi frammentati e sovrapposti. I Cio devono ridurre costi e migliorare l’interoperabilità dei dati per massimizzare il ritorno sugli investimenti. Infine, migliorare l’esperienza del cliente è fondamentale. I Cio devono supportare l’adozione dell’AI generativa per creare contenuti personalizzati e automatizzare i processi manuali, aumentando l’efficienza e la soddisfazione del cliente. La gestione avanzata dei dati è essenziale per offrire esperienze coerenti e personalizzate su tutti i canali. In sintesi, le sfide principali per i Cio italiani includono l’adozione dell’AI, la razionalizzazione delle tecnologie di marketing e il miglioramento dell’esperienza del cliente. Affrontare queste sfide con una strategia integrata e innovativa è la chiave per il successo”.

IL VIRTUAL PRIVATE CLOUD VISTO DA VIMEC

“La razionalizzazione della gestione infrastrutturale può essere una chiave per aiutare la crescita del business. Una testimonianza in tal senso arriva da Vimec, azienda specializzata nelle soluzioni di mobilità e ascensori con sede a Luzzara, a cavallo fra le province di Mantova e Reggio Emilia. Dalla definizione dei requisiti iniziali da parte del cliente fino alla fornitura finale, passando per le fasi di progettazione e fabbricazione, tutta l’attività dell’azienda è gestita all’interno di un ambiente IT virtualizzato, in cui la continuità operativa e i livelli prestazionali sono di importanza fondamentale. Venendo da una situazione ibrida (parte on-premise e parte su cloud diversi), l’azienda ha deciso di aggregare risorse e renderle facilmente scalabili.

L’adozione della soluzione Virtual Private Cloud 2.0 di Aruba Enterprise ha portato a un risparmio economico legato all’azzeramento di voci di spesa come il noleggio e l’aggiornamento dei server, i consumi di energia per l’alimentazione e il raffrescamento, la manutenzione hardware e software e tutto quello che comporta il funzionamento di un Ced onpremise. Oltre alla scalabilità che permetterà di sostenere la crescita di Vimec nel tempo, il nuovo ambiente cloud ha introdotto anche livelli di velocità inediti. ‘Analisi di business intelligence che richiedevano un paio d’ore di tempo sono scese a 45 minuti, il che significa anche che a parità di tempo oggi è possibile ottenere report più completi perché basati su molti più dati’, nota Paolo Accorsi, responsabile IT della società”.

Aruba Italia

LA MAPPA DELLA SOFTWARE INTELLIGENCE

“In un mondo in cui la trasformazione digitale è il motore del successo, le aziende si trovano ad affrontare sfide sempre più ardue nella gestione di portfolio applicativi sempre più complessi da navigare. È un po’ come cercare di orientarsi in una megalopoli dell’Estremo Oriente senza una mappa e senza conoscere gli ideogrammi. La software intelligence, proprio come Google Maps per le strade, consente di costruire una mappa precisa degli immensi portfolio digitali coi quali abbiamo a che fare, e poi di identificare la direzione più giusta per raggiungere con successo gli obiettivi di trasformazione da affrontare: dal journey to cloud alla sostenibilità digitale, dalla mitigazione del rischio informatico della supply chain software alla modernizzazione degli asset legacy. Cast Software sta rivoluzionando il modo in cui le organizzazioni comprendono, ottimizzano e modernizzano il loro portfolio applicativo. Grazie a un uso accorto dell’intelligenza artificiale e dell’analisi deterministica degli asset digitali, le soluzioni Cast sono in grado di generare mappe 3D, advisory scorecard e dashboard interattive, che offrono una visione dettagliata e completa di interi portfolio digitali e dei layer delle singole applicazioni. Questa è la profonda conoscenza che permette ai Cio di prendere migliori decisioni strategiche basate su Kpi efficaci nei processi trasformativi, in quelli di risk mitigation e in quelli di compliance fulfillment. In questo modo, l’innovazione non resta un concetto astratto, ma diventa una realtà concreta che migliora l’efficienza operativa e garantisce sicurezza e resilienza digitale”.

Massimo Crubellati, senior vice president e country manager di Cast Italia

Adobe Italia

SICUREZZA, RESILIENZA E CONFORMITÀ NEL NUOVO ECOSISTEMA DIGITALE

“Nel 2025 i Cio si trovano a fronteggiare una realtà complessa: minacce informatiche sempre più avanzate, normative stringenti e infrastrutture IT distribuite su cloud e ambienti ibridi. La sicurezza non può più essere un elemento accessorio, ma dev’essere integrata in ogni livello della strategia aziendale. Le sfide principali? Proteggere dagli attacchi applicazioni e Api (Application Programming Interface), bloccare il traffico malevolo prima che raggiunga l’infrastruttura e garantire accessi sicuri e controllati per utenti e dispositivi. Un approccio moderno alla cybersecurity deve combinare Web Application Firewall (Waf), protezione Api, mitigazione DDoS e soluzioni di Zero Trust. Allo stesso tempo, le normative come Nis2 e Dora stanno ridisegnando il ruolo del Cio: la conformità non è più un’opzione, ma una responsabilità diretta. Servono visibilità completa sulle minacce, risposta in tempo reale e una postura di sicurezza proattiva per evitare violazioni e interruzioni operative.

La collaborazione tra Akamai e Criticalcase nasce per rispondere a queste esigenze con un approccio complementare. Akamai offre tecnologie di protezione scalabili e distribuite a livello globale mentre Criticalcase supporta le aziende con implementazione su misura, servizi gestiti e assistenza continua. Questo permette ai Cio di adottare soluzioni avanzate senza complessità operative, garantendo una protezione efficace e allineata alle sfide normative e di sicurezza”.

Luca Nunno, Ceo di Criticalcase

UN AMBASCIATORE DI NUOVI ASSET AZIENDALI

“L’intelligenza generativa sta trasformando il panorama aziendale, democratizzando l’accesso alla tecnologia e ridefinendo il ruolo del Cio. Questa figura non si occupa più solo di gestire l’infrastruttura IT ma diventa un vero e proprio ambasciatore di nuovi asset, guidando l’adozione e l’integrazione di tecnologie innovative. In Globant crediamo che l’intelligenza generativa sia un’opportunità senza precedenti per democratizzare l’accesso a strumenti avanzati, permettendo a tutti i dipendenti di sfruttare l’AI senza competenze tecniche approfondite. Dai chatbot nel servizio clienti ai modelli di linguaggio per la creazione di contenuti, le possibilità sono infinite. Questo implica che oggi il Cio assuma un ruolo di leadership, con responsabilità in diverse aree. Sul fronte dell’educazione innanzitutto, con lo sviluppo di programmi formativi sull’intelligenza generativa da destinare alle risorse umane. Importante anche la promozione di una cultura innovativa per incoraggiare la sperimentazione e soluzioni creative, ad esempio attraverso hackathon. Infine, lo sviluppo di linee guida etiche serve a stabilire politiche chiare per un uso responsabile dell’AI e per la tutela della privacy. L’integrazione dell’intelligenza generativa nei sistemi aziendali richiede piattaforme aperte e interoperabili per migliorare l’efficienza e scalare l’innovazione. Perché tutto ciò sia effettivo, i Cio devono inoltre stabilire metriche di successo chiare, monitorando Kpi e raccogliendo feedback per ottimizzare l’uso della tecnologia. In sintesi, il futuro delle aziende è nelle mani di Cio visionari che, con il supporto di partner tecnologici come Globant, possano guidare la trasformazione digitale e posizionare le loro organizzazioni come leader nel settore. L’era dell’intelligenza generativa è qui: è il momento di abbracciarla e sfruttarne tutto il potenziale”. Globant Italia

LA GESTIONE DELL’ESPOSIZIONE TRASFORMA LA SICUREZZA

“I team di sicurezza affrontano molte sfide e, nonostante gli sforzi profusi, potrebbero comunque trovarsi con punti ciechi critici. La gestione tradizionale delle vulnerabilità avvantaggia la correzione in base rispetto alle valutazioni di gravità tecnica, concentrandosi principalmente su asset software e hardware. Ma la superficie di attacco oggi comprende molto di più. La gestione dell’esposizione è una rielaborazione totale di come le aziende possono affrontare la sicurezza. A differenza dei metodi convenzionali, che considerano il rischio in modo isolato, questo approccio incoraggia una comprensione contestuale delle minacce all’interno di un più ampio quadro di obiettivi aziendali. Questo richiede una visione più integrata della postura di sicurezza, che va oltre l’integrazione degli strumenti di sicurezza esistenti. Questo approccio affronta la correzione basandosi su più fattori, tra cui la sfruttabilità delle vulnerabilità nel mondo reale, l’impatto potenziale sugli affari e il rischio per l’organizzazione. È però utile sapere che l’implementazione funziona meglio su binari paralleli. Il primo mantiene l’igiene sistemica attraverso cicli di patch regolari e gestione delle configurazioni, mentre il secondo abilita una risposta proattiva alle minacce emergenti basata su dati di rischio contestuale. I principi della gestione dell’esposizione possono facilitare decisioni strategiche sugli investimenti in sicurezza, mentre mantengono difese efficaci contro le minacce in evoluzione”.

Marco Cellamare, country manager di Ivanti Italia

L’INTEGRAZIONE DEI DATI È CRUCIALE

“I Cio italiani si trovano di fronte a sfide sempre più complesse per bilanciare le esigenze di innovazione e la gestione dell’infrastruttura esistente. In particolare, l’integrazione dei dati e dei sistemi è uno dei principali ostacoli all’implementazione di agenti AI, come riporta il decimo “Connectivity Benchmark Report” di MuleSoft . Secondo l’indagine, il 96% delle aziende europee ha già implementato o prevede di adottare agenti AI nei prossimi due anni per migliorare l’efficienza e ridurre i costi. Tuttavia, per il 69% l’integrazione dei dati è una sfida cruciale e il 94% degli intervistati fatica a connettere i propri sistemi.

I team IT si trovano a gestire un numero crescente di applicazioni (in media 789 per azienda in Europa) e di modelli AI. La frammentazione dei sistemi e la creazione di silos di dati ostacolano l’efficacia degli agenti AI, e il problema si acuisce per le aziende che già li utilizzano (queste aziende impiegano in media 1.075 applicazioni, il 68% in più rispetto alle altre). Per affrontare questa sfida, i Cio italiani devono focalizzarsi su due priorità chiave: l’integrazione dei sistemi e la strategia API (Application Programming Interface). Le aziende che sfruttano le API registrano benefici tangibili, tra cui un aumento della produttività (52%) e un’accelerazione dell’innovazione (47%). L’adozione di una strategia di integrazione proattiva, basata su API e automazione, consentirà ai Cio di trasformare la complessità dell’ecosistema IT in un’opportunità di crescita e innovazione. Solo così sarà possibile costruire una forza lavoro digitale illimitata, capace di rispondere alle esigenze aziendali con agilità ed efficienza”.

Davide Andreoni, senior regional vice president di Mulesoft

LE TENAGLIE DELL’AI PER ESTRARRE VALORE DAI DATI

“L’intelligenza artificiale sta rivoluzionando la gestione dei dati. Non si tratta più solo di immagazzinare informazioni, ma di estrarne valore concreto attraverso applicazioni basate su dati aziendali, che migliorano i processi decisionali, aumentano la produttività e automatizzano operazioni complesse. I nostri clienti hanno necessità di avere fiducia in queste applicazioni e si concentrano quindi sulla governance dei dati e sull’osservabilità dell’AI, a garanzia di risposte accurate e affidabili. Per sfruttare appieno questo potenziale, i Cio devono adottare piattaforme dati moderne basate sul cloud, che garantiscano efficienza, scalabilità e integrazione con le tecnologie AI. La separazione tra storage ed elaborazione ottimizza costi e prestazioni, consentendo una gestione più agile e flessibile delle risorse. Le architetture dati moderne offrono scalabilità, preziosi insight basati sull’AI e una notevole semplificazione gestionale. L’integrazione di dati strutturati e non, a supporto di analisi più approfondite e di una maggiore automazione dei processi, è un’altra delle richieste che ci arrivano dal mercato. Anche le competenze richieste si evolvono: strumenti low-code e no-code democratizzano l’accesso ai dati, consentendo anche a figure non tecniche di estrarre informazioni preziose. I data engineer, invece, necessitano di competenze specifiche in ambito di piattaforme cloud-native, integrazione AI e pipeline di dati in tempo reale. Per preparare la forza lavoro a questa nuova era, la formazione gioca un ruolo fondamentale”.

Snowflake Italia

RIPRENDERE

IL CONTROLLO, TRA SAAS E COSTI DEL CLOUD

“I Cio in Italia sono sempre più sotto pressione per gestire la complessità e i costi degli ambienti Software as-aService (SaaS) e cloud. La rapida proliferazione delle applicazioni SaaS ha decentralizzato i paesaggi IT e ridotto la trasparenza, ponendo rischi significativi per la governance e il controllo del budget. Le grandi aziende usano in media oltre 300 soluzioni SaaS, ma più del 50% delle licenze rimane inutilizzato. Questa inefficienza non solo costa milioni, ma compromette anche la strategia IT.

Le priorità principali sono la trasparenza dei costi, l’ottimizzazione e il controllo strategico delle risorse cloud. Le spese incontrollate per SaaS e multi-cloud rappresentano fino al 30% dei budget IT, principalmente a causa di risorse inutilizzate o sovradimensionate. Per arginare questa crescita incontrollata, è necessaria un’ottimizzazione mirata del SaaS: adeguamento delle licenze, consolidamento delle applicazioni ridondanti e gestione automatizzata. USU affronta queste sfide con soluzioni di gestione IT collaudate. Il nostro Software Asset Management garantisce trasparenza, ottimizza i costi e riduce i rischi, consentendo risparmi misurabili superiori al 30%. I Cio che puntano su una gestione IT sostenibile riacquistano il controllo e massimizzano il valore dei loro investimenti IT”.

USU Italia

2025 13-15 marzo

REGINA PALACE HOTEL, Stresa

Un’iniziativa esclusiva riservata ai Chief Information Officer (CIO)

SESSIONE PLENARIA CON KEYNOTE, TESTIMONIANZE DEI CIO E INTERVENTI DEGLI SPONSOR

CONDIVISIONE DI ESPERIENZE TRA PEERS

TAVOLI DI LAVORO TEMATICI, COORDINATI DAGLI ESPERTI DI CEFRIEL

MOMENTI DI NETWORKING E CONVIVIALITÀ IN COLLABORAZIONE CON

PER INFO SULLE SPONSORSHIP

sales@theinnovationgroup.it www.theinnovationgroup.it

BUONE INTENZIONI, STRATEGIE SBAGLIATE

Secondo uno studio di Bcg, le iniziative di adozione dell’AI si moltiplicano nelle aziende. Molte, però, ancora non vedono un ritorno sull’investimento.

L’intelligenza artificiale non è una bolla: lo abbiamo letto e sentito molte volte. Ma quasi altrettante abbiamo letto e sentito che quest’anno le aziende cercheranno di essere più concrete, di uscire dalle sperimentazioni fatte solo per curiosità e pretenderanno un vero ritorno sull’investimento. Il tema ritorna in un nuovo studio di Boston Consulting Group (Bcg), “From Potential to Profit: Closing the AI Impact Gap”, basato su un sondaggio condotto su oltre 1800 dirigenti e C-level di aziende di 19 Paesi e 12 settori. Ne è emerso che a livello mondiale il 75% delle imprese considera l’AI tra le principali sue priorità per il 2025; in Italia la

percentuale scende ma resta significativa, al 69%. Nel campione di questa ricerca, un’azienda su tre spenderà quest’anno per progetti di intelligenza artificiale oltre 25 milioni di dollari. Le iniziative includono l’acquisto di servizi e tecnologie, la ricerca e lo sviluppo interno, i test, l’implementazione, ma anche la riorganizzazione interna dei ruoli e delle competenze e l’invenzione di nuove offerte. E inizia a maturare interesse intorno agli agenti di intelligenza artificiale (Agentic AI), applicazioni che possono inserirsi nei processi aziendali e compiere azioni: il 38% delle aziende italiane (più della media globale pari al 32%) prevede di valutarli o testarli già quest’anno.

I principi vincenti

Soprattutto negli Emirati Arabi Uniti, in India e in Giappone operano aziende che Bcg definisce “leader” nell’intelligenza artificiale, le quali concentrano oltre l’80% degli investimenti nella riorganizzazione delle funzioni chiave e nella definizione di nuove offerte. Tuttavia “la maggior parte delle aziende punta ancora troppo in basso, dando priorità a iniziative su piccola scala”, scrivono gli autori del report. In Italia il 44% delle aziende ha allocato gli investimenti in AI nell’implementazione, il 29% nella ristrutturazione e il 27% nell’invenzione di nuovi prodotti e servizi. Per Boston Consulting Group, un principio vincente da seguire

Immagine di Freepik

è quello del “10-20-70”: dedicare il 10% degli sforzi agli algoritmi, il 20% ai dati e alla tecnologia e il 70% alle persone, ai processi e alla trasformazione culturale. Inoltre le aziende leader seguono tre strategie per mettere a frutto l’AI: l’hanno portata nelle attività quotidiane per incrementare la produttività del personale (con un guadagno che va dal 10% a 20%); hanno ristrutturato e formato le funzioni aziendali critiche per migliorarne l’efficienza ed efficacia; terza strategia, come si diceva, hanno inventato nuovi prodotti e servizi per costruire un vantaggio competitivo a lungo termine.

Un valore non misurato

Veniamo al punto chiave (e dolente) dell’analisi di Bcg: il ritorno sull’investimento. Il 59% dei dirigenti italiani intervistati ha detto che l’AI è una tecnologia promettente che però non ha ancora generato valore in azienda. Ma prima di puntare il dito contro la tecnologia e i vendor che la propongono, bisogna riflettere su due aspetti. L’AI non ripaga l’investimento fatto quando la si impiega in modo troppo dispersivo, su troppi casi d’uso, mentre le imprese “leader” si concentrano sulla profondità di utilizzo piuttosto che sull'ampiezza, con una media di 3,5 casi d’uso realizzati (contro la media di 6,1 delle altre aziende). C’è un altro fatto che in parte spiega perché i molti dirigenti non vedano un ritorno sull’investimento: a livello mondiale, sei aziende su dieci non monitorano i Kpi finanziari delle proprie iniziative di AI. Il 32% (37% in Italia) addirittura non tiene traccia di alcun Kpi su tali iniziative e, quindi, non sa se l’intelligenza artificiale stia producendo risultati e quali. “Dal confronto con i leader a livello globale emerge chiaramente come l’AI sia al centro delle priorità per migliorare la produttività”, ha commentato Christoph Schweizer, Ceo di Boston Consulting Group. “La nostra analisi mette

in luce una sfida fondamentale: sebbene il 75% dei dirigenti consideri l’AI tra le tre principali priorità strategiche, solo il 25% riesce a generare un valore significativo dalle proprie iniziative in questo ambito. I leader nell’adozione dell’AI hanno trovato la chiave del successo concentrandosi su un numero selezionato di progetti strategici, scalando rapidamente le soluzioni, trasformando i processi chiave, formando le proprie squadre e monitorando rigorosamente i risultati operativi e finanziari”.

Sonni tranquilli per i lavoratori?

Un risultato confortante, tra i dati di questo studio, riguarda l’occupazione. L’intelligenza artificiale non sembra essere una estesa minaccia per i lavoratori, se è vero che solo il 7% dei dirigenti intervistati prevede di fare tagli in seguito all’adozione dell’AI, e la percentuale scende al 3% in Italia. Va detto però che, su questo tema, il report “Future of Jobs 2025” appena presentato al World Economic

Forum presenta un dato un po’ diverso, ovvero il 40% dei datori di lavoro crede di poter tagliare almeno alcune posizioni. Bisognerebbe vedere come la domanda sia stata posta nell’una e nell’altra ricerca, in ogni caso possiamo dire che nella relazione tra AI e occupazione permangono, oggi, incognite e ambiguità. Quanto al solito problema delle competenze, l’Italia non è messa bene: in base allo studio di Bcg, l’83% delle aziende nostrane (versus 72% di media globale) ha difficoltà a reclutare personale specializzato in AI e a potenziare le competenze dei dipendenti. Solo in due aziende italiane su dieci, oggi come oggi, oltre il 25% del personale ha competenze in intelligenza artificiale. I principali rischi associati all’AI sono, invece, i pericoli per la privacy e sicurezza dei dati (per il 62% delle aziende italiane, versus 66% globale), la mancanza di controllo o di comprensione delle decisioni dell’AI (49% e 48%), le sfide normative e di conformità (41% e 44%).

V.B.

Immagine di Freepik

EDIFICI PIÙ SMART E PIÙ SOSTENIBILI

Dall’AI al Property Management “senziente”: l’evoluzione tecnologica investe il settore edilizio e immobiliare, ma anche le infrastrutture strategiche.

Il settore del property management sta vivendo una trasformazione senza precedenti grazie alla convergenza tra intelligenza artificiale, Internet of Things, sistemi Gis (Geographic Information System) e Bim (Building Information Modeling). Se fino a pochi anni fa la gestione degli edifici si basava su modelli reattivi e processi manuali, oggi la tecnologia consente di ottimizzare risorse, ridurre costi operativi e migliorare l’efficienza energetica attraverso metodi di gestione predittivi. Un cambiamento che non riguarda solo i grandi gruppi immobiliari, ma si estende agli operatori di infrastrutture strategiche come torri di telecomunicazione, complessi direzionali e interi ecosistemi urbani. L’intelligenza artificiale è il motore di questa trasformazione. I nuovi sistemi di machine learning analizzano grandi volumi di dati, prevedono guasti, ottimizzano consumi e suggeriscono interventi prima ancora che un problema si manifesti. L’integrazione con le reti IoT consente un monitoraggio continuo, con sensori distribuiti negli edifici, capaci di rilevare variazioni di temperatura, qualità dell’aria, livelli di umidità e vibrazioni strutturali. L’impatto è evidente: meno sprechi, maggiore sicurezza e una gestione più efficiente.

Secondo un’analisi di McKinsey & Company, l’adozione di AI e automazione nel real estate potrebbe portare a una riduzione dei costi operativi compresa tra 15% e 30%. Ma il valore economico non è l’unico driver di questa evoluzione. La crescente

attenzione alla sostenibilità impone un ripensamento radicale della gestione immobiliare: gli edifici sono responsabili di circa il 40% dei consumi energetici globali, con un impatto significativo sulle emissioni di gas serra. L’AI, abbinata a sistemi avanzati di gestione energetica, permette di regolare automaticamente riscaldamento, raffreddamento e illuminazione, adattandosi in tempo reale all’occupazione degli spazi e alle condizioni climatiche. Un cambio di paradigma che sta già portando edifici e città a diventare più intelligenti e autonomi.

Un futuro alle porte

L’integrazione di Gis e Bim sta accelerando ulteriormente questa transizione. Le informazioni geospaziali fornite dai Geographic Information System permettono di contestualizzare gli edifici nell’ambiente circostante, analizzando fattori come esposizione solare, rischio idrogeologico e impatto della

mobilità urbana. Il Building Information Modeling, invece, crea una rappresentazione digitale avanzata degli edifici, permettendo ai gestori di monitorare in tempo reale lo stato delle infrastrutture e di simulare gli effetti di futuri interventi. Queste tecnologie, combinate con dati sociodemografici e psicografici, stanno aprendo scenari inediti per la progettazione e la gestione degli spazi urbani.

Ma la vera rivoluzione potrebbe essere ancora davanti a noi. Se ogni infrastruttura fosse dotata di capacità computazionale autonoma, si potrebbe immaginare un futuro in cui gli edifici non siano solo gestiti dall’AI, ma diventino “senzienti”, in grado di prendere decisioni proprie sulla base delle condizioni ambientali e delle esigenze degli utenti. Un approccio ancora futuribile, ma non così remoto: le prime sperimentazioni in questa direzione stanno già emergendo. Alcuni edifici all’avanguardia sono dotati di sistemi di AI decentralizzata e sono capaci di apprendere dalle abitudini di chi li abita e di adattarsi autonomamente per migliorare comfort ed efficienza. Si parla di autonomous building, strutture che non si limitano a rispondere a comandi predefiniti, ma sviluppano un comportamento adattivo, bilanciando in tempo reale fattori come temperatura, qualità dell’aria, consumi energetici e sicurezza. L’evoluzione del property management si riflette anche sulle competenze richieste ai professionisti del settore. Il tradizionale property manager, incentrato sulla gestione operativa e sulla supervisione contrattuale, sta lasciando spazio a figure in grado di interpretare dati complessi, interagire con sistemi predittivi e governare ecosistemi digitali interconnessi.

Le sfide da superare

L’interoperabilità tra le diverse piattaforme, la necessità di standardizzazione dei dati e preoccupazioni legate alla cybersecurity sono ostacoli da superare. L’implementazione di AI distribuita e infrastrutture con capacità computazionale autonoma solleva

Stefano Brigaglia

interrogativi sulla governance delle decisioni automatizzate e sulla privacy degli utenti. La trasformazione in atto, però, sembra ormai irreversibile. Il futuro del property management non sarà più solo una questione di gestione efficiente degli edifici, ma di creazione di infrastrutture capaci di ap-

prendere, adattarsi e persino interagire con l’ambiente circostante. Un’evoluzione che potrebbe portare alla nascita di città in cui ogni elemento – edifici, reti di telecomunicazione, spazi pubblici – diventi un’entità digitale connessa e intelligente, capaci di auto-ottimizzarsi. Se l’AI ha già rivoluziona-

to il settore immobiliare, la prossima sfida sarà definire il confine tra edifici intelligenti e infrastrutture autonome, in un equilibrio tra innovazione e sostenibilità urbana.

Stefano Brigaglia, AI, data science & location intelligence partner di Jakala

NEL CUSTOMER VALUE MANAGEMENT CONTANO I RISULTATI

Nel Customer Value Management (Cvm), cioè nella gestione del valore generato per il cliente, l’intelligenza artificiale permette di utilizzare un nuovo approccio che in Jakala chiamiamo “Result as A Service” e che ci caratterizza. Significa, in sostanza, poter garantire impatto e risultati concreti e misurabili nella gestione del Cvm utilizzando appunto l’AI. Qui entra in gioco J-AgenticCRM, una suite all’avanguardia progettata per ridefinire la gestione del “viaggio” del cliente (customer journey) attraverso una piattaforma integrata e multipiattaforma. La suite è pensata per offrire massima flessibilità e integrazione ma soprattutto un’adozione rapida, ed è compatibile con le tecnologie di principali vendor, tra cui Adobe, Aws, Google, Microsoft e Salesforce. Il cuore pulsante della soluzione è la sua capacità di inserire agenti virtuali o automatizzati lungo tutto il customer journey. Questi agenti svolgono ruoli chiave nelle diverse fasi del percorso del cliente, massimizzando i risultati in diversi ambiti. Nell’acquisizione (acquisition) innanzitutto permettono l’identificazione dei lead più promettenti: tramite l’arricchimento con le basi dati proprietarie J-Who, si individuano i profili dei migliori clienti e, con un lookalike geografico, i prospect più promettenti. Inoltre consentono di personalizzare le campagne di marketing per aumentare l’engagement mirando le campagne di Performance Media sui micro-territori e specifici target cliente. In fase di conversione (conversion) gli agenti possono eseguire ricerche tramite prompt (anche vocale) per favorire search e conversion nell’e-commerce, e inoltre possono preparare e gestire, tramite app di clienteling, le visite dei consumatori in punti vendita o agenzie (per esempio, assicurazioni). Nella retention, gli agenti possono individuare in automatico i comportamenti dei clienti a rischio di abbandono, possono fare orchestrazione e targeting con campagne personalizzate (oggetto, tone of voice, creatività) e personalizzare i programmi fedeltà. Nel customer care, infine, possono dare supporto al servizio clienti, garantendo risposte rapide e precise, o automatizzare le attività per migliorare la risoluzione dei problemi e la soddisfazione complessiva. L’adozione di J-AgenticCRM può avere un rilevante impatto sul business, con vantaggi che spaziano dall’efficienza operativa (automazione e integrazione riducono il tempo e le risorse necessarie per gestire le interazioni con i clienti) alla possibilità di mettere il cliente al centro di ogni strategia (customer centricity), dalla scalabilità e modularità (la soluzione è indicata sia per le piccole sia per le grandi imprese e può adattarsi alle esigenze del business) agli insight strategici, poiché gli strumenti di analisi integrati forniscono dati dettagliati e utili per prendere decisioni informate. J-AgenticCRM sfrutta un’architettura moderna basata su microservizi containerizzati, implementati per garantire scalabilità, affidabilità e gestione efficiente delle risorse. Il sistema adotta un approccio di intelligenza artificiale distribuita con modelli pre-addestrati per l’elaborazione del linguaggio naturale e il machine learning. La suite integra un orchestratore di modelli linguistici avanzati (Large Language Model), progettato per ottimizzare l’interazione tra i moduli di controllo, contesto e compliance. I modelli di controllo monitorano e regolano le risposte degli agenti virtuali per garantire coerenza operativa, mentre quelli di contesto permettono agli agenti di adattarsi dinamicamente a specifiche esigenze dei clienti e alle condizioni di interazione in tempo reale. I modelli di compliance, infine, garantiscono che tutte le interazioni rispettino le normative vigenti e i requisiti di sicurezza dei dati. La suite integra un bus di messaggistica asincrono per abilitare la comunicazione in tempo reale tra i vari moduli e supportare flussi di dati ad alte prestazioni. Inoltre, la soluzione utilizza tecnologie di orchestrazione cloud per offrire flessibilità e un’integrazione fluida con ecosistemi tecnologici esistenti. Questa configurazione permette una gestione dinamica e adattiva degli agenti virtuali, migliorando l’efficacia delle interazioni con il cliente e ottimizzando l’operatività su larga scala.

Marco Di Dio Roccazzella, general manager di Jakala

Marco Di Dio Roccazzella

LA GENAI È ALLEATA DELLO SHOPPING

Si afferma, anche in Italia, l’uso di servizi basati su Large Language Model funzionali alle scelte di acquisto. E i motori di ricerca che fine faranno?

Imotori di ricerca “tradizionali”, sono ancora efficaci per i consumatori? Una domanda lecita. L’intelligenza artificiale generativa sta entrando sempre di più nell’e-commerce e anche nel commercio tradizionale, influenzando le scelte di acquisto online e offline. Come noto, l’uso del machine learning “classico”, precedente ai Large Language Model, è ormai consolidato nel settore del commercio e in particolare nei motori di raccomandazione che personalizzano offerte e suggerimenti di acquisto. Inoltre i chatbot, inizialmente basati su meccanismi più semplici (una knowledge base e una serie di combinazioni di

domanda/risposta predefinite), grazie ai modelli di AI generativa negli ultimi anni si sono trasformati in “assistenti virtuali” capaci di dare risposte complesse. La tendenza più recente è quella di una convergenza tra le funzionalità dei motori di ricerca e quelle dei chatbot basati su LLM. Questa convergenza, se così vogliamo chiamarla, sta assumendo diverse forme, dall’integrazione di funzionalità di AI in motori di ricerca già esistenti (come Bing Chat di Microsoft) ai servizi chatbot GenAI a sé stanti, usati non più solo per generare contenuti ma anche per fare ricerche sul Web (ne sono esempio Google Gemini, ChatGpt

o Perplexity.ai). E ancora, OpenAI ha presentato come prototipo SearchGpt, un “ibrido” tra motore di ricerca e chatbot, e più di recente ha lanciato un agente di AI (battezzato Operator) che può svolgere azioni sui siti Web come fare acquisti o prenotazioni. In sostanza, nel commercio l’intelligenza artificiale non è più solo uno strumento usato dalle aziende per la generazione della domanda e la fidelizzazione (motori di raccomandazione, sconti personalizzati) o per il supporto clienti e il post vendita (chatbot), ma viene anche usata dai consumatori in modo autonomo, per fare ricognizioni sulle offerte disponibili, per confrontare prezzi e caratteristiche tecniche e per avere consigli personalizzati.

Lo spaccato italiano

Sta succedendo anche in Italia, come

Immagine di Freepik

evidenziato da un nuovo studio dell’Osservatorio Italiano per il Commercio Elettronico delle Pmi (Oice), realizzata con il supporto di Gbs Group e in collaborazione con l’Università degli Studi di Torino. Dai questionari compilati da 807 consumatori italiani è emerso che i motori di ricerca classici vengono ancora usati per trovare prodotti o informazioni online, in particolare Google (preferito dall’84,8% del campione) e a seguire Bing (10,8%) e Yahoo (4,4%). Allo stesso tempo più di uno su tre, il 35,6%, usa per le stesse ragioni ChatGpt o SearchGpt, mentre il 14,3% si rivolge a Gemini, il 10,6% a Microsoft Copilot e il 4,4% a Perplexity. C’è però anche un 35,1% che dichiara di non aver mai usato questi strumenti. Ma perché non limitarsi al classico motore di ricerca o a leggere le recensioni di un marketplace? Il 31,4% degli intervistati ritiene che l’AI dia risultati migliori, vista la possibilità di affinare e contestualizzare le ricerche; il 23% pensa di trovare risposte più rapidamente; il 20,9% gradisce ottenere informazioni dirette, senza dover uscire dalla pagina seguendo un link; il 20,9% apprezza le risposte personalizzate. Soltanto il 2,2% pensa che l’intelligenza artificiale non dia alcun vantaggio e l’1,6% non ne conosce le differenze rispetto ai motori di ricerca tradizionali. In generale, gli strumenti di AI sono apprezzati dalla stragrande maggioranza dei consumatori del campione, oltre l’80%: per il 49,3% sono “utili” e per un ulteriore 32,1% “molto utili”, mentre solo il 16% li considera poco o per nulla utili. Tendenzialmente, il valore percepito è superiore nelle attività di ricerca di informazioni, confronto tra prodotti (prezzi e caratteristiche tecniche) e risoluzione di problemi. Viene comunque considerata utile, ma un po’ meno, per le funzioni di personalizzazione, il supporto in ordini e pagamenti e la ricerca di recensioni.

Strumenti complementari

“I dati confermano un aumento significativo nell’uso di chatbot, assistenti virtuali e motori di ricerca intelligenti, e come questi stiano trasformando settori strategici come il retail, l’e-commerce e i servizi post-vendita”, ha commentato Luca Alberigo, presidente dell’Oice. “Tuttavia, nonostante la capacità di semplificare i processi decisionali e personalizzare l’esperienza utente, permangono sfide importanti legate alla trasparenza degli algoritmi, alla limitata fiducia nella gestione dei dati personali e alla necessità di una maggiore personalizzazione delle esperienze. Emerge, inoltre, una forte complementarietà tra strumenti tradizionali e tecnologie AI, in linea con la tendenza all’omnicanalità nei comportamenti di acquisto”. A proposito di omnicanalità, l’indagine dell’Oice ha anche evidenziato che (pur con qualche differenza tra uomini e donne, su base geografica e anagrafica) nella stragrande maggioranza dei casi gli italiani fanno acquisti online ma continuano anche a comprare nei negozi. Non stupisce riscontrare che i consumatori più giovani sono più propensi all’uso dei canali digitali, mentre i più “senior”tendono ad acquistare sia online sia offline. Va detto comunque che, a livello mondiale, i motori di ricerca restano uno strumento piuttosto usato per trovare informazioni e consigli per gli acquisti, ma non certo il più importante. Come riporta Statista , nel 2024 sono stati utilizzati a questo scopo dal 12% dei consumatori, mentre il 32% si è rivolto a un marketplace (come Amazon, per citare solo il più importante) e altri hanno cercato informazioni sui siti Web delle aziende retailer o su canali directto-consumer. Sarà interessante vedere se già quest’anno statistiche di questo tipo prenderanno in considerazione anche le piattaforme di AI come punto di partenza per lo shopping.

Il futuro del commercio

Nei prossimi anni, con tutta probabilità, i consumatori continueranno ad aver bisogno di strumenti che li aiutino a fare acquisti. Come evidenziato da uno studio di Accenture del 2024, condotto su 19mila consumatori, l’eccesso di offerta sui marketplace e sui siti aziendali porta spesso ad abbandonare il carrello e a rinunciare all’acquisto online (succede almeno una volta ogni tre mesi al 74% dei consumatori).

Questa “paralisi della scelta” si verifica non solo per le categorie merceologiche più complesse, come elettronica e informatica, ma anche per l’abbigliamento e i prodotti alimentari. Accenture si dice convinta delle opportunità della GenAI applicata al commercio, in particolare nei motori di raccomandazione e nel supporto alle decisioni di acquisto. Guardando ai prossimi anni, è facile immaginare che per non perdere rilevanza i motori di ricerca tradizionali dovranno inglobare funzionalità basate su LLM, a prescindere da come continueremo a chiamarli. Parallelamente a ciò, gli strumenti di intelligenza artificiale dovranno migliorare in accuratezza, efficacia, affidabilità e privacy. Tra chi ha partecipato allo studio dell’Oice, solo il 27,1% pensa che gli assistenti virtuali di GenAI sappiano dare risposte risolutive “sempre” o “spesso” (per il 40,9% danno risposta a un problema “a volte”, per il 20,3% “raramente”, per l’11,3% “mai”), e solo il 43,7% li ritiene affidabili “sempre” o “spesso”. I consumatori vorrebbero veder migliorare questi strumenti specie per quanto riguarda l’accuratezza delle risposte (fatto importante per il 30,5% degli intervistati), la capacità di contestualizzarle e di personalizzare i contenuti, l’attenzione alla privacy e alla sicurezza dei dati, la comprensione linguistica e la fluidità delle conversazioni.

Valentina Bernocco

LA MANIFATTURA È SEMPRE PIÙ SMART

La digitalizzazione procede anche nelle imprese industriali italiane. Le testimonianze di Acciaieria Arvedi e Ansaldo Energia.

Una rivoluzione innescata dall’Internet of Things, dall’analisi dei dati, dalla robotica e dall’intelligenza artificiale: sono alcune delle tecnologie che stanno trasformando l’industria manifatturiera. Ne abbiamo discusso con alcuni addetti ai lavori, che su questi temi interverranno allo “Smart Manufacturing Summit 2025” organizzato da TIG il 2 aprile a Milano. “Come azienda machine-intensive per prodotto e processo seguito, abbiamo un naturale orientamento verso il paradigma 4.0”, ha esordito Omar Moser, head of TransformationsInnovations di Acciaieria Arvedi. “Non si tratta solo di aderire alle tendenze tecnologiche che gravitano intorno al 4.0, ossia la raccolta e analisi del dato, l’interfacciamento macchina a layer più bassi con integrazione verso il Mes (Manufacturing Execution System, NdR) o l’Erp. Quello che vedo è piuttosto la necessità di orchestrare le attività, posizionando queste iniziative in un contesto strategico basato sul data model dell’azienda. Il nostro percorso punta alla convergenza,

a una maggiore integrazione di IT e OT, in modo da posizionare queste iniziative all’interno di un programma strutturato, evitando azioni indipendenti che portino risultati fini a sé stessi”. Oggi molte realtà industriali italiane si interrogano su come affrontare con successo un percorso verso l’Industria 4.0. I benefici di un approccio digitale vanno dal migliore governo dei processi alla possibilità di dotarsi di informazioni più efficaci per obiettivi di efficientamento energetico e ottimizzazione dei processi manifatturieri. Importante è avviare una digitalizzazione coerente con le esigenze del business, sapendo fin dall’inizio quali saranno i dati da raccogliere e analizzare, e quali gli aspetti normativi e di compliance da considerare, legati al trattamento di dati. Tutto questo prelude agli sviluppi futuri, come quelli legati all’intelligenza artificiale.

Superare il passato

Con l’avvio del primo Piano Impresa 4.0, Ansaldo Energia è stato nel 2018 il primo Lighthouse Plant (cioè un im-

pianto produttivo totalmente basato su tecnologie 4.0) italiano a ricevere l’autorizzazione dell’allora Ministero dello sviluppo economico, oggi Ministero delle Imprese e del Made in Italy, e a ricevere 14,15 milioni euro di finanziamenti per una profonda rivisitazione dei processi in chiave digitale. “Siamo tra i primi nel dimostrare che la digitalizzazione può ottimizzare i processi industriali, anche in impianti caratterizzati da una significativa presenza di tecnologie legacy”, ha detto Stefano Santucci, Cio di Ansaldo Energia. “Le fabbriche con diversi anni di storia dispongono spesso di macchinari che non sono stati progettati per essere connessi e condividere dati. Per questo abbiamo lavorato per integrare sensori in alcuni di essi prestando grande attenzione al tema della cybersecurity industriale e alla safety delle persone. Siamo stati tra i primi ad abbracciare il paradigma dell’Industria 4.0 avviando un percorso che continua a evolversi nel tempo. Abbiamo iniziato il processo di digitalizzazione della supply chain e da sempre effettuiamo manutenzione predittiva delle nostre soluzioni, estendendola ora anche ai macchinari delle nostre fabbriche, per garantire ai nostri clienti standard elevati e qualità della produzione”. I benefici

ottenuti da Ansaldo Energia sono stati un’ottimizzazione dei processi esistenti, una maggiore velocità e anche una superiore qualità del lavoro. L’avvio del Programma “Digital X Factory” ha portato alla collaborazione con alcune startup chiamate a realizzare tecnologie innovative per la digitalizzazione della fabbrica. Un capitolo importante è stato poi quello della formazione e delle competenze digitali del personale di fabbrica.

Dal data-driven all’AI

Il data-driven manufacturing è un approccio alla produzione in cui le decisioni e i processi sono guidati dai dati. In questo contesto, le informazioni raccolte da sensori, macchine e sistemi vengono analizzate per ottimizzare le operazioni e ridurre i costi (identificando le inefficienze e prevenendo i guasti) ma anche per migliorare la qualità del prodotto e adattare l’offerta alle mutevoli esigenze del mercato. Aumentano, così, l’efficienza, la competitività e l’agilità del processo produttivo. “L’accuratezza del dato è molto importante”, ha sottolineato Moser, “per alimentare i tradizionali cruscotti analitici e ancora di più per lavorare con l’intelligenza artificiale, sia al livello base di machine learning e deep learning sia ragionando in ottica di AI generativa, da applicare ad analisi predittive. Il dato non va semplicemente raccolto, ma deve anche essere contestualizzato e processato, filtrato e pulito all’origine. L’utilizzo dell’edge computing permette di eseguire analisi di correlazione tra i dati ed eventi dei processi, elaborando efficacemente i dati in locale. In generale, per un migliore governo, le iniziative inerenti l’AI rientrano in un programma chiamato ArIA (Arvedi IA)”.

Oggi la curva di interesse per l’intelligenza artificiale è al suo massimo: il tema non è più solo pertinenza dell’IT ma è stato sposato dal business.

Nel mondo manifatturiero automatizza-

re e remotizzare sta diventando un tema comune, che va incontro alla necessità di ridurre la manodopera in loco, efficientare i consumi e ridurre le emissioni. Gli edge data center, poi, sono l’ideale per processare i dati in loco, grazie alla maggiore velocità di elaborazione e trasferimento; inoltre in questo modo la proprietà sul dato è mantenuta in casa e migliora la compliance alle norme.

Attenzione alla sicurezza dell’OT

La cybersecurity è una componente fondamentale dell’industria 4.0, e non va dimenticata la componente di tecnologia operativa (OT), oltre a quella informatica (IT). In un ambiente dove le macchine e i sistemi sono interconnessi, una violazione informatica può causare interruzioni significative, perdita di dati sensibili e danni economici. Inoltre, garantire la sicurezza dei dati è essenziale per mantenere la fiducia dei clienti e rispettare le norme. Nelle industrie italiane si osserva un accresciuto interesse per questi temi. “Da un anno a questa parte abbiamo intrapreso un percorso più spinto di integrazione dell’OT cyber-

security”, ha testimoniato Moser. “Oggi, anche grazie all’arrivo della direttiva Nis2, possiamo sfruttare le competenze IT mettendole a disposizione del mondo OT, creando maggiore consapevolezza sulla tematica. Competenze e requisiti specifici ci arrivano sempre di più dai clienti, soprattutto quelli del mondo automotive, da più tempo sensibili a questi temi. Abbiamo optato per la certificazione Tisax (Trusted Information Security Assessment Exchange – Enx Association) e lanciato altre iniziative per adeguare la nostra postura in ambito cybersecurity”. In Ansaldo Energia, dove nel tempo è stato fatto molto per la sicurezza dell’IT, oggi c’è massima attenzione per gli ambienti OT. “Da più di un anno ogni gara e ogni interlocuzione con i clienti avvengono portando al tavolo specialisti di OT cybersecurity”, ha detto Monti. “I clienti richiedono sempre di confrontarsi con il nostro team di OT security e in alcuni casi ci domandano anche specifici servizi per la gestione della sicurezza. Perché tutto funzioni, i rischi vanno mitigati sia in ambito IT che in quello OT. Tuttavia nell’ambito OT si trovano comunemente molteplici soluzioni di fornitori diversi e con l’introduzione della Nis2 sarà necessario controllare l’intera filiera. La mitigazione del rischio richiede di collaborare sia con i clienti sia con i fornitori, includendo componenti cyber e sviluppando nuovi servizi. In passato non tutti i clienti, ad esempio, richiedevano firewall industriali o dispositivi per il controllo del traffico all’interno di un sistema industriale: oggi lavoriamo proprio in questa direzione. Abbiamo avviato con l’Università di Genova un progetto di ricerca, finanziato grazie ad un bando di Start 4.0 (Centro di Competenza nato dal piano Industria 4.0 nel 2019), nostro partner strategico anche per la formazione in ambito cybersecurity sia per l’IT sia per l’OT”. Elena Vaciago

Immagine di jcomp su Freepik

DAL DATO

AI PROCESSI DIGITALI

Dati, AI, competenze: sono tutti aspetti importanti nel modello dello smart manufacturing. L’esperienza di I-Tech.

Qu ali sono oggi le opportunità e le sfide legate ai percorsi di digitalizzazione nel mondo industriale, quali i percorsi da seguire per portare l’intelligenza artificiale in azienda? E quanto è importante aggiornare le competenze? Di questi temi, critici per la competitività futura delle nostre imprese, abbiamo parlato con Bruno Bettelli, presidente & Ceo I-Tech e presidente di Federmacchine, che sarà ospite dello “Smart Manufacturing Summit 2025”, organizzato da TIG a Milano i prossimi 1 e 2 aprile.

Quale strategia di digitalizzazione state seguendo in I-Tech?

I-Tech progetta, produce e vende sistemi e impianti per la preparazione e

distribuzione intralogistica di prodotti liquidi, coloranti liquidi o additivi chimici, inchiostri, smalti, pitture e vernici. Oggi il digitale attraversa tutto il modo di lavorare: noi siamo un’azienda che, come principale attività, propone efficientamento e automazione di processi industriali realizzando macchine e impianti per lo smart manufacturing. Siamo fautori di questa evoluzione presso le fabbriche dei clienti, senza esimerci da automatizzare parte delle nostre attività: ad esempio, dal 2017 abbiamo adottato soluzioni di prototipazione rapida avanzata con stampanti 3D e la successiva evoluzione è stata la manifattura additiva, per una parte di produzione di componenti ad uso industriale. In passato davamo priorità a singoli sottoprocessi, relativi alla preparazione di semilavorati

presso i nostri clienti, mentre l’evoluzione più recente è stata quella di rendere più snello, lean ed efficiente il processo di trasferimento dei liquidi dalla zona di preparazione al punto di utilizzo. Data la necessità di efficientare e ridurre i rischi per le persone, abbiamo realizzato tubazioni aeree che sono in realtà sistemi integrati con la lavorazione, di cui possiamo misurare l’efficienza. Tramite veicoli a guida autonoma, l’intera movimentazione è automatizzata e l’attività costantemente monitorata.

Va considerato che smart manufacturing significa digitalizzare e interconnettere il più possibile i processi industriali, anche dove sono svolte attività manuali, che possono essere gestite in modo ottimale con il digitale. Ad esempio, abbiamo mappato sul working progress l’avanzamento delle commesse, associandole a QRcode che identificano l’attività svolta nello specifico momento. Un nostro software di gestione della produzione

Immagine di Freepik

denominato “Limes (Lean Industry Manufacturing Execution Software) acquisisce tutte le fasi della lavorazione associando i relativi tempi, misurando gli indicatori di performance chiave e riportando il livello di efficienza con cui stiamo svolgendo determinati processi.

Quanto è importante un approccio data-driven nel manifatturiero?

Il nostro Mes, partendo dalla raccolta di dati, ci permette di generare informazioni critiche: stiamo parlando di grandi quantità di dati che, interpolati tra loro, descrivono cosa sta succedendo sulla macchina, quali sono le attività o le eventuali zone di inefficienza, quali gli aspetti da correggere. In questo modo i nostri interventi sono immediati, precisi e risolutivi. Il prossimo passo sarà implementare modelli predittivi, modelli con reti neurali e intelligenza artificiale istruiti per automatizzare le retroazioni richieste.

Come vi state muovendo sull’AI?

Nel 2024 abbiamo iniziato un progetto, della durata di tre anni, teso a imple-

mentare in modo approfondito le soluzioni di intelligenza artificiale in azienda. Ci servirà sia per l’offerta proposta ai clienti sia al nostro interno, ad esempio per agevolare l’introduzione di nuove figure professionali tramite strumenti di supporto all’apprendimento. Oggi digitalizzare l’azienda significa raccogliere il sapere delle persone, riportare tutto il know-how in un database per fruirne in qualsiasi momento e luogo. Abbiamo scelto una piattaforma AI che stiamo istruendo, fornendole input manuali, documenti, scambi di comunicazioni con i clienti, in modo che il sistema, apprendendo da questi dati, impari a fornire le risposte corrette. La capacità di apprendimento è istantanea, ma bisogna poi perfezionare questo apprendimento tramite l’affinamento continuo dell’output. Il nostro chatbot, denominato “It.a.l.o” (I-Tech Artificial Logged Operator), sarà un assistente virtuale ai clienti erogato come servizio “H24”, quindi sarà anche un primo approccio alla servitizzazione. Darà un enorme supporto nella prima definizione di un problema e nell’erogazione della soluzione. Ci aspet-

tiamo che sarà valido nell’80% dei casi, mentre nel restante 20% rimarrà l’intervento in loco del nostro tecnico.

Inoltre, la soluzione metterà a disposizione informazioni a supporto di tutta l’operatività interna, un tutor che affiancherà i nuovi dipendenti.

Digitalizzare aiuta a distillare il sapere, a farlo risiedere in un unico contenitore da cui poi attingere ogni volta che serve. Noi, essendo all’inizio del percorso, stiamo approfondendo i diversi ambiti applicativi con degli iter formativi, rivolti per esempio alla rete commerciale, all’area degli acquisti, alla supply chain, alla ricerca e sviluppo. In previsione, con la sostituzione del nostro Erp ci aspettiamo un utilizzo maggiore dell’AI per ottimizzare i processi produttivi, la gestione e manutenzione degli asset e per il monitoraggio della sicurezza dei luoghi di lavoro.

Quali sfide incontrate in questi percorsi di digitalizzazione?

I problemi che incontriamo sono legati soprattutto alle persone, all’impatto della nuova centralità del dato sulle abitudini degli operatori. L’arrivo di questi strumenti richiede la modifica di alcune abitudini, gli operatori tendono a vederne poco l’utilità. L’obiettivo dev’essere, quindi, accompagnare queste innovazioni facendone capire l’importanza, in linea con la strategia aziendale, e ciò significa coinvolgere e cercare la massima collaborazione di tutti. All’inizio è importante che il nuovo modello lavorativo affianchi l’operatività tradizionale e che siano ben riconoscibili i benefici che ne derivano: ad esempio, dimostrare come l’automazione, la raccolta di dati e la generazione di informazioni possano aiutare a migliorare la qualità dell’ambiente e del lavoro per l’operatore stesso, che diventa quindi promotore del nuovo paradigma.

Elena Vaciago

Bruno Bettelli

L’AUTOMAZIONE È COLLABORATIVA

Il settore dell’automazione industriale ha rallentato, ma il digitale e il modello “5.0” possono spingere la ripresa. Il punto di vista di Omron.

Il 2024 è stato un anno di transizione per il mercato dell’automazione industriale in Italia, dopo un 2023 caratterizzato da una crescita significativa, pari al 14%. Ma già dal secondo semestre del 2023 si erano visti segnali di un rallentamento della crescita, dovuto principalmente a fattori macroecono -

mici come l’inflazione, alle tensioni geopolitiche e a incertezze legate alla supply chain. Alla luce di questo scenario, Anie Automazione ha previsto per il 2024 una flessione del 6% rispetto all’anno precedente e il dato è allineato ad altri indicatori dell’andamento della produzione industriale in Italia e anche a livello di Unione Europea (dati Eurostat). “Già negli anni precedenti si erano accumulati alti livelli di stock e gli elementi di incertezza complessi hanno influito sulla contrazione registrata”, commenta Donato Candiano, general manager di Omron Italia, società che sviluppa tecnologie per l’automazione industriale e il settore sanitario e componentistica elettronica. “Permangono diversi fattori di incertezza, in particolare la persistenza delle tensioni geopolitiche e gli effetti delle politiche monetarie restrittive. Tuttavia per il 2025 è ragionevole stimare una ripresa del mercato, magari non troppo vigorosa, ma dettata dai primi effetti della transizione a Industria

5.0 e dal dinamismo di alcuni comparti, come il farmaceutico, il packaging e il food, nei quali noi siamo particolarmente presenti”.

La spinta del digitale

A nie individua nell’innovazione uno dei possibili traini per la ripresa, grazie all’interesse delle imprese verso tecnologie come il metaverso industriale, il 5G e l’intelligenza artificiale, che (non da oggi) promettono di trasformare i processi produttivi. Su questa scia, Omron ha provato a evidenziare alcune linee di sviluppo dal potenziale interessante, nel quale si inseriscono le sue soluzioni per il mondo industriale italiano. Fra i trend di quest’anno, un ruolo di rilievo è occupato da tutto ciò che riguarda l’interazione uomo-macchina e quella machine-to-machine, oltre che i processi data-driven. “Stiamo andando nella direzione del superamento del concetto di semplice manutenzione predittiva, con lo sviluppo di soluzioni edge per poter attivare sempre più controlli e interventi da remoto”, ha osservato Candiano. “Questa evoluzione apre per i produttori Oem (Original Equipment Manufacturer, NdR) opportunità di business legate alla servitizzazione”. Le funzionalità data-driven integrate nei controllori (come Automation Playback negli X25 di Omron) consentono di registrare e memorizzare i dati in tempo reale, migliorando la capacità dei tecnici di analizzare e verificare anomalie sulle linee di produzione. La combinazione di sensori avanzati, tecniche di controllo e analisi dei dati permette ai sistemi di apprendere dal proprio ambiente e apportare modifiche anche in modo autonomo.

L’AI in produzione

A nche nell’ambito dell’automazione industriale, non mancano di farsi sentire gli effetti della diffusione dell’intelligenza artificiale. In particolar modo, l’au-

Donato Candiano

SARÀ

L’ANNO DELLA RIPRESA?

Un mercato interno del valore di 8 miliardi di euro nel 2023, a cui si sommano circa 2 miliardi di euro di export: tanto vale il settore italiano dell’automazione industriale secondo i dati di Anie, la Federazione Nazionale delle Imprese Elettrotecniche ed Elettroniche, aderente a Confindustria. Nel 2023 il fatturato aggregato ha registrato una crescita dell’11,7% sull’anno precedente, beneficiando di una domanda vivace soprattutto sul fronte interno. In particolare, le categorie più richieste e acquistate dalle imprese italiane sono state le tecnologie di meccatronica e automazione discreta (azionamenti elettrici) e quelle di networking e controllo (interfacce uomo-macchina, controllori logici programmabili, Pc industriali).

La Lombardia è il mercato di destinazione del 30% circa delle vendite nazionali, mentre le esportazioni sono dirette soprattutto su Germania, Stati Uniti, Francia e Regno Unito. In assenza di dati consolidati sul 2024, che arriveranno, Anie ha preannunciato che probabilmente la tendenza è stata negativa. “Dopo un anno decisamente sottotono”, ha dichiarato il presidente di Anie, Andrea Bianchi, “nel 2025 il settore dell’automazione si trova di fronte alla necessità di raccogliere le spinte di una auspicata crescita, continuare a smorzare molteplici e impreviste sollecitazioni e metabolizzare rapidi cambiamenti di prospettiva”.

mento della complessità e della diversificazione degli ambienti di produzione comporta la necessità di far evolvere i sistemi di controllo tradizionali. Da qui nascono i nuovi ambienti produttivi intelligenti, capaci di diventare sempre più adattivi e di rispondere dinamicamente alle variabili di processo. Le tecnologie di visione sono una delle applicazioni più concrete, già oggi, su questo fronte. Gli algoritmi avanzati e

il deep learning vengono impiegati per classificare prodotti difficili da distinguere tra loro, per aiutare ad adattarsi alla variabilità delle condizioni produttive e per ridurre l’individuazione di falsi scarti. “Stiamo andando verso forme di produzione meno massificate e maggiormente customizzate”, ha raccontato Candiano, “ed è per questo che crescono di importanza gli strumenti e le applicazioni di robotica collabora-

tiva e di co-creazione. Questo approccio, tra l’altro, favorisce l’innovazione all’interno dell’ecosistema aziendale, ma implica anche la condivisione delle conoscenze e delle competenze di partner esterni. Noi favoriamo la modalità dell’interscambio attraverso laboratori di proof-of-concept e a pplication technical center a servizio dei clienti anche direttamente in Italia”.

Roberto Bonino

IL MACHINE LEARNING ENTRA IN FABBRICA

Nel campo dell’automazione, l’apprendimento automatico e i sistemi di AI trovano diversi impieghi. Questi i principali, secondo la tassonomia di MarketsandMarkets:

• Automazione di processo “intelligente”. La macchine possono “apprendere” sulla base dei dati, riconoscere schemi ricorrenti ed eventuali inefficienze, per ottimizzare di conseguenza i processi. Il machine learning permette anche ai sistemi industriali di adattarsi a condizioni mutevoli.

• Manutenzione predittiva. Analizzando grandi quantità di dati, provenienti da sensori e log, è possibile capire dove intervenire preventivamente per evitare guasti e problemi futuri.

• Controllo qualità. Algoritmi e sistemi di visione artificiale possono essere allenati per il riconoscimento di difetti e anomalie di produzione. Si riduce, così, il lavoro manuale e il rischio di errore.

• Robot “adattivi”. I sistemi robotici basati su intelligenza artificiale sanno imparare dall’esperienza, adattarsi all’ambiente e svolgere compiti complessi.

• Ottimizzazione della supply chain. Il machine learning aiuta a identificare colli di bottiglia, a ottimizzare i livelli di magazzino, a ridurre i costi e a soddisfare la domanda.

• Collaborazione uomo-macchina. Interfacce intelligenti e capacità di comprensione del linguaggio naturale migliorano le comunicazioni e i coordinamento tra il personale e le macchine.

CON LE GIUSTE INFORMAZIONI SI LAVORA MEGLIO

Insight ha creato, su tecnologia Microsoft, una soluzione che genera in automatico riassunti e documenti sulle riunioni tecniche.

Dal caffè alla preparazione e conservazione dei cibi, passando per la cura del bucato: Electrolux Professional Group è un nome di riferimento per i settori ristorazione, coffee & beverage e lavanderia professionale. Con circa 4500 dipendenti nel mondo, di cui un migliaio in Italia, l’azienda si occupa di sviluppare soluzioni, prodotti e componenti che sempre più includono elementi tecnologici innovativi, oltre che un’attenzione alla sostenibilità ambientale. Un recente progetto ha portato benefici di produttività e qualità del lavoro: tutto è nato dall’esigenza di poter distribuire e rendere ricercabili, dopo le riunioni di contenuto tecnico, le informazioni condivise durante le riunioni stesse. I riepiloghi devono contenere imma-

LA SOLUZIONE

Attraverso un flusso di approvazione gestito con Microsoft Power Automate, EPROmeet accede agli OpenAI Services di Microsoft Azure e interroga le GraphAPI di Teams per estrarre registrazione e trascrizione del meeting. Con la GenAI crea, poi, un documento completo di sintesi della discussione, immagini e punti elenco.

gini o altri documenti condivisi per essere di supporto alla produttività e all’avanzamento delle attività, e inoltre spesso è necessario evidenziare con chiarezza i punti in sospeso e le azioni concordate da intraprendere. In precedenza erano i collaboratori a dover redigere manualmente i report sulle riunioni: un lavoro oneroso che portava via molto tempo e si traduceva spesso in ritardi e informazioni incomplete.

È sorta quindi l’esigenza di distribuire e rendere ricercabili le informazioni in modo più semplice e veloce, tramite riassunti e documenti che avrebbero dovuto avere strutture e formattazioni specifiche. L’azienda si è quindi rivolta a Insight, che in qualità di partner del progetto ha realizzato una soluzione capace di rispondere alle necessità di Electrolux Professional Group: EPROmeet, questo il nome, si basa su tecnologie di automazione e intelligenza artificiale e sul cloud di Microsoft. La soluzione automaticamente crea una registrazione e trascrizione del meeting per poi confezionare, usan-

do l’AI generativa, un documento di sintesi completo di immagini (quelle mostrate durante la riunione) e punti elenco (per evidenziare i successivi passi da compiere o temi rimasti in sospeso) e conforme ai template approvati dall’azienda. I documenti risultano poi fruibili e interrogabili da tutti gli utenti aziendali tramite Sharepoint. “Insight ha saputo ascoltare e rispettare i principi di attenzione verso i clienti, fiducia, coraggio e sostenibilità che guidano la nostra azienda”, testimonia Roberta Mattera Russo, digital transformation & AI project manager di Electrolux Professional Group. “Questa comune attitudine ci ha consentito di offrire a tutti i colleghi uno strumento che aumenta la loro produttività e la qualità del loro lavoro grazie alle potenzialità della Generative AI”. Anche Stefano Desiderio, director group IT business solutions & platforms di Electrolux Professional Group, esprime apprezzamento per il partner tecnologico del progetto: “Oltre alle capacità e agli skill che davo per garantiti, Insight ha dimostrato la capacità di ascoltare e di recepire i suggerimenti, il che ha permesso a tutti di cogliere opportunità tecnologiche in un contesto vantaggioso per tutti”. L’uso di EPROmeet ha consentito un aumento di efficienza e produttività nel lavoro che segue alle riunioni, oltre ad aver permesso di ridurre (di circa il 20%) la necessità di organizzare dei meeting di contenuto tecnico. Il personale ora può fare a meno di prendere appunti su carta (sono diminuiti del 40%) e di contro ha a disposizione più documenti tecnici (+30%), redatti nel giusto formato. In Electrolux Professional Group ora si lavora in modo più efficace, usando meglio il tempo a disposizione e facendo affidamento su informazioni corrette e facilmente reperibili.

UNO STORAGE PER L’AI NELLA CULLA DEL SAPERE

L’ateneo si è affidato a E4 per creare un sistema di archiviazione ad alte prestazioni, adatto per l’intelligenza artificiale.

Dal Medioevo all’era dell’intelligenza artificiale, la storia dell’Università di Pisa (UniPi) è una storia di avanguardia e innovazione nel campo del sapere e anche della tecnologia digitale. L’ateneo fondato nel 1343 nella città della torre pendente è tra i pionieri dell’informatica, avendo inventato negli anni Cinquanta la “Calcolatrice Elettronica Pisana”, cioè il primo calcolatore elettronico per attività di ricerca scientifica. Oggi UniPi è la culla di attività di ricerca avanzata in campi che spaziano dalle scienze naturali e sociali alla medicina, dall’ingegneria all’agricoltura, fino alle scienze applicate. Il data center “verde” dell’ateneo, inaugurato nel 2016, sorregge iniziative di innovazione digitale che spaziano dai calcoli Big Data, all’High Performance Computing, all’intelligenza artificiale.

Per portare avanti attività di addestramento dei modelli di AI e di inferenza, si è scelto di installare nel data center due sistemi Nvidia Dgx, ovvero soluzioni hardware e software, dotate di Gpu, adatte per il calcolo ad alte prestazioni e per i carichi di lavoro di intelligenza artificiale. L’ateneo ha quindi dovuto affrontare alcune sfide legate all’archiviazione dei dati. Trattandosi di applicazioni che generano un grande volume di dati, è sorta la necessità di uno storage capiente e soprattutto scabile. Inoltre l’elaborazione AI in tempo reale richiede ritardi minimi nell’accesso ai dati, ovvero una bassa latenza. Una terza caratteristica peculiare delle applicazioni di AI sono i pattern di accesso ai dati, che sono frequen-

ti e imprevedibili: i sistemi di archiviazione tradizionali, pensati per le letture e scritture sequenziali, si rivelano non adatti. Per tutte queste ragioni l’Università si è rivolta a E4 Computer Engineering, suo storico partner tecnologico, e alla tecnologia di Xinnor, per realizzare una soluzione di storage ad alte prestazioni ottimizzata per supercalcolo e AI. In qualità di system integrator, E4 ha svolto un ruolo primario nella progettazione e implementazione: quella realizzata è una soluzione che integra il software per l’archiviazione xiRAID di Xinnor con BeeGFS, un file system sviluppato da ThinkparQ e adatto per il calcolo ad alte prestazioni. La soluzione comprende due nodi di storage (basati su due server identici con la stessa configurazione hardware e software), ciascuno dei quali lavora con xiRAID ed è configurato in modo tale da scongiurare interruzioni o perdite di dati anche in caso di guasti in una o due unità. In pratica, il server di gestione viene eseguito su un’infrastruttura hypervisor esterna e se uno dei due nodi si guasta le operazioni possono continuare sul punto di montaggio servito dal pool di storage del nodo rimasto operativo.

LA SOLUZIONE

L’infrastruttura di storage a supporto dei sistemi Nvidia Dgx si basa su tecnologia xiRAID di Xinnor e file system BeeGFS. Grazie alla configurazione RAID 6 (8+2), ogni server può sopravvivere al guasto di una o anche due unità contemporaneamente, senza perdere dati. Sono possibili velocità di lettura pari a 29,2 GB/s e velocità di scrittura di 25,8 GB/s.

“La collaborazione tra Xinnor, E4 e l’Università di Pisa è un esempio di innovazione in azione”, dichiara Davide Villa, chief revenue officer di Xinnor. “Integrando xiRAID, abbiamo affrontato le complesse sfide di storage dell’AI dell’università, fornendo una soluzione tanto affidabile quanto performante”. L’infrastruttura realizzata è capace di elevatissime prestazioni: in test che hanno coinvolto fino a 128 processi per nodo sono state raggiunte velocità di lettura di 29,2 GB/s e velocità di scrittura di 25,8 GB/s. “L’integrazione di xiRAID con BeeGFS ha trasformato la nostra infrastruttura di storage, permettendoci di spingerci oltre i confini della ricerca sull’intelligenza artificiale”, commenta Maurizio Davini, chief technology officer dell’Università di Pisa. “Le prestazioni e l’affidabilità del sistema hanno superato le nostre aspettative, consentendo ai nostri ricercatori di concentrarsi sull’innovazione senza essere ostacolati da limitazioni dello storage. La collaborazione con E4 e Xinnor è stata fondamentale per mantenere la nostra leadership nell’ambito della ricerca computazionale”.

UN NUOVO GESTIONALE PER UN BUSINESS CHE LIEVITA

L’azienda trentina ha scelto Sap per accompagnare la crescita delle attività e della produzione.

Una piccola azienda, una grande e lunga tradizione: da oltre cinquant’anni Doper porta sulle tavole di alberghi, ristoranti, bar e locali la propria offerta di pane, brioche, specialità di pasticceria e altri prodotti da forno freschi e surgelati. Radicata in Trentino-Alto Adige, con sede a Molveno (Trento), l’azienda ha una trentina di dipendenti e sviluppa un fatturato di 3,77 milioni di euro (dato del 2023): è, insomma, un esempio di Pmi che porta avanti il proprio sapere artigianale ma sfrutta anche le tecnologie. Quelle per la panificazione, certo, ma anche quelle informatiche.

Anni fa, con l’avvio di una nuova linea di business e l’ampliamento delle attività, è cominciata una fase di trasformazione che ha coinvolto vari processi, dall’amministrazione agli acquisti, passando per vendite, produzione e logistica. Tra le altre cose, è diventato necessario tracciare tutti i lotti di produzione e monitorare le fasi

di lavoro per un controllo costante di tutti i processi, fino alla distribuzione. L’azienda desiderava anche semplificare i flussi di lavoro e migliorare la propria efficienza operativa.

Da qui l’esigenza di adottare un nuovo sistema Erp, perché quello in uso non era più adatto a gestire le linee di produzione e i diversi processi dei reparti amministrazione, acquisti, vendite, produzione e logistica. La scelta della tecnologia è ricaduta su Sap, in virtù della reputazione e del solido posizionamento del vendor, mentre come partner per l’implementazione è stato selezionato Var One. La soluzione adottata è Sap Business One, un sistema di Enterprise Resource Planning rivolto alle piccole e medie imprese.

“Partendo da una struttura familiare a servizio del territorio, l’azienda è riuscita a evolversi, adattando la propria strategia commerciale per rispondere alle crescenti esigenze del mercato, senza mai perdere il

LA SOLUZIONE

Sap Business One è un software Erp rivolto alle piccole e medie imprese, scalabile e integrabile con soluzioni di terze parti. Permette di gestire le principali attività di un’azienda, come contabilità finanziaria, acquisti, magazzino, vendite e relazioni con i clienti, fino al reporting e all’analisi.

legame con le proprie radici”, commenta Alberto Frambrosi, amministratore delegato di Var One. “A conferma di ciò, hanno realizzato un nuovo sito produttivo nel luogo in cui l’azienda è nata e, al contempo, hanno implementato un sistema Erp internazionale come Sap Business One per ottimizzare i processi interni e gestire in modo efficace la crescente mole di dati aziendali”.

Il riscontro è stato più che positivo. “Con Sap Business One, Doper ha automatizzato la gestione dei processi e dei dati, sostenendo l’espansione delle linee di prodotto e dell’azienda, assicurando la tracciabilità dei lotti e migliorando efficienza e conformità”, racconta Ivana Perli, cofondatrice dell’azienda trentina. “Sap Business One offre una serie di vantaggi significativi, a partire dalla possibilità di avere una visione completa e in tempo reale delle operation, migliorando la capacità decisionale e l’efficienza operativa”, spiega Fabrizio Moneta, direttore corporate e canale di Sap Italia. “Siamo molto felici di poter supportare Doper in un momento cruciale della sua storia con una soluzione scalabile che si adatta alle esigenze in evoluzione dell’azienda”.

IL BACKUP IMMUTABILE

È ESSENZIALE COME L’ACQUA

La società che gestisce oltre 5.200 chilometri di rete idrica in Campania ha scelto Veeam per potenziare la sicurezza e la resilienza.

In quanto servizio essenziale, la fornitura di acqua potabile non dovrebbe mai interrompersi. E quindi il tema della sicurezza e della resilienza è di primaria importanza per chi, come Gori, gestisce in Campania oltre 5.200 chilometri di rete idrica, 13 impianti di depurazione e 200 siti fognari, servendo un bacino di oltre un milione di utenti. Dal buon funzionamento dell’infrastruttura informatica dipendono il lavoro degli ingegneri sul campo e un po’ tutta l’attività di trattamento e distribuzione dell’acqua. “Quasi tutti i nostri processi aziendali critici dipendono dai dati, in un modo o nell'altro”, racconta Paolo Cataldo, responsabile Ict operation & security della Società per Azioni campana. “Ad esempio, effettuiamo regolarmente test di

LA SOLUZIONE

Veeam Data Cloud Vault è un ambiente totalmente gestito in cloud (Microsoft Azure) per il backup immutabile. Assicura a Gori resilienza e continuità del servizio, con un ripristino rapido per i sistemi locali e le applicazioni Microsoft 365.

laboratorio su campioni d’acqua per garantire qualità e purezza. Inoltre, poiché forniamo un servizio nazionale, dobbiamo proteggere tutti i nostri dati in linea con rigorosi requisiti normativi”. Negli ultimi anni, vista la crescita delle minacce e in particolare dei ransomware rivolti alle infrastrutture critiche, Gori ha voluto rafforzare le proprie capacità di backup e ripristino. “I cybercriminali stanno prendendo di mira sempre più le utenze, il che significa che non è mai stato così importante proteggere i nostri sistemi”, ha sottolineato Cataldo. “Avevamo già un approccio robusto e disciplinato per eseguire il backup dei dati sulle nostre piattaforme informatiche, tra cui salvataggi su server locali e applicazioni Microsoft 365. Volevamo migliorare il nostro approccio creando copie immutabili dei nostri backup, archiviati fuori sede”.

La scelta è ricaduta su Veeam. “Oltre a soddisfare tutti i nostri requisiti tecnici fondamentali”, racconta Cataldo, “Veeam ci ha offerto una grande flessibilità per quanto riguarda l’implementazione, consentendoci di integrare i nostri am-

bienti cloud e locali un po’ alla volta. La soluzione supporta anche sistemi operativi legacy, che utilizziamo per le nostre analisi dell’acqua. A detta del responsabile Ict operation & security, il processo di implementazione è stato semplice, specie grazie al supporto e all’attività di formazione svolta da Veeam. Il vendor ha anche collaborato nel configurare la propria Data Platform in modo che eseguisse automaticamente il backup dei sistemi locali e delle applicazioni cloud. Vengono create due copie di backup: la prima è archiviata localmente e la seconda, immutabile, risiede su Veeam Data Cloud Vault, un repository separato che poggia su Microsoft Azure ed è gestito da Veeam. “Abbiamo migliorato in modo significativo la resilienza dei dati con Veeam", ha dichiarato Cataldo. “Anche se i nostri strumenti di backup precedenti funzionavano bene, richiedevano tempo e sforzi considerevoli per la gestione. Veeam Data Platform rende molto più veloce e facile la gestione dei nostri processi di protezione dei dati”. Il metodo adottato risponde alla regola del “3-2-1-1-0”, che prevede di avere tre copie di backup archiviate su due diversi supporti, almeno uno dei quali è fuori sede (offsite); inoltre uno dei backup dev’essere offline e servono monitoraggi continui per garantirsi zero errori. Questo sistema consente una rapida ripartenza in caso di incidenti o attacchi ransomware.

“Veeam Data Cloud Vault”, rimarca Cataldo, “funziona sul livello di prestazioni più elevato di Azure Blob Storage, il che significa che possiamo ripristinare i nostri sistemi molto velocemente. Possiamo anche ripristinare quei dati in modo granulare, il che ci permette di recuperare i file cancellati accidentalmente in pochi minuti”.

CIO LEADERS summit

CIO LEADERS SUMMIT

Quando: 13-15 marzo

Dove: Stresa, Regina Palace Hotel

Perché partecipare: l’evento è rivolto ai Chief Information Officer, a cui è riservata la partecipazione (insieme ai rappresentanti delle aziende sponsor). Dopo la sessione plenaria, si prosegue con una serie di tavoli di lavoro tematici.

CYBERSECURITY SUMMIT

Quando: 19-20 marzo

Dove: Milano, Magna Pars Event Space

Perché partecipare: il summit, alla sua 13esima edizione, esplorerà i fenomeni emergenti del panorama della sicurezza informatica: dalla crittografia quantistica all’uso dell’intelligenza artificiale, dalle nuove normative europee alle best practice di gestione del rischio.

SMART MANUFACTURING SUMMIT

Quando: 1-2 aprile

Dove: Milano, Palazzo dei Giureconsulti

Perché partecipare: in un momento di rapido sviluppo dell’intelligenza artificiale, è importante capire quali saranno gli impatti di questa tecnologia nel mondo industriale e, soprattutto, come cambierà il lavoro in questo settore.

ROMA DIGITAL SUMMIT

Quando: 8 aprile

Dove: Roma, Palazzo Valentini

Perché partecipare: parte del programma di TIG Events dedicato all’innovazione digitale del territorio, l’appuntamento romano spazierà tra case history e strategie riguardanti la mobilità urbana, la cybersicurezza e la modernizzazione della Pubblica Amministrazione. Tra i relatori ci saranno rappresentanti del Governo, di Roma Capitale e delle associazioni di categoria.

NETCOMM FORUM

Quando: 15-16 aprile

Dove: Milano, Mico Milano Congressi

Perché partecipare: si celebra quest’anno il ventesimo compleanno del Netcomm Forum, in un’edizione che è però proiettata sul futuro, sui trend che caratterizzeranno il commercio digitale di domani. Spazio anche a iniziative speciali come HR Village (un’area e una serie di eventi dedicati al mondo delle risorse umane) e Retail Experience (una galleria con le migliori innovazioni e casi d’uso del digitale nel retail).

Partecipa all’evento per ricevere la tua copia della

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.
Technopolis 66 by The Innovation Group - Issuu