



La rivoluzione dell’intelligenza artificiale attraversa anche l’e-commerce, tra omnicanalità e iper-personalizzazione. STORIE
Un settore in espansione, il cui futuro dipende dalla sfida della sostenibilità: sapremo vincerla?
Il calcolo quantistico comincia a uscire dal laboratorio e già oggi è un’opportunità da cogliere.
Software per lo scambio dati nelle catene di fornitura: le strade intraprese dalle aziende italiane.
N° 67 - MAGGIO 2025
Periodico mensile registrato
presso il Tribunale di Milano al n° 378 del 09/10/2012
Direttore responsabile:
Emilio Mango
Coordinamento:
Valentina Bernocco
Hanno collaborato:
Gianni Baroni, Camilla Bellini, Roberto Bonino, Stefano Brigaglia, Giancarlo Calzetta, Gianluca Dotti, Elena Vaciago
Foto e illustrazioni: Freepik, Pixabay, Unsplash, Adobe Firefly
Editore e redazione:
Indigo Communication Srl Via Ettore Romagnoli, 6 - 20146 Milano tel: 02 499881
Pubblicità:
TIG - The Innovation Group Srl tel: 02 87285500
Stampa: Ciscra SpA - Arcore (MB)
© Copyright 2024
The Innovation Group Srl Tutti i diritti di proprietà letteraria e artistica riservati.
Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto.
Pubblicazione ceduta gratuitamente.
Commercio digitale tra certezze e incognite
Passato, presente e futuro secondo i vendor
Esperienze di digital commerce
Spazio, ultima frontiera: ma dobbiamo fare in fretta
Innovazione iterativa, con le persone al centro
L’accessibilità digitale dev’essere “by design”
Non solo hyperscale, servono data center “umili ma premium”
Gli agenti intelligenti si specializzano sempre di più
Il futuro è adesso, ma pesano i retaggi del passato
Una “AI literacy” per mettere a frutto i dati
Agenti pronti all’uso o “su misura” in ogni azienda
Anticipare il cambiamento, dall’hyperscale all’edge 24
Un percorso di maturazione
Sguardi su un futuro possibile
Fra incertezze e sogni di sostenibilità
Gli Atm diventano “centri multifunzione”
Territorio e psicografia nel marketing finanziario
Il vantaggio quantistico esce dal laboratorio
Aziende italiane in mezzo al cambiamento
Nis2: un obbligo e un’opportunità
Gestire il rischio è anche questione di vigilanza
Sotto assedio, ma più maturi
Supply chain software: un tema “storico” che si trasforma
Strategie per lo scambio di dati
Smeup
Autostrade per l’Italia
Istituto di Vigilanza Coopservice
Freccia International
Il mercato italiano raggiungerà quest’anno i 62 miliardi di euro di valore, inseguendo l’omnicanalità e la personalizzazione.
Un mercato maturo, ma che ha ancora margini di crescita. Un mercato che poggia su modelli di business abbastanza consolidati, ma aperti necessariamente alla trasformazione, per inseguire le nuove tecnologie e, quel che più conta, le preferenze dei consumatori. Su questa doppia dimensione, tra certezze e incognite, si bilancia l’e-commerce nel mondo e anche in Italia. Le certezze sono, ormai, quelle dell’omnicanalità
e della personalizzazione spinta, in un contesto in cui i consumatori si aspettano esperienze coerenti a prescindere dal luogo o dal mezzo scelto per acquistare. E un’altra certezza è l’ingresso dell’intelligenza artificiale nei diversi passaggi della catena di vendita, dallo studio del cliente, al marketing, allo sviluppo dell’offerta. Le incognite sono quelle di un’economia fatta di supply chain instabili, di dazi e minacce di dazi che impattano sui prezzi e sull’export.
Questo è il quadro emerso dall’ultima edizione dell’Osservatorio eCommerce
B2c di Netcomm e della School of Management del Politecnico di Milano: il dato di fondo è che quest’anno il mercato delle vendite online dirette ai consumatori (cioè B2C) in Italia supererà i 62 miliardi di euro di valore, crescendo del 6% sul 2024. Il numero di persone che, nel nostro Paese, fanno acquisti sul Web o tramite app raggiungerà quota 35,2 milioni. Sul totale del mercato e-commerce B2C, la vendita di prodotti coprirà 40 miliardi di euro, crescendo del 6%, mentre i servizi movimenteranno
Scondo il report “NetRetail 2025” i principali metodi di pagamento usati per comprare online sono il wallet digitale (30,8%), la carta di credito (26,4%) e le carte prepagate (23,6%), mentre appena l’1,2% dei consumatori preferisce saldare in contanti al momento della consegna e il 2% fa ricorso al bonifico. Solo l’11% sceglie il saldo alla consegna o contestuale alla fruizione del servizio. E se è vero che esistono le preferenze personali, a volte la scelta dipende dall’occasione, dall’importo o dal tipo di bene o servizio acquistato. In tutti i casi, è evidente come ai venditori convenga assecondare questa pluralità di preferenze. Secondo l’ultima edizione dell’osservatorio di Netcomm e Cribis, sono poche, il 16,6%, le aziende che prevedono una sola modalità di pagamento possibile, che più spesso è PayPal (nel 46,8% dei siti di e-commerce che offrono un’unica opzione) e a seguire carta di credito (25,8%) o bonifico bancario (15,7%). Il restante 83,4% permette di scegliere tra due o più mezzi, cioè solitamente tra carta di credito, PayPal e bonifico. L’Osservatorio evidenzia anche la crescente presenza dell’opzione di pagamento differito, il cosiddetto buy now, pay later
22 miliardi di euro, con un incremento dell’8%. Tra le categorie merceologiche, spiccano per andamento superiore alla media gli acquisti di alimentari e quelli di beauty&pharma (+7%) mentre abbigliamento, informatica ed elettronica di consumo, arredamento e home living hanno un andamento in linea con la media generale (tra il +5% e il +6%) e frena, invece, la progressione del settore auto e ricambi. I canali digitali veicolano oramai l’11,2% del totale degli acquisti retail italiani, dato sempre riferito alla stima per il 2025 e che indica un guadagno di mezzo punto percentuale sul 2024. Non è molto, ma è il segnale di un mercato ormai maturo che comunque continua a crescere. Secondo la ricerca “NetRetail 2025” (realizzata da Netcomm in collaborazione con Brt, Confcommercio Milano Lodi Monza e Brianza, Edi Confcommercio, Publitalia ’80, Magnews, Oney e Banca Sella), circa 1,5 milioni di italiani hanno fatto acquisti online per la prima volta tra il 2024 e il 2025.
User experience in primo piano
A ll’ultimo “Netcomm Forum”, andato in scena il 15 e 16 aprile a Milano, inevitabilmente si è parlato di intelligenza artificiale, del ruolo di questa tecnologia (o meglio di questo insieme di tecnolo -
gie) nelle strategie di iper-personalizzazione e di omnicanalità. Queste logiche si estendono a tutti i passaggi del cosiddetto customer journey, dalla ricerca di informazioni su un prodotto agli ordini, dal pagamento al supporto post vendita, e ancora alla più ampia relazione con il brand, fatta di valori condivisi e fidelizzazione. “In Italia l’e-commerce e più in generale il retail si trova ora in una fase di consolidamento e i valori di mercato confermano un online un po’ meno vivace rispetto al passato”, ha commentato Valentina Pontiggia , direttrice dell’Osservatorio eCommerce B2c Net-
Roberto Liscia
comm – Politecnico di Milano. “Questi dati non riflettono, però, il grande lavoro svolto dietro le quinte da molti merchant, i quali sono sempre più impegnati nell’ottimizzazione di processo, nell’introduzione di soluzioni tecnologiche per migliorare sia l’esperienza utente sia le attività di back-end e nella sperimentazione di modalità diverse di interazione con i consumatori e di nuovi modelli di business, molto spesso platform-based. Mentre in passato si puntava esclusivamente sulla vendita dei prodotti, ora attraverso l’e-commerce i brand cercano di instaurare una relazione con il cliente offrendo esperienze sempre più interattive e coinvolgenti”.
Questione di “attitudine”
A ltri dati sullo scenario italiano arrivano dall’osservatorio realizzato da Netcomm in collaborazione con Cribis, società del Gruppo Crif. Nel nostro Paese sono attualmente circa 91mila le aziende che vendono online, numero in crescita del 3,4% sul 2024. Si concentrano soprattutto in Lombardia, dove risiede il 19% del totale, e a seguire in Lazio (11,6%) e in Campania (11,3%). E non sono necessariamente realtà giovani o giovanissime: la fascia più rappresentata è quella delle imprese che hanno spento da sei a 25 candeline. L’età media sta salendo ed
Anche l’e-commerce è terreno fertile per le tecnologie di Agentic AI, su cui oggi spingono molti fornitori di software (e di cui parliamo abbondantemente in questo numero di Technopolis). Lo suggerisce la recente indagine “Connected Shoppers” di Salesforce, condotta su 8.350 consumatori e 1.700 decision-maker nel settore retail: l’intelligenza artificiale emerge come strumento utile per ridurre i costi, per assecondare le aspettative dei clienti e per non perdere rilevanza nel mercato. Nel campione di manager italiani intervistati, un centinaio, il 64% ha detto di voler incrementare gli investimenti in intelligenza artificiale nel breve periodo (nei 12 mesi successivi al sondaggio) e il 67% considera l’Agentic AI uno strumento fondamentale per contrastare la concorrenza. L’interessa si focalizza soprattutto sul servizio clienti: in quest’ambito gli “agenti” possono non solo fornire supporto tramite chat (sia al personale del customer service sia all’utente o cliente) ma anche compiere azioni, per esempio tracciare un ordine o gestire una procedura di reso.
è il segno, secondo Netcomm e Cribs, di un settore sempre più maturo e solido. Considerando le sole società di capitale, l’anno scorso erano 47mila quelle dotate di canali e-commerce e oggi sono 51mila: l’incremento, pari all’8,5%, è anche questo il segno di “una progressiva maturazione del settore, con aziende sempre più strutturate e orientate a strategie digitali avanzate”, secondo gli autori dello studio.
Ciò trova conferma in un altro dato: il 67,2% delle aziende italiane che vendono
Gli acquisti eCommerce B2c in Italia
online ha una forte “attitudine digitale”, ovvero si tratta di realtà ben predisposte a fare in investimenti in marketing digitale, in trasformazione digitale e in infrastrutture Web, e che possiedono un sito di e-commerce strutturato e aggiornato. Il dato del 67,2% segna un notevole passo avanti rispetto al 49,2% di aziende che risultavano avere una buona attitudine digitale nel 2024. Sempre a detta di Netcomm e Cribis, il 30,1% delle aziende si posiziona su un livello di innovazione elevato, mentre il 54,7%
è nella fascia medio-alta: questo indicatore considera il fatto di aver registrato dei brevetti, la flessibilità del management, le attività di ricerca e sviluppo e l’internazionalizzazione. A proposito di internazionalizzazione, è qui che arrivano alcune note dolenti.
Potenzialità non realizzate
L o scenario generale dell’innovazione è quindi buono, ma con una debolezza: l’export. Il 54% delle aziende di ecommerce ha ancora un basso livello di
Tasso di penetrazione dell’online sui consumi totali (online + offline)
Parlare di retail sostenibile è forse un ossimoro: produrre e distribuire merci non è, di per sé, un gesto amico dell’ambiente. Ma è sicuramente possibile ridurre le emissioni di gas serra e gli sprechi, con modelli come il second-hand e il riuso di materie prime. Questo cambiamento è guidato, come è naturale che sia, anche da ragioni di convenienza: i target Esg sono un buon biglietto da visita per i retailer e aiutano ad attirare e fidelizzare i consumatori. E volte la ricerca del risparmio e la sostenibilità possono andare a braccetto.
Dall’ultimo “Osservatorio per il retail sostenibile” di BearingPoint, per esempio, emerge che il 63% dei consumatori europei acquista prodotti di seconda mano e il 57% rivende i propri articoli usati. Queste percentuali in Italia salgono, rispettivamente, al 66% e al 62%. Il noleggio, invece, nei mercati europei stenta a decollare. “La sostenibilità negli ultimi anni è diventata una priorità nell’agenda dei Cio delle nostre aziende clienti”, ha testimoniato Gianluca Sacchi, consumer goods & retail lead di BearingPoint Italia, commentando i risultati dell’Osservatorio. “Il retail non fa eccezione e penso per esempio al settore della moda, che ha riconosciuto la necessità di adottare pratiche sostenibili. D’altra parte è una delle industrie più energivore al mondo, responsabile di circa il 10% delle emissioni globali di gas serra”.
“Se da un lato i nostri retailer vedono un calo di volume nel loro modello di business principale, cioè la vendita di prodotti nuovi, d’altro canto si vedono davanti altre opportunità”, ha detto Nicolò Masserano, sourcing & procurement & sustainability lead di BearingPoint Italia, citando il caso di un retailer francese che ha definito modelli di business circolari per aumentare la quota di second-hand sul totale delle vendite. Questo non basta, tuttavia, per potersi etichettare come aziende attentealla sostenibilità. Fondamentale, a detta di BearingPoint, è adottare soluzioni digitali per la misurazione dell’impronta carbonica e per la tracciabilità dei processi produttivi. “La tracciabilità significa trasparenza ma anche raccontare la storia del brand, del capo di abbigliamento o prodotto messo in vendita”, ha rimarcato Sacchi. “È un passo fondamentale che le aziende stanno intraprendendo ma non è facile nel retail, perché la tracciabilità arriva fino a un certo punto della catena di fornitura”.
internazionalizzazione, e solo il 16,8% delle società di capitale ottiene un punteggio alto su questo indicatore.
“Sebbene l’e-commerce sia uno strumento chiave per favorire l’export delle Pmi, l’internazionalizzazione rimane una sfida significativa”, ha osservato Roberto Liscia , presidente di Netcomm. “Oltre il 54% delle imprese italiane fatica a espandersi oltre i confini nazionali per la mancanza di strategie digitali efficaci e dell’innovazione tecnologica necessaria a competere sui mercati globali. A complicare ulteriormente il quadro c’è uno scenario più ampio di sfide sul piano globale, come la possibile introduzione dei dazi da parte degli Stati Uniti, e a farne le spese saranno in primis le Pmi, il cui accesso al mercato statunitense sarà reso ancora più complicato dai costi e dalla gestione burocratica. Nondimeno, il clima di sfiducia e tensione causato da questo scenario porta a una inten-
sificazione del protezionismo digitale, che minaccia la libera circolazione di dati, fondamentali, tra le altre cose, per intercettare i bisogni dei clienti e soddisfare le loro richieste. In uno scenario così variabile e incerto le competenze diventano la vera chiave del futuro. Non parliamo più solo di capacità tecniche o digitali, ma di un insieme complesso e integrato di saperi, attitudini, comportamenti che determinano la capacità di adattarsi, innovare e generare valore che faranno sempre più la differenza nelle organizzazioni”.
Tra siti, app e social media
In media, in Italia si consultano quattro touchpoint prima di comprare, e di solito si tratta di due “punti di contatto” direttamente legati ai marchi o al venditore e di altri due “indipendenti”, percepiti come imparziali o che almeno dovrebbero esserlo. Fra i touchpoint legati ai ven-
ditori spiccano siti Web e app (consultati abitualmente dal 50,3% degli acquirenti online) e portali e-commerce, (44,2%), mentre tra quelli indipendenti figurano motori di ricerca (55,7%), recensioni (50%) e servizi di comparazione (40%). I social media rimangono una fonte importante di orientamento nel 30% circa degli acquisti, mentre le notifiche push sono in leggero calo. I consumatori tendono a consultare chatbot di intelligenza artificiale specialmente per orientarsi su prodotti complessi, come quelli di elettronica ed editoria. E le aziende, come scelgono di comunicare e interagire con il loro pubblico? Secondo il già citato osservatorio di Netcomm e Cribis, in Italia l’82,7% delle aziende presenti in e-commerce ha almeno un account social, con netta preferenza per Facebook e Instagram (usati, rispettivamente, nell’84,4% e nel 69,6% dei casi) e a seguire per YouTube, LinkedIn e X. V.B.
“In questi vent’anni il commercio si è concentrato sul fornire un’esperienza d’acquisto sempre migliore per i clienti, diventando nel contempo sempre più tecnologico. Se nel 2004 l’ecommerce era principalmente desktop e transazionale, oggi possiamo parlare di un’esperienza ricca, interattiva e spesso multicanale Amazon ha contribuito a questa trasformazione cercando ogni giorno di semplificare la vita dei nostri clienti e lavorando costantemente per innovare in questa direzione. Per i prossimi vent’anni, immaginiamo un commercio ancora più personalizzato e sostenibile, dove tecnologie come l’AI miglioreranno ulteriormente l’esperienza d’acquisto. Amazon Ads
“Negli ultimi vent’anni il commercio è stato rivoluzionato dalle molteplici tecnologie che si sono via via applicate all’e-commerce, non ultima l’intelligenza artificiale. Oggi l’AI conversazionale migliora l’esperienza del cliente con assistenti virtuali in grado di svolgere task complessi. Tra vent’anni immaginiamo un commercio ancora più integrato con l’AI, con interazioni sempre più personalizzate e naturali grazie ad assistenti capaci di adattarsi alle preferenze ed emozioni dei clienti”.
Gianluca Maruzzella, Ceo e co-founder di indigo.ai
“C’è stato un cambiamento radicale: due decenni fa l’e-commerce rappresentava solo una piccola parte, mentre le vendite tradizionali nei negozi fisici erano preponderanti. Successivamente si è passati a un sistema interconnesso, in cui il commercio elettronico si è prima affermato come settore a sé stante e poi si è affiancato a quello fisico in un modello omnicanale sempre più forte Nei prossimi vent’anni questo modello evolverà ulteriormente, mettendo il cliente al centro di una rete in cui le nuove tecnologie, guidate inprimisdall’intelligenza artificiale, renderanno l’esperienza di acquisto ancora più fluida, semplice e integrata”. Nexi
“Con più di 25 anni di esperienza nei pagamenti digitali e una presenza in 200 mercati, PayPal ha una prospettiva unica sull’evoluzione del business. Presente da oltre vent’anni in Italia, PayPal ha partecipato all’evoluzione del business da locale a globale e questo ha consentito alle Pmi di competere con i giganti del settore, mentre i progressi nei pagamenti digitali, nell’e-commerce e nella logistica hanno permesso ad aziende di ogni dimensione di crescere a un ritmo senza precedenti. Con la crescita dell’economia digitale italiana, sono mutate anche le esigenze e le preoccupazioni dei consumatori: sicurezza, velocità e convenienza sono aspettative che non possono essere disattese. Guardando al futuro, AI, automazione e personalizzazione continueranno a ridisegnare lo scenario, offrendo esperienze sempre più su misura, in un mercato con sempre meno confini”. PayPal Italia
“In venti anni il commercio è passato dall’essere un percorso lineare a un’esperienza complessa e coinvolgente. Le esperienze d’acquisto, prima limitate, sono diventate molto più ricche, mentre i sistemi sono passati dall’essere frammentati a integrati, sfruttando i dati per acquisire e fidelizzare i clienti. Oggi l’e-commerce è stato riscritto, sotto la guida di intelligenza artificiale, dati e personalizzazione. ll futuro? Secondo noi, appartiene a chi saprà adattarsi velocemente, innovare e unificare l’e-commerce con l’intera azienda, usando AI, agenti intelligenti e architetture flessibili”.
Maurizio Capobianco, area vice president cloud sales di Salesforce
“Il commercio è passato dall’essere un’esperienza puramente fisica a un ecosistema digitale e omnicanale. Scalapay ha contribuito a questo cambiamento offrendo soluzioni di pagamento flessibili, che migliorano l’esperienza d’acquisto e aumentano la conversione per i brand. Nei prossimi vent’anni immaginiamo un commercio ancora più integrato, dove il pagamento diventi parte dell’esperienza e aiuti i consumatori non solo a concludere un acquisto, ma anche a pianificare meglio i propri acquisti futuri”. Scalapay
“Il commercio è stato rivoluzionato dalla digitalizzazione, dall’e-commerce e dall’integrazione tra canali fisici e digitali. Oggi l’AI, il social commerce e il commercio unificato ridefiniscono l’esperienza d’acquisto. Tra vent’anni ci aspettiamo esisterà un ecosistema ancora più connesso, con esperienze iper-personalizzate, realtà aumentata e nuove forme di pagamento che renderanno lo shopping ancora più fluido e immediato”. Paolo Picazio, country manager Italia di Shopify
“Lavazza ha utilizzato Amazon Marketing Cloud (AMC), una soluzione di camera bianca protetta, sicura per la privacy e basata sul cloud, per scoprire insightsulla sovrapposizione dei clienti tra i loro canali direct-to-consumer e Amazon. Hanno creato audience AMC personalizzate sulla base di queste analisi e le hanno attivate in Amazon Demand-Side Platform (DSP). Questa strategia AMC ha portato a un miglioramento del 34% del ritorno sulla spesa pubblicitaria per le campagne performance, e il 50% dei ricavi delle campagne performance è guidato dalle strategie AMC”. Amazon Ads
“Con Yves Rocher, fondatore della Cosmétique Végétale dal 1959, abbiamo realizzato un assistente virtuale basato su agenti AI che gestiscono l’assistenza di primo livello non solo per i clienti finali ma anche per i rivenditori, con un focus su tracking ordini, resi e tempistiche di consegna grazie all’accesso diretto alle informazioni aziendali. Ad oggi, registriamo quattromila conversazioni al mese, con l’86% di richieste gestite con successo dall’assistente e un punteggio di customersatisfactiondi 4,3 su 5”.
Gianluca Maruzzella, Ceo e co-founder di indigo.ai
“Il gateway XPay di Nexi dispone di sistemi evoluti di tokenizzazione delle carte che permettono di sviluppare molteplici casi d’uso di successo. Un esempio è rappresentato da MyPass, che ha recentemente brevettato lo Ski Pass Pay-Per-Use, con cui l’utente non deve più decidere in anticipo per quanto tempo sciare e che tipologia di biglietto acquistare, ma può usufruire della massima flessibilità: un sistema innovativo, teso a integrare in un’unica piattaforma l’accesso diretto a moltissimi servizi, per evitare biglietterie e code”. Nexi
“In PayPal ci impegniamo a offrire soluzioni sicure e intuitive, come l’integrazione della nostra soluzione Paga in 3 sull’app IO, che fa di PayPal il primo e unico fornitore di servizi di pagamento a prevedere un’opzione buy now, pay later sulla piattaforma PagoPA . Questa innovazione rappresenta per tutti i cittadini italiani un passo fondamentale verso una maggiore flessibilità e accessibilità nei pagamenti alla Pubblica Amministrazione, considerando che (secondo un recente sondaggio di YouGov) oltre otto italiani su dieci già pagano le loro bollette online”. PayPal Italia
“Abbiamo sviluppato un agent for commerce che migliora l’esperienza di shopping con raccomandazioni personalizzate, permettendo ai clienti di trovare e aggiungere prodotti al carrello direttamente dalle loro app di messaggistica o dagli store online. Inoltre, offre aggiornamenti in tempo reale sullo stato degli ordini, inclusi dettagli di consegna e tracking, e il tutto all’interno dell’app”. Maurizio Capobianco, area vice president cloud sales di Salesforce
“Scalapay non è solo una soluzione di pagamento, ma un vero acceleratore di business per i brand. Grazie alla nostra carta e al sistema di checkout omnicanale, abbiamo reso il nostro servizio accessibile ovunque, sia online sia offline, anche su e-commerce non integrati. Con oltre otto milioni di utenti, 8.000 brand partner e più di 24 milioni di referral generati ogni anno, aiutiamo i brand ad acquisire nuovi clienti e a migliorare il tasso di conversione, offrendo un’esperienza d’acquisto fluida e senza frizioni”. Scalapay
“Potrei citare tanti casi d’uso realizzati. Shopify, per esempio, ha aiutato Slam Jam a crescere nel digital commerce. Con Shopify Plus l’azienda di abbigliamento ha integrato esperienze omnicanale, ha ottimizzato l’inventario e ha reso l’acquisto più fluido e personalizzato (anche tramite Shopify POS). È un esempio di come la nostra tecnologia supporti retailer innovativi nel ridefinire l’esperienza d’acquisto”.
Paolo Picazio, country manager Italia di Shopify
Era la fine degli anni Sessanta quando sui televisori iniziò a echeggiare lo slogan “Spazio, ultima frontiera”, l’incipit della sigla una serie televisiva che cavalcava l’entusiasmo generato dall’inizio dell’era dell’esplorazione spaziale. Sono passati sessant’anni da allora, e come sta andando? Bene, forse, ma di sicuro non benissimo in Europa. Dopo la partenza fulminante, l’interesse per lo spazio è scemato e solo di recente ha subìto un’impennata motivata più che altro dalle iniziative di Elon Musk, che con la sua Space X ha acceso i riflettori sulla colonizzazione di Marte. Ma la prima partita per lo spazio non verrà giocata sul Pianeta Rosso, la prima partita è già iniziata e si tiene nel nostro astrocortile: l’orbita terrestre.
Lo spazio è attualmente strategico per tre settori: le telecomunicazioni globali, i trasporti (tramite la costellazione Gps e sistemi simili) e l’osservazione della Terra. In tutti e tre gli ambiti si cala in maniera forte la componente militare, tanto che i manuali di guerra citano lo spazio come il quarto teatro dopo terra, mare e aria. E c’è un problema: il primo comparto, quello delle telco, è oggi pesantemente sbilanciato a favore degli Stati Uniti a causa del progetto Starlink . Dopo decenni passati a fare da relay per trasmissioni sulla lunga distanza, lo spazio arriva nelle applicazioni quotidiane e Starlink sfrutta satelliti artificiali in orbita bassa (circa 500 chilometri dal suolo) per portare Internet in ogni angolo del Pianeta. È stato il primo e ha un grande vantaggio sugli altri. La sua
versatilità si è rivelata cruciale nella difesa dell’Ucraina, per esempio, rendendo possibili operazioni di intelligence e attacchi che semplicemente non sarebbero stati pensabili dopo l’attacco russo alle infrastrutture di terra. Questo utilizzo non è sfuggito agli occhi degli Stati di tutto il mondo che, improvvisamente, vedono una risorsa strategica diventare l’ennesima possibile leva per quei ricatti economici che l’amministrazione Trump ha dimostrato di voler usare con fin troppa disinvoltura. In questo scenario di cordoglio globale, l’Europa è una delle realtà che più sente questa situazione, soprattutto perché, in teoria, avrebbe dovuto avere una sua infrastruttura di comunicazione orbitale che, invece, è in tremendo ritardo. Starlink ha in orbita ormai oltre 7.000 satelliti che coprono ogni angolo del globo con connessione a bassa latenza; il progetto europeo, conosciuto come Iris2, è fermo al palo e dovrebbe vedere la sua prima operatività nel 2030, esclusiva-
mente per utilizzi governativi. Questo, nonostante il fatto che arriverà a contare solo 290 satelliti distribuiti su orbita bassa e media. Un classico esempio di inefficienza e mancanza di lungimiranza.
Gli Stati membri dell’Unione sono ancora legati a vecchi sistemi di comunicazione cifrata a singolo satellite, che rispetto alle nuove tecnologie appaiono come falò usati dagli indiani d’America per i segnali di fumo. Ma l’opportunità è forte e tutta hitech. Servono nuovi vettori spaziali, nuove tecnologie satellitari, nuove stazioni di gestione. I mercati da andare a servire, invece, sono già tutti disponibili: da Internet nelle zone rurali alla gestione delle catastrofi naturali, passando per il supporto all’agricoltura di precisione. Riusciremo a cogliere questa occasione e rimetterci in pari? Purtroppo, non è scontato: Amazon punta a inviare nello spazio ben 3.200 satelliti per il suo progetto Kuiper, molto simile a quello di Starlink. In Europa, si parla di 10 miliardi di euro circa stanziati, del fatto che uno dei centri di controllo di Iris2 sarà in Italia, che entro il 2030 la nuova costellazione sarà attiva. Ma oggi cinque anni sono diventati un’eternità e i concorrenti non stanno a guardare. La Cina, di cui si parla pochissimo nella contesa spaziale, ha già avviato due progetti che porteranno ben 30mila satelliti in orbita bassa. A questo punto, la domanda è ovvia: c’è spazio per tutti nello spazio? O si arriverà allo scontro anche in questo settore? Forse, oltre a rincorrere in un mercato pieno di ostacoli, conviene anticipare i tempi e spingere nel settore delle armi spaziali, in cui la Russia si sta già muovendo.
Giancarlo Calzetta
Specializzata in software per HR e gestione contabile, Workday porta avanti l’idea di una Agentic AI utile e non fine a sé stessa.
Gli agenti di intelligenza artificiale iniziano a moltiplicarsi. Sono passati pochi mesi da quando nel mercato dell’Ict si è cominciato a parlare di insistentemente di Agentic AI e questa tecnologia (basata su Large Language Model ma diversa dall’AI generativa) è apparsa in un po’ tutte le previsioni di analisti sulle tendenze forti del 2025. Anche uno specialista delle tecnologie per l’area risorse umane e la gestione finanziaria come Workday sta spingendo in questa direzione. Lo scorso settembre ha presentato un nuovo ramo d’offerta, Workday Illuminate, che propone modelli di AI generativa utilizzabili sia per la creazione di contenuti in ambito HR e finance (per esempio curricula, annunci di lavoro, contratti e altro) sia per automazioni di vario tipo (rilevamento delle anomalie, autocompletamento di testi, funzione di ricerca all’interno di documentazione, eccetera). C’è anche Workday Assistant, strumento conversazionale che dà supporto su attività di HR e contabilità, sia di routine sia complesse. Recentemente è arrivata Agent System of Record, soluzione che permette alle aziende di gestire in un unico sistema centralizzato l'intera flotta dei propri agenti AI,
sia di Workday sia di altri fornitori. Nelle aziende utenti si dovrà parlare di agenti AI, al plurale: ciascuno strumento adottato potrà accedere alle base dati di sua competenza e svolgere le azioni assegnate, ma dovrà anche coordinarsi con gli altri. Nella visione di Workday, è possibile mettere in campo più agenti specializzati, dedicati per esempio a policy, auditing finanziario, ottimizzazione, payroll, recruiting, contratti, operations, marketing, IT, area legale.
Fondata nel 2005, Workday oggi conta oltre 20mila collaboratori e 11mila aziende clienti. Nella regione Emea è attiva in 18 Paesi, tra cui anche l’Italia (dove è presente dal 2018), e ha il suo avamposto in Irlanda. La sua piattaforma tecnologica gestisce circa 800 miliardi di transazioni aziendali all’anno e questa marea di dati e processi è il nutrimento che alimenta gli algoritmi. I modelli AI di Workday Illuminate non soltanto comprendono i dati ma anche il contesto, quindi le relazioni tra i processi, e forniscono risposte in base alle conversazioni precedenti e a chi interroga il sistema. “Abbiamo sperimentato soluzioni di
AI per oltre un decennio, non è una cosa nuova per noi e in questo ci troviamo perfettamente a nostro agio”, ha raccontato alla stampa, a Dublino, il senior vice president product engineering Enda Dowling. “Abbiamo senza dubbio uno dei migliori, più puliti dataset per le risorse umane e il finance e questo è molto importante”.
Innovazione iterativa
Nella visione di Workday, l’AI non dev’essere solo uno sfoggio di modernità ma uno strumento utile, a potenziamento del lavoro. Conor McGlynn, senior director UI & AI Platform, ha raccontato ai giornalisti come in Workday l’innovazione nasca spesso da hackaton e dallo scambio di idee tra i membri del team di ingegneri. Si tratta di un’innovazione iterativa, che parte magari da un singolo elemento e su di esso costruisce progressivamente, ma soprattutto è un’innovazione tesa a rispondere a concrete necessità dei clienti. Workday sposa un concetto popolare tra i vendor informatici, forse un po’ troppo ripetuto ma importante: l’intelligenza artificiale non dovrà sostituire il lavoro delle persone. “Come l’agente prende in carica conoscenze, processi e ruoli delle persone?”, ha osservato Kathy Pham, vice president AI di Workday. Bisogna chiedersi quali siano le azioni che una macchina potrebbe fare meglio di una persona, o quali potrebbe fare che la persona non può”.
Valentina Bernocco
Una progettazione senza barriere si sviluppa su più livelli ed è fondamentale per garantire l’inclusione di tutti. Il punto di vista di TIG Factory.
Qualsiasi strategia di comunicazione, di marketing, di vendita e di relazione con i clienti al giorno d’oggi deve non solo garantire una buona user experience, ma una user experience inclusiva. Questo valore si traduce nel concetto di accessibilità digitale, di cui abbiamo discusso con Valentina Usellini, general manager di TIG Factory, società di The Innovation Group che dal 1996 realizza progetti e soluzioni tecnologiche per le imprese.
Che cos’è esattamente l’accessibilità digitale?
Oggi si parla spesso di inclusione, ma troppo spesso questa parola resta confinata a slogan e buone intenzioni. L’inclusione vera significa creare ambienti, anche digitali, in cui le differenze siano accolte e valorizzate, offrendo a tutti pari opportunità e diritti. Questo vale anche, e soprattutto, per il Web. Informarci, acquistare beni e servizi, prenotare prestazioni mediche o accedere a servizi digitali sono attività che dovrebbero essere
quotidianamente garantite a tutti, senza distinzioni. Purtroppo non è sempre così se consideriamo i milioni di siti Web che presentano errori di accessibilità ostacolando o impedendo l’accesso alle persone con disabilità.
Ci fa qualche esempio di errori?
La mancanza di testo alternativo per le immagini, che rende impossibile la comprensione del contenuto per chi usa uno screen reader, o scelte grafiche che ostacolano la lettura o la visualizzazione per gli ipovedenti. Chi ha disabilità motorie, invece, spesso si scontra con interfacce troppo complesse, con pulsanti piccoli o ravvicinati o, ancora, con elementi interattivi difficili da selezionare con il puntatore del mouse. Altri problemi riguardano i video senza sottotitoli o trascrizioni, non fruibili in caso di disabilità uditive. Rispetto alle disabilità neurologiche, errori frequenti sono una struttura del sito confusa, l’eccesso di elementi visivi e le animazioni eccessive o lampeggianti, che possono distrarre o scatenare crisi epilettiche.
Come si può intervenire per abbattere queste barriere?
In TIG Factory partiamo dal Design System: un insieme di regole, componenti e linee guida che definiscono l’aspetto e il funzionamento di un sito Web fin dalle prime fasi della progettazione. Adottare il principio di accessibilità by design significa incorporare i requisiti di accessibilità direttamente nelle fondamenta del
progetto, evitando correzioni successive spesso costose e poco efficienti. Gli interventi si sviluppano su tre livelli fondamentali. Il primo è la user interface, che riguarda l’aspetto visivo e l’interazione immediata dell’utente con il sito. Il secondo livello riguarda il codice HTML e la programmazione: sono implicati interventi sul codice, tag semantici, parametri che migliorano l’interpretazione dei contenuti e la compatibilità con tecnologie assistive, quali screen reader e navigazione da tastiera. Infine, il terzo livello riguarda la user experience e fa leva su un writing semplice e intuitivo con linguaggio diretto, contenuti ben organizzati, messaggi di errore chiari.
Quali sono, per le aziende, i vantaggi?
I vantaggi di un sito accessibile non riguardano solo gli utenti, ma anche i brand. Investire nell’accessibilità significa, infatti, rafforzare la reputazione aziendale e trasmettere un’immagine di attenzione, inclusione e responsabilità sociale. Inoltre, i siti accessibili tendono a essere meglio ottimizzati per i motori di ricerca, migliorando il posizionamento e aumentando la visibilità online.
Perché affidarsi a degli esperti in materia, come voi di TIG Factory?
Per progettare un sito davvero accessibile, è indispensabile una formazione specifica sulle linee guida WCAG e AgID. In vista delle nuove normative sull’accessibilità digitale abbiamo investito tempo e risorse affinché i membri del nostro team di designer, sviluppatori e content creator completassero un percorso formativo specifico. Il risultato è che oggi in TIG Factory abbiamo integrato il tema dell’accessibilità a monte del processo, rendendolo parte integrante del workflow, migliorando l’efficienza e garantendo i risultati attesi.
Mediterra DataCenters punta a realizzare una rete di infrastrutture tier IV, vicine alle imprese del territorio e connesse tra di loro.
Non è un mistero che i grandi hyperscaler del cloud computing, nella corsa all'ampliamento della propria rete, abbiano investito finora soprattutto su Milano, anche per ragioni di domanda (la grande quantità di imprese concentrata nel capoluogo lombardo). Ma tanti altri territori, finora un po’ snobbati dagli investimenti delle Big Tech, sono culla di imprese che hanno bisogno di servizi connettività, cloud, colocation. Qui, anziché infrastrutture colossali o AI factory imbottite di Gpu, servono piuttosto “data center umili, ma premium”, affidabili, performanti e sicuri, per l’operatività quotidiana delle aziende.La definizione tra virgolette è di Emmanuel Becker, veterano del settore (già managing director per l’Italia di Equinix e ancor prima country manager
di Data4), francese che però parla del nostro Paese e dei suoi abitanti usando la prima persona plurale. Ripetuta con orgoglio, quell’espressione, “umili ma premium”, in conferenza stampa per parlare delle nuove ambizioni di Mediterra DataCenters, azienda di cui Becker è Ceo dallo scorso luglio.
Ecosistemi digitali
Sostenuta dal fondo Peif III, gestito da Dws Infrastructure, Mediterra è nata per rispondere alla domanda inevasa di centri di elaborazione dati in territori strategici, non solo nell’area di Milano, ma ovunque ci siano aziende manifatturiere, istituzioni bancarie, imprese di medie, piccole o grandi dimensioni che vogliano o debbano tenere i propri dati vicino a sé. L’offerta include servizi di hosting, colocation e connettività, erogati da infrastrutture di livello Tier IV. “Vogliamo portare i data center premium, solitamente collocati intorno a Milano, sul territorio, sulle zone strategicamente più importanti in termini di bisogno digitale, e lo faremo sfruttando la nostra capacità di attrarre i service provider locali”, ha spiegato Becker ai giornalisti. “Inoltre vogliamo dare a questi attori locali un luogo in cui poter creare un ecosistema digitale, collegandosi tra loro e creando valore nel territorio”. Con una impostazione carrier-neutral, Mediterra ospiterà nelle proprie infrastrutture più fornitori di connettività,
e in particolare Internet Exchange (IX) nazionali e internazionali. La società punta a connettere in rete, con un software-defined network, tutti i propri siti, per permettere così ai service provider di essere virtualmente presenti in ogni data center e raggiungere anche bacini di clientela geograficamente lontani. Per i clienti finali tale approccio è vantaggioso non solo in termini di possibilità di scelta del provider ma anche di resilienza, perché il rischio viene ripartito su più point-of-presence.
La scommessa sull’Italia Come il nome suggerisce, Mediterra ha tra i propri obiettivi i mercati dell’Europa Meridionale ma è partita dall’Italia investendo, lo scorso anno, su Roma: ha acquisito e successivamente ampliato Cloud Europe, il primo data center carrier-neutral certificato Tier IV nel Centro-sud. In questa infrastruttura, collocata nel Tecnopolo Tiburtino di Roma, Mediterra ha già impegnato 80 milioni di euro. Oltre al data center, il sito di Cloud Europe include anche uffici e prossimamente ospiterà degli spazi dedicati ai clienti e partner di Mediterra. Perché cominciare dallo Stivale?
“L’italia è la terza potenza economica europea e una delle prime al mondo”, ha osservato Becker. “Immaginate la potenza digitale che potremmo avere. Se non ce l’abbiamo è perché continuiamo ad affidare il digitale ad altri. Quindi dobbiamo colmare questa discrepanza e noi vogliamo essere parte di tutto questo”. L’Italia vanta anche una posizione geografica privilegiata per erogare servizi verso altre nazioni, come quelle dell'Est Europa o dell’Africa.
Valentina Bernocco
Salesforce amplia il ventaglio dei casi d’uso dell’intelligenza artificiale che può svolgere azioni.
“L’AI non sostituisce l’essere umano, ma permette all’intelligenza umana di sublimarsi”. Salesforce crede nella visione di un’intelligenza artificiale amica, governabile e non minacciosa per le tante professionalità che si trovano e si troveranno a usarla. L’affermazione di Vanessa Fortarezza , senior vice president & general country manager Italy è giunta a fine marzo dal palco milanese dell’“Agentforce Service Summit”, tra annunci di novità, demo e testimonianze di aziende clienti. Sposando una metafora di Giuliano Noci, prorettore del Politecnico di Milano e membro del Comitato per la definizione della
strategia nazionale sull’AI, la country manager ha affermato che l’intelligenza artificiale sarà “come l’aria che entrerà negli anfratti di tutte le organizzazioni e di cui avremo disperatamente bisogno”. E quest’aria Salesforce è intenzionata a respirarla a pieni polmoni e a portarla nelle aziende, partendo dai processi del Crm ma estendendosi anche altrove. Lanciata in disponibilità generale da pochi mesi, la piattaforma di programmazione low-code Agentforce si sta velocemente popolando di soluzioni che permettono di creare o personalizzare agenti AI per differenti casi d’uso, dal supporto clienti, alle
vendite, al field service. La piattaforma include una serie di soluzioni outof-the-box per risolvere problematiche specifiche all’interno delle applicazioni già in uso.
Le soluzioni realizzabili con Agentforce sono fondamentalmente di due tipi: da un lato gli assistenti virtuali basati su Large Language Model, che recuperano informazioni, generano contenuti, riassunti, raccomandazioni e bullet point (l’anno scorso li avremmo chiamati “copiloti”, ma questo termine sta un po’ uscendo dal lessico dei vendor, e Salesforce preferisce parlare di “agenti assistivi”); dall’altro i veri e propri agenti, che possono completare procedure in autonomia. A seconda della base di dati su cui vengon addestrati e a seconda delle istruzioni impartite (per questo, in Agentforce, si possono usare interfacce no-code), gli agenti autonomi possono per esempio prenotare un appuntamento per un cliente, avviare una procedura di reso o pianificare una riunione aziendale. L’interfaccia di back-end di Agentforce permette anche di testare gli agenti prima di metterli “in produzione”, lanciando query di prova anche su larga scala, con centinaia di test condotti in parallelo. In una finestra dedicata viene mostrata, punto per punto, la procedura di ragionamento del modello. Salesforce cerca così di garantire la maggiore trasparenza possibile e anche un controllo qualità preventivo su una tecnologia che spinge l’automazione su livelli inediti.
Tra le ultime aggiunte alla piattaforma c’è Service Assistant, un agente che aiuta il personale nella risoluzione dei casi complessi, recuperando
informazioni e creando checklist sulle azioni da compiere. Agentforce for Employee Service è, invece, un assistente che aiuta i dipendenti di un’azienda ad avere risposte su ferie, opportunità di carriera, corsi di formazione, policy e altre tematiche connesse alle risorse umane.
Casi di trasformazione
L’appuntamento milanese è stata occasione per raccontare le esperienze di alcuni clienti di Salesforce che stanno facendo da apripista. Una è Gruppo Dolomiti Energia , multiutility operante nella filiera dell’energia e dei servizi ambientali.
“Abbiamo introdotto Salesforce anni fa per la parte di vendita, poi è stato deciso di farla diventare l’unica piattaforma di riferimento per far confluire tutti i dati dei clienti, quindi anche la parte del customer service”, ha raccontato Edoardo Fistolera , responsabile Ict. “Da più di un anno abbiamo portato tutti i nostri processi, dalla prevendita al servizio clienti, all’interno di Salesforce”. L’AI viene usata da Gruppo Dolomiti Energia per interfacciarsi sia i clienti sia con la rete dei propri venditori, che possono chiedere i contratti anche in modalità totalmente digitale.
Nell’ambito dell’energia ma su tutt’altra scala opera anche Engie , colosso da 98mila collaboratori, di cui 3.200 in Italia. “Engie sperimenta da anni l’innovazione e l’AI, generativa e non”, ha spiegato Flavia Lenzi, direttore marketing e customer service della multinazionale francese. “Fino a ieri avevamo sviluppato casi d’uso legati all’efficienza operativa e al mi-
glioramento dell’attività dei nostri agenti, esaminando le conversazioni con i clienti. Eravamo però molto curiosi di sperimentare l’AI esternamente con i clienti, e la velocità di implementazione di Agentforce ci ha attratti”. L’azienda ha quindi avviato un caso d’uso sull’onboarding dei clienti, creando un agente virtuale che può svolgere task molto precisi e che all’occorrenza passa la palla a un operatore umano. “Non abbiamo riscontrato criticità nello scambio tra agenti virtuali e operatori, ma è stato necessario farlo in molti casi, come è giusto che sia, perché agli agenti di AI manca l’empatia che invece hanno gli operatori”, ha detto Lenzi. “Siamo partiti cinque anni fa sposando la filosofia Salesforce, che per noi rappresenta un ecosistema attorno a cui abbiamo costruito e impostato tutti i processi di gestione della rete e
del cliente”, ha raccontato Alessandra Iaccarino, direttore marketing operativo di Sara Assicurazioni, oggi una realtà da oltre 600 dipendenti, oltre un milione di clienti e 850 milioni di euro di fatturato. “Per quanto riguarda il customer service abbiamo adottato Service Console, che usiamo in ottica di strategia omnicanale come strumento di riferimento”. La console gestionale viene usata per relazionarsi sia ai clienti finali sia ai clienti interni, cioè gli intermediari di vendita. Gruppo Bossoni, uno dei cinque principali dealer nel settore automotive in Italia, ha invece scelto di usare Agentforce nel front-end, nel dialogo diretto con i prospect che devono essere convertiti in clienti. “L’agente gestisce le richieste dei clienti sul nostro sito Web”, ha illustrato il chief technical officer, Eugenio Pagani. “Se il prospect richiede informazioni su un veicolo, l’agente interagisce direttamente fornendo le informazioni necessarie e invogliando a prendere un appuntamento. Inoltre, può fissare l’appuntamento in base alla data e orario richiesti dall’utente e alle disponibilità in calendario, oppure prende nota se l’utente chiede di essere ricontattato”. Il progetto, in fase di deployment, mira a sgravare il personale da parte del lavoro non a valore aggiunto, nonché a migliorare la customer experience e ad accorciare il ciclo di vendita. “Ovviamente siamo solo alla wave 1, a cui ne seguiranno molte altre wave, perché pensiamo che le possibilità dell’agente siano illimitate”, ha assicurato Pagani.
Valentina Bernocco
Pianificare, già oggi, le trasformazioni legate all’AI da realizzare domani: l’invito lanciato da Sap dall’Executive Summit di Cernobbio.
L’AI è ineluttabile. Ed è importante pianificare oggi quello che avverrà in un futuro già prossimo. Il senso del messaggio trasmesso da Sap ai numerosi Cio e manager convenuti al suo “Executive Summit” di Cernobbio sta in questa riflessione temporale, in cui non si può trascurare la dimensione di un passato che trascina con sé fardelli non semplici da eliminare. Occorre fare i conti con il retaggio delle scelte precedenti, con la necessità di armonizzare i dati da utilizzare e con incertezze legate sia al forsennato passo dell’innovazione sia alla situazione geopolitica. Carla
Masperi, Ceo di Sap Italia, ha posto l’accento sull’importanza di disporre di dati coerenti come base per liberare tutto il potenziale dell’AI: “La frammentazione è un problema e un fattore di rallentamento. I manager delle realtà italiane, e non solo, sono aperti al cambiamento e spingono in questa direzione. I chief information officer, però, si trovano spesso a gestire un quadro di complessità, che occorre superare per poter misurare il corretto ritorno sugli investimenti. Il cloud fornisce la spinta nella giusta direzione, perché integra il concetto di aggiornamento continuo”.
Carla Masperi
La “stele di Rosetta” di Sap Sap ha lavorato molto per fornire alle aziende gli strumenti per affrontare questa fase di cambiamento. Oggi siamo nella fase della cosiddetta Agentic AI ed Emmanuel Raptopoulos, chief revenue officer Apac, Emea & Mee di Sap, ha voluto sottolineare come entro la fine dell’anno saranno disponibili 400 agenti “destinati a far crescere la produttività fino al 30% nelle aziende che sapranno adottarli. La chiave per noi è aver introdotto Knowledge Graph, una sorta di stele di Rosetta nel mondo della tecnologia, perché supera il limite dei Large Language Model nella lettura all’interno delle applicazioni per ragioni semantiche, consente di porre domande in linguaggio naturale e ottenere risposte nella stessa modalità”. La recente partnership con Databricks segna un altro passo verso l’unificazione dei dati classicamente transazionali con quelli di nuova concezione: nella soluzione Business Data Cloud, sarà possibile far confluire ciò che risiede nelle principali piattaforme Sap con informazioni provenienti dall’esterno.
Il cloud è un punto fermo
Passare al cloud resta per il vendor l’elemento cardine per poter sfruttare al meglio il potenziale dell’AI. Tuttavia, occorre fare i conti con uno zoccolo duro di utenti della tradizionale piattaforma Sap Ecc (Erp Central Component), che nel 61% dei casi, secondo Gartner, non ha ancora fatto alcun investimento in direzione di S/4Hana. Anziché insistere su una migrazione forzata, ora Sap pare orientata ad accompagnare con gradualità la scelta dei propri clienti. Da qui la decisione di introdurre Sap Erp
Le promesse della GenAI in azienda sembrano mirabolanti, ma dai clienti di Google, e in particolare di Google Cloud, arrivano testimonianze che sembrano confermare le potenzialità e la trasversalità di questa tecnologia. Durante un evento dedicato all’AI generativa (che ormai è diventata pervasiva in Google Workspace), il country manager per l’Italia di Google Cloud, Raffaele Gigantino, ha mostrato qualche numero interessante. Il primo dato è che l’adozione dell’AI sta subendo un’impennata, passando da una presenza nel 52% delle aziende, nel 2023, al 72% del 2024. Il 45% delle aziende che dichiara di usare con successo l’intelligenza artificiale vede un raddoppio della produttività rispetto ai livelli precedenti all’adozione.
L’AI sembra in grado di portare benefici in tutte le divisioni aziendali se si prepara il terreno nel modo giusto. Piergiorgio Grossi, chief innovation and data officer di Credem, ha da subito creduto nelle potenzialità di questa tecnologia e per questo il suo approccio è stato molto “aggressivo”, ma forse proprio per questo anche efficace. Si è scelto di creare una sorta di “task force” interna, composta da dipendenti operanti in diverse divisioni, affidando loro il compito di usare l’AI generativa. Il risultato è che nell’arco di due anni si sono sviluppati (quasi) spontaneamente 239 diversi ambiti d’uso per la GenAI, distribuiti in maniera trasversale all’azienda. “Uno degli ambiti in cui la Gen AI ha funzionato meglio”, ha raccontato Grossi, “è stato quello della compliance. Lavorando in un ambito finanziario, la nostra azienda deve seguire una regolamentazione rigorosa e produrre molti documenti per le autorità di controllo. Con la GenAI abbiamo automatizzato una procedura per tradurre i documenti che produciamo per uso interno nei formati richiesti dei vari enti”. Per il futuro, Grossi punta a portare l'AI generativa in tutte le divisioni lasciando che siano i dipendenti a esplorare e capire dove può questa tecnologia può essere utile. Altra testimonianza interessante è giunta da Gruppo Menarini: come messo in luce da Nicola Portolano, strategic operation e AI manager del gruppo farmaceutico, la GenAI ha portato il 90% dei dipendenti a vedere un miglioramento della qualità del proprio lavoro. Per questo, nei prossimi mesi l’azienda punterà a espandere l'utilizzo coprendo tutte le divisioni e facendo leva sulla formazione. G.C.
Private Edition Transition Option, possibilità indirizzata soprattutto alle grandi aziende con installazioni Ecc complesse e personalizzate, con un’offerta di prolungamento del supporto fino al 2033 (rispetto al 2027 inizialmente fissato), purché venga sottoscritto un contratto su Rise with Sap entro i tre anni successivi.
Dall’energia al food
Tra i clienti di Sap presenti al summit c’era Compagnia Valdostana delle Acque, azienda che gestisce sei dighe e 32 centrali idroelettriche, e che usa l’AI per la compliance amministrativa. “Previsioni meteo, programma-
zione della produzione, collocazione sul mercato, edging per le coperture da rischi finanziari: tutto questo oggi passa per algoritmi ed elaborazione dati”, ha spiegato il Ceo, Giuseppe Argirò. Di Eni già conosciamo gli sforzi prodotti per dotarsi di supercomputer fra i più potenti in circolazione (al quinto posto nella classifica mondiale TOP500). “Occorre saper sfruttare correttamente la capacità computazionale”, ha evidenziato l’executive vice president global digital & IT, Dario Pagani. “Guardiamo avanti, al quantum computing come strada per non traslare all’infinito il rapporto fra capacità e consumi ener-
getici, ma anche all’AI come strumento di accelerazione della ricerca per poi metterne a terra i risultati e per connettere le conoscenze disperse nel mondo attraverso il nostro knowledge hub ”. Anche Ferrero lavora in prospettiva, su input di un management che ha compreso il peso abilitante della tecnologia. “Puntiamo all’eliminazione progressiva delle frammentazioni ancora esistenti”, ha indicato il group Cio, Jorg Behrend. “L’AI già ci supporta in vario modo, ad esempio nella pianificazione della supply chain, particolarmente articolata per una multinazionale come la nostra”. Roberto Bonino
Brother Pagine+ può essere configurato in base alle esigenze del cliente, per ottimizzare costi e altri aspetti della gestione documentale.
Più sicurezza, performance, controllo sui costi, meno grattacapi. I servizi di stampa gestita aiutano a ottenere questi vantaggi, ed è ancor meglio se vengono proposti in formula flessibile e da un fornitore noto e affidabile. Pagine+, la soluzione offerta da Brother, permette alle aziende di ottimizzare non solo l’attività di stampa ma tutti i processi di produzione, scambio e archiviazione di documenti. Un importante vantaggio è la capacità di tenere sotto controllo i costi della stampa, inclusi quelli “nascosti”, legati all'inchiostro o al toner, alla carta, all’energia consumata e alla manutenzione dell’hardware. Se si stampa troppo, in modo disordinato e inconsapevole, tutti questi costi lievitano. Affidandosi alla stampa gestita di Brother, al contrario, si può ridurre il Tco in modo significativo, fino al 40%. In secondo luogo, grazie a funzioni di sicurezza e crittografia i Managed Print Services riducono il rischio di violazioni o accessi non autorizzati ai documenti: aiutano, quindi, nella protezione della proprietà intellettuale e nella compliance al GDPR. Un terzo beneficio riguarda il buon funzionamento e l’efficienza della stampa: con servizi di manutenzione e con la gestione automatica delle forniture di consumabili, non si rischiano tempi morti.
Il punto di forza è la personalizzazione
Una caratteristica distintiva di Pagine+, il servizio di stampa gestita di Brother rivolto alle aziende, è la personalizzazione: in base al contesto e alle esigenze del cliente, si possono calibrare aspetti come il modello di consumo, la formula di assistenza e il riordino dei consumabili. I consulenti di Brother realizzano un’analisi iniziale del parco stampanti già presente e danno supporto nel calcolo del Total Cost of Ownership (in termini di costo per pagina prodotta), nella definizione degli obiettivi e nella scelta dell’hardware più adatto. Tutto ciò aiuta innanzitutto a fare scelte consapevoli e vincenti nell’acquisto di nuove stampanti, ma questo è solo il primo passo. Il modello di consumo dei Managed Print Services può essere personalizzato scegliendo tra la formula classica del “pacchetto a volume minimo” (in cui è previsto un numero massimo di stampe su base mensile o trimestrale, superato il quale si pagano le eccedenze) e una formula più flessibile, in cui mese per mese viene emessa una fattura in base al numero di documenti stampati nel periodo. Affidandosi a Pagine+, inoltre, si può decidere di acquistare l’hardware oppure noleggiarlo, e anche in quest’ultimo caso si può optare per la formula a volume minimo o per il calcolo dei consumi effettivi.
Tutti i dettagli sotto controllo
Le possibilità di personalizzazione non finiscono qui, perché i consulenti di Brother aiutano anche i clienti a capire come impostare le soglie di notifica dei consumabili (per esempio, se il toner scende sotto al 30% oppure al 10%), in base a tempistiche, volumi e modalità di stampa abituali. Grazie a un sistema di monitoraggio integrato, la stampante o il dispositivo multifunzione possono, in automatico, emettere una notifica se il livello del consumabile scende sotto la soglia prefissata. Brother provvederà quindi a inviare gratuitamente i consumabili direttamente in azienda. Anche per il servizio di assistenza non c’è un’unica formula proposta, ma due: quella classica di cinque giorni su sette, per le aziende che nel weekend si fermano, e quella di sette giorni su sette per chi ha necessità di interventi rapidi. Con Pagine+, inoltre, è previsto un servizio di assistenza per i problemi legati all’usura dei dispositivi.
Qlik continua a perorare la causa della cultura dei dati, anche in uno scenario scosso dall'AI.
Da molti anni Qlik si è ricavata un ruolo di rilievo nel mercato della Business Intelligence e degli analytics, con soluzioni che combinano l’integrazione dei dati, l’analisi avanzata e il machine learning. L’acquisizione di Talend di un paio d’anni fa ha ampliato le capacità di integrazione e oggi Qlik Sense è una soluzione che copre l’intero ciclo di vita dei dati. Le successive acquisizioni di Kyndi (motore di risposta per l’interrogazione dei dati) e Upsolver (streaming dati in tempo reale) hanno ancora potenziato l’offerta, oggi estesa anche all’AI agentica. Da qui siamo partiti per analizzare l’attuale contesto con il market intelligence lead di Qlik, Dan Sommer.
Avete scelto di essere “neutrali” rispetto ai diversi modelli. Perché?
La situazione è in costante evoluzione. Oggi il modello di OpenAI sembra più avanti rispetto agli altri, ma molti fattori stanno suggerendo possibili cambi di scenario anche a breve termine, e
non si tratta di elementi solo tecnologici ma anche geopolitici. È corretto, per esempio, chiedersi se sia sicuro oggi affidare i propri dati a tecnologie provenienti dagli Stati Uniti. Per questo riteniamo che sia più corretto non sposare un LLM o l’altro.
Dove vi hanno portati le acquisizioni realizzate?
Oggi Qlik propone un vero e proprio data stack e abbiamo fatto diverse acquisizioni per arrivare a questo. Talend è certo il nome più importante, ha richiesto un pochino più di tempo per integrare le rispettive culture, ma le successive fasi organizzative si sono completate in modo molto rapido. All’inizio di quest’anno abbiamo acquisito Upsolver e questo ci ha permesso di supportare le aziende nei processi di ottimizzazione nella costruzione di data lakehouse. Molte realtà hanno investito in questa direzione per mettere in un unico luogo tutti i loro dati strutturati e non, ma spesso hanno incontrato difficoltà legate alla scelta dei fornitori di database di utilizzare differenti formati. Ora, invece, Apache Iceberg si sta progressivamente imponendo come uno standard di integrazione, ma l’acquisizione ci ha portato anche maggiori capacità di streaming in real time e questo sarà un tema molto importante per gli sviluppi in direzione della Agentic AI, dove la necessità di lavorare su dati aggiornati è fondamentale.
Sulla data literacy, cioè la “alfabetizzazione” sui dati, avete sviluppato progetti e iniziative dedicate. A che punto sono le aziende?
Abbiamo aiutato alcune organizzazioni a fare passi avanti, ma stiamo ancora investendo su questo fronte. Oggi assistiamo all’evoluzione dell’idea di data literacy verso quella che potremmo chiamare AI literacy, per fornire le basi utili a comprendere quando utilizzarla e quando invece può non servire, oppure per sapere quale tipologia di dati destinare a un LLM pubblico. L’evoluzione dell’AI ha fatto sì che si possa chiedere direttamente alla tecnologia di eseguire un data cleaning o far costruire una dashboard, mentre oggi vale più la pena concentrarsi sulla AI literacy come evoluzione naturale di quello che fino a pochi anni fa si faceva sui dati.
Siete stati fra i pionieri del concetto di self-BI, la Business Intelligence “selfservice”: un tema recexpito bene dalle funzioni di business ma un po’ meno dai Cio, che hanno dovuto affrontare sviluppi fuori dal loro controllo. Che impatto avrà l‘AI?
L’idea della self-BI è tuttora attuale e ha portato nel tempo le aree di business a costruire competenze e piccoli team IT interni per sviluppare i propri data product. Il nostro ruolo come fornitori di uno stack nel mondo dei dati è fare in modo che nelle aziende si superino i silos, infatti una delle aree di investimento per noi più importanti è quella del data lineage. Nell’era dell’AI, troviamo corretto che il controllo vada sempre più in direzione dell’IT, per impedire che ci siano sviluppi potenzialmente anche pericolosi per le aziende.
Roberto Bonino
Con la piattaforma Agent Studio, Oracle punta a rendere l’Agentic AI più accessibile, rivolgendosi a imprese di ogni dimensione e settore.
La velocità connota da tempo il ritmo dell’evoluzione tecnologica, ma l’AI generativa ha impresso un’ulteriore accelerata. “Sono passati poco più di due anni fra le prime sperimentazioni su ChatGpt e lo sviluppo di soluzioni basate sugli agenti”, ha osservato Richard Smith, vice president of technology Emea di Oracle, presente lo scorso marzo alla tappa milanese del roadshow “Oracle Cloudworld Tour”. “L’accessibilità è centrale per favorire una rapida adozione”. Qui si colloca il lancio di Agent Studio, una piattaforma per la creazione, estensione, distribuzione e gestione di agenti di intelligenza artificiale (o di team di agenti): sarà integrata nella suite Fusion Cloud Applications. “I clienti possono utilizzare agenti già pronti all’uso o crearne di propri: l’importante è dare loro la possibilità di scegliere”, ha indicato Chris Leone, executive vice president AI
Agents, Cloud Applications di Oracle. “Il vantaggio si crea quando esiste la possibilità di progettare soluzioni su misura per specifiche esigenze organizzative e aziendali. Noi offriamo questa flessibilità, aprendo anche all’integrazione con agenti di terze parti o creati con altre piattaforme”. Attualmente sono già disponibili oltre cinquanta agenti preconfigurati per i diversi ruoli aziendali e per un centinaio di casi d’uso. Possono essere attivati senza ulteriori costi all’interno degli abbonamenti SaaS (Software as-a-Service), che prevedono aggiornamenti automatici ogni 90 giorni.
Un’onda da cavalcare
Per tenere il passo del mercato, è inevitabile anche Oracle cavalchi il filone dell’AI agentica, cioè capace di compiere azioni in autonomia. Gartner prevede che entro il 2028 circa il 33% delle applicazioni software aziendali includerà l’intelligenza artificiale “agente”, partendo dalla percentuale inferiore all’1% del 2024. Per Grand View Research, invece, il mercato globale degli agenti di intelligenza artificiale, stimato in 5,4 miliardi di dollari nel 2024, dovrebbe crescere a un tasso ponderato del 45,8% tra il 2025 e il 2030, trainato dalla domanda di automazione, dai progressi nell’elaborazione del linguaggio naturale e dalla volontà delle aziende di offrire esperienze personalizzate ai consumatori finali.
Avanguardie italiane dell’AI
Diverse aziende italiane stanno lavorando insieme a Oracle per adottare l’Agentic AI. Ermenegildo Zegna, per esempio, sta seguendo questa via come nuova fase di un programma di trasformazione avviato da qualche anno, incentrato sulla tecnologia per semplificare i processi e per comunicare con la clientela. “Il cloud ha fatto da trampolino per coniugare l’azienda sartoriale storica e la velocità del fashion giovane cresciuto negli ultimi anni”, ha commentato il group Cio, Matteo Torti. L’azienda ha già implementato agenti sui propri tool e ha attivato un piano per individuare le aree di investimento, “Engagement dei clienti e personalizzazioni con messaggi tarati sui gusti sono le evoluzioni più logiche”, ha aggiunto Torti. “Ma stiamo analizzando applicazioni anche sulla convergenza fra gli input degli stilisti e le attitudini della clientela, la prototipizzazione e l’efficienza interna nel back-end”.
Nell’ambito della Pubblica Amministrazione, interessante è l’esperienza portata avanti dal Consiglio di Stato. “Se il cloud per noi ha fatto da spartiacque per andare oltre i limiti della precedente infrastruttura on-premise, l’AI sta già rivestendo un ruolo strumentale nella ricerca documentale a supporto del lavoro delle persone destinate a prendere decisioni”, ha illustrato la consigliera Brunella Bruno. “Abbiamo scelto di sviluppare internamente il modello di linguaggio e di addestrarlo solo con i nostri dati, ottenendo un risultato adattabile ai frequenti cambiamenti normativi. I primi casi d’uso sono già operativi, ad esempio per il confronto di casi che presentano similitudini fra loro”.
Roberto Bonino
L’azienda si posiziona sul mercato italiano con soluzioni personalizzate per la preparazione e la gestione delle crisi informatiche.
Negli ultimi anni si parla sempre di più di cyber resilienza, anziché di semplice “sicurezza informatica”. Ed è un concetto centrale per Code Blue Italy, realtà che ha recentemente debuttato sul mercato italiano, nata come jointventure tra Dussmann Service Italia e Code Blue Ltd. Ne parliamo con Lavinia Rossi, direttore generale di Code Blue Italy.
Che cosa significa per voi cyber resilienza?
Negli ultimi anni questo concetto ha guadagnato sempre più importanza rispetto alla semplice sicurezza informatica. Mentre quest’ultima si concentra principalmente sulla protezione di sistemi e dati da accessi non autorizzati e attacchi, attraverso misure preventive come firewall, antivirus, e crittografia, la cyber resilienza va oltre: è la capacità di un’organizzazione di continuare a operare e fornire servizi anche quando si verifica un incidente informatico. Include non solo la prevenzione degli attacchi, ma anche la capacità di mitigare i danni, riprendersi rapidamente e adattarsi alle nuove minacce. In pratica, la cyber resilienza accetta il fatto che nessuna misura di sicurezza sia infallibile e si prepara a rispondere efficacemente quando un attacco riesce a superare le difese.
Quali le principali lacune da colmare?
A nostro parere, lacune di natura organizzativa. Spesso le aziende si concentrano eccessivamente sull’acquisizione di soluzioni di protezione, hardware o licenze software, trascurando invece gli aspetti organizzativi e di processo. Questo può portare a una falsa sensazione di sicurezza, poiché anche le tecnologie più avanzate non possono compensare la mancanza di una solida struttura organizzativa. Alcuni aspetti organizzativi critici riguardano la mancanza di consapevolezza e formazione, i processi di risposta agli incidenti, la comunicazione e il coordinamento, la valutazione e il miglioramento continuo.
Quali tecnologie e strategie servono?
Bisogna andare oltre l’acquisizione di soluzioni tecnologiche e concentrarsi sul rafforzamento degli aspetti organizzativi e di processo. Solo attraverso una combinazione di tecnologia avanzata e solide pratiche organizzative è possibile costruire una difesa efficace. Molte aziende non dispongono di processi ben definiti per rispondere agli incidenti informatici. Questo include la mancanza di piani di continuità operativa e di recupero, che sono essenziali per minimizzare i danni e riprendersi rapidamente.
Qual è la proposta di Code Blue?
In Code Blue comprendiamo l’importanza cruciale di un recupero senza intoppi dalle crisi informatiche. Code Blue è specializzata in soluzioni personalizzate per la preparazione e gestione delle crisi informatiche. Sfruttando decenni di esperienza, abbiamo sviluppato un approccio multidisciplinare rivoluzionario alla preparazione e all’intervento in caso di crisi. Il Consiglio di Amministrazione di Code Blue Italy Srl è composto da Refael Franco, fondatore e Ceo di Code Blue Ltd, che porta con sé una solida esperienza nella gestione delle crisi informatiche, e dall’Ing. Renato Spotti, presidente e Ceo di Dussmann Service. Il nostro approccio su misura, che combina una metodologia di preparazione unica con un Crisis Management Team esperto, riduce costantemente la durata delle crisi di più della metà. Code Blue Italy si propone sul mercato italiano come il partner di riferimento per la gestione delle crisi informatiche, supportando aziende e istituzioni nel navigare e prevenire gli incidenti cyber con rapidità, competenza e visione strategica. Da qui il nostro slogan: “Resilienza, Reputazione e Ripristino sono al centro di tutto ciò che facciamo”.
Spinto dal boom dell’AI e dalla ricerca di efficienza energetica, il mercato dei data center è in fermento. Anche in Italia.
Le infrastrutture elettriche e digitali sono la specialità del Gruppo Legrand, realtà multinazionale da 9 miliardi di euro di fatturato, che conta 90 filiali e uffici commerciali e 38mila dipendenti nel mondo. Multinazionale ma anche un po’ italiana, dato che nel nostro Paese il gruppo ha circa tremila dipendenti, undici siti produttivi e diversi centri di competenza, e che sempre in Italia porta avanti attività di ricerca e sviluppo. Distribuita da BTicino, Legrand Data Center
Solutions è la divisione focalizzata su un mercato oggi molto dinamico come quello delle infrastrutture di elaborazione dati. Simone Ferreri, Responsabile Vendite Prescrizione e Datacenter, ci ha parlato delle opportunità e delle sfide all’orizzonte, portando il punto di vista di un esperto di infrastrutture elettriche e digitali, che lavora da oltre 25 anni in questo mercato. Attualmente Ferreri guida in Italia il team incaricato dello sviluppo del business di Legrand legato ai data center.
Come si posiziona, oggi, l’Italia nello scenario mondiale dei data center?
Il mercato italiano è in questo momento uno tra più attivi in Europa in quanto a nuove realizzazioni. A fare da traino sono i grandi data center gestiti da player internazionali, perché anche in Italia la principale esigenza da soddisfare oggi è l’aumento della potenza elettrica erogata, legato soprattutto
all’adozione dell’intelligenza artificiale. C’è però anche una tendenza più embrionale rispetto a quello citata: la nascita di nuovi data center cosiddetti “di prossimità” o “edge”, con potenze tipicamente comprese tra 1 e 10 megawatt. Si tratta di un mercato più frammentato rispetto a quello degli hyperscale ma molto interessante per il Gruppo Legrand: lavorare su questa dimensione d’impresa fa parte del nostro Dna e vantiamo un ampio catalogo di soluzioni ad hoc. Inoltre, quello dei data center edge è un mercato interessante perché avrà, secondo noi, un orizzonte di sviluppo più prolungato negli anni rispetto a quello degli hyperscale
Che cosa serve per supportare, in Italia, la crescita del mercato?
Crediamo che, a livello di sistema Paese, sia opportuno agevolare i grandi player nell’ottenere i permessi neces-
sari e nell’individuare le aree più adatte per le nuove realizzazioni. In questo momento l’area milanese è quella più florida ma sarà sicuramente necessario, per il futuro sviluppo del settore, investire anche su altre aree. Come Legrand Data Center Solutions siamo al fianco dei principali grandi player, che supportiamo fin dalla fase progettuale e quindi anche nelle scelte tecniche che determinano poi l’assetto del data center. In particolare, lavoriamo in team con gli studi progettazione, nostro interlocutore storico, in modo da definire quali siano le soluzioni migliori (sia per il gestore del data center sia per l’utente finale) in termini di efficienza e sostenibilità.
Ha citato due concetti oggi molto dibattuti, due risvolti critici del boom dell’AI. I data center si stanno adeguando, e come?
Con l’adozione massiccia dell’AI c’è
Keor Flex è l’innovativa soluzione Ups Legrand, pensata per i data center e per le applicazioni critiche in generale. Con un’efficienza energetica fino al 98,4% e un ingombro molto ridotto, il nuovo Ups della famiglia Legrand stabilisce un nuovo standard in termini di affidabilità e funzionalità. Keor Flex aggiunge a modularità e scalabilità una nuova interfaccia utente, risultando più pratico e maneggevole, permettendo una manutenzione più facile e veloce, assicurando continuità durante i blackout. I moduli possono essere sostituiti a caldo in modo sicuro e rapido, riducendo così i tempi e costi e aumentando la disponibilità. Il prodotto è predisposto per il monitoraggio e il controllo remoto secondo i più alti standard di cybersecurity, facilitando la gestione a distanza e la manutenzione predittiva. Il suo design unico non solo lo rende visivamente distintivo, ma migliora anche l’esperienza dell’utente.
È arrivato il momento di dire addio agli armadi neri: Keor Flex ha ricevuto nel 2025 il Red Dot Design Award, uno dei maggiori riconoscimenti del mondo del design a livello mondiale. Il prodotto combina, infatti, alte prestazioni e facilità d’uso con un design del tutto innovativo, caratterizzato da linee pulite e dettagli distintivi che garantiscono un funzionamento senza errori. La divisione verticale delle zone bianche e nere guida nell’utilizzo, con il nero per le parti tecniche e il bianco per l’esperienza dell’utente. La striscia LED trasparente aggiunge leggerezza, abbracciando il display e segnalando l’alta tecnologia. La caratteristica grafica esagonale si illumina di colore per indicare lo stato del sistema, creando una firma visiva unica. Keor Flex, il nuovo Ups Legrand, sarà disponibile in Italia a breve.
una chiara tendenza all’aumento della capacità di calcolo e, quindi, delle potenze per kilowatt a livello di rack. Progettare in ottica di sostenibilità significa ragionare soprattutto su due aspetti, cioè il raffreddamento e il critical power, due temi oggi in fortissima evoluzione. I data center attualmente in fase di realizzazione sono ancora figli di precedenti logiche, mentre quelli che vedremo sorgere nei prossimi due o tre anni dovranno tenere conto del cambiamento imposto dall’AI. Possiamo dire che tra le aziende utenti già esiste una buona cultura della sostenibilità, perché i consumi energetici dei data center influiscono sui costi e anche sul raggiungimento degli obiettivi Esg prefissati. Quindi i data center che contengono una tecnologia migliore e più sostenibile risultano, per così dire, più appetibili.
Come affrontate questi temi in Legrand?
Cerchiamo di tradurre in opportunità una sfida notevole quale è l’aumento del fabbisogno energetico dei data center. Per fare un esempio, stanno nascendo molti progetti di riuso del
calore, da destinare al riscaldamento di compound abitativi o ad altri utilizzi. Il nostro ruolo è anche quello di offrire soluzioni a basso impatto ambientale, per esempio trasformatori di potenza e Ups progettati per ridurre al minimo l’impronta di carbonio del data center. Una variabile da considerare è il metodo di raffreddamento senza porte posteriori, e anche in quest’ambito possiamo dire la nostra grazie a un’acquisizione del 2022, la britannica USystems: le sue soluzioni Rear Door Cooling sono ideali per le applicazioni che richiedono elevate potenze di calcolo a livello di singolo rack. Questo è solo un esempio del modo in cui abbiamo cercato e cerchiamo di anticipare le evoluzioni, di essere proattivi per stare al passo con un mercato che si trasforma molto velocemente. V.B
Lo stato dell’arte della trasformazione digitale
nelle aziende italiane, racchiuso nei dati di Istat e di TIG – The Innovation Group.
Da più di vent’anni analisti, ricercatori e addetti ai lavori ricorrono all’espressione “trasformazione digitale” per descrivere i cambiamenti innescati dalle tecnologie informatiche all’interno delle aziende, il modo in cui sono state usate per rendere più efficienti i processi organizzativi, rivedere modelli di business e strategie di go-to-market, in alcuni casi anche ripensando l’intera azienda in chiave digitalfirst. Parallelamente, nuove tecnologie e paradigmi tecnologici – dal cloud computing all’intelligenza artificiale – hanno fatto il proprio ingresso nei mercati, per abilitare nuove modalità di lavoro, accesso e consumo di prodotti e servizi e di generazione di informazioni, dando sempre ulteriore spinta al dibattito sul potenziale di una trasformazione in chiave digitale. Qual è lo stato dell’arte nelle aziende italiane? E quali sono le sfide e opportunità che le trattengono in un tira e molla tra piena adozione e scarsa adesione del paradigma digitale?
Il quadro italiano
Dai dati Istat più recenti emerge che nel 2024 il 71% delle imprese italiane con almeno dieci addetti ha un livello base di digitalizzazione, ossia dichiara di svolgere almeno quattro delle 12 attività che vengono considerate per il calcolo dell’indice di intensità digitale dell’Unione Europa (gli indicatori riguardano la connessione alla Rete, la presenza
specialisti Ict, la disponibilità di banda larga, il ricorso alle riunioni online, le competenze in cybersicurezza, l’utilizzo dell’AI, la vendita online e altro ancora).
Se si considera, invece, più nel dettaglio il livello di digitalizzazione, superando quindi quella che è la soglia delle competenze base richieste, emerge che sul totale delle attività economiche (escludendo i servizi finanziari) il 27% delle imprese raggiunge un livello di digitalizzazione alto o molto alto. Particolarmente performanti sono le imprese del settore energy & utilities, dove questa percentuale raggiunge il 35%, seguite da quelle di servizi non finanziari, al 31%; è qui che d’altra parte si trovano i sottosettori più digitalizzati, tra cui le telco (l’87% ha un livello alto o molto alto) e le società informatiche (79%).
Tra le macroaree considerate, è invece quella delle costruzioni la meno perfor-
Imprese per livello di digitalizzazione
mante in termini di adozione del digitale: solo il 13% delle imprese dichiara di raggiungere un livello di digitalizzazione alto (o superiore). È d’altro canto il sottosettore dei servizi di ristorazione quello nel complesso più arretrato: solo il 4% ha un livello alto di digitalizzazione, il restante 96% dimostra invece un livello basso o molto basso.
Il sentiment in azienda
Il trend della trasformazione digitale è ormai un dato di fatto in Italia, secondo i risultati della nuova edizione della “Digital Business Transformation Survey”, un’indagine che TIG – The Innovation Group conduce da diversi anni per monitorare il sentiment su questo tema tra manager e C-level di aziende attive nel nostro Paese, indagine che quest’anno ha coinvolto 146 rispondenti. Tra gli intervistati, che per la metà operano in aziende con più di 100 dipendenti, sembra emergere una certa diffidenza rispetto all’attualità di questo tema. Il 45% dei rispondenti, infatti, dichiara che il digitale fa ormai completamente parte del modo di operare della propria azienda, e quindi di non parlare più di trasformazione: questo risultato va in qualche modo a braccetto con i dati di Istat, con un’elevata percentuale di aziende soprattutto in alcuni settori (particolarmente coperti dalla “Digital Business Transfor-
mation Survey”) in cui si manifestano livelli alti o molto alti di digitalizzazione. Certamente, dunque, grandi passi in avanti sono stati fatti negli ultimi anni in termini di adozione del digitale, anche grazie alla grande spinta dettata dalle esigenze del periodo della pandemia da Covid-19.
Restano d’altra parte sfide e consapevolezze che le aziende devono imparare a gestire e con cui confrontarsi nel ricorso e nella piena valorizzazione delle tecnologie digitali. Un interessante risultato emerge, in questo senso, sempre dall’indagine di TIG – The Innovation Group: se il digitale, secondo i rispondenti alla survey, ha indubbiamente un ruolo nel raggiungimento di obiettivi strategici (quali il miglioramento dell’efficienza operativa e lo sviluppo di nuovi prodotti, servizi ed esperienze), raggiunge una minor rilevanza di business nel momento in cui si valuta la sua capacità di aumentare il fatturato dell’azienda: è solo il 29%, infatti, a proporsi di raggiungere questo obiettivo con il supporto del digitale, benché questo resti indubbiamente tra le principali priorità strategiche delle aziende.
Cultura, formazione ed engagement
Secondi i manager e i C-level intervistati da TIG – The Innovation Group, gli aspetti chiave nella facilitazione dello sviluppo e della messa a terra di progetti digitali riguardano indubbiamente la cultura aziendale e la formazione del personale, così come la capacità di coinvolgimento del top management. Per oltre metà dei rispondenti, infatti, la capacità dell’organizzazione di ripensarsi in chiave digitale diventa un asset fondamentale, così come lo è sviluppare una leadership forte sul progetto, coinvolgendo figure di rilievo nella gerarchia aziendale. Anche il tema della formazione del personale rispetto al potenziale e ai vantaggi dell’innovazione diventa un
Lo stato della trasformazione digitale nelle imprese
Fonte: TIG – The Innovation Group, “Digital Business Transformation Survey 2025”; base: 146; risposta alla domanda: “Qual è lo stato della trasformazione digitale della Sua azienda/ ente?”, al netto dei “Non saprei”
Priorità 2025 da raggiungere attraverso il digitale
Fonte: TIG – The Innovation Group, “Digital Business Transformation Survey 2025”; base: 127; risposta alla domanda: "Quali saranno nel 2025 le priorità strategiche della Sua azienda/ente che saranno raggiunte con il supporto del digitale?"
aspetto cardine nel supportare le aziende nella diffusione del digitale. Questi aspetti risultano addirittura più rilevanti di valutazioni e considerazioni di carattere economico, come ad esempio questioni di disponibilità e di fonti
di finanziamento, o della creazione di un network e di un ecosistema a supporto del processo di innovazione dell’azienda, fatto di consulenti, fornitori e best practice condivise.
Camilla Bellini
Quanto impatterà sui consumi energetici il boom
dell’intelligenza artificiale? Da alcuni studi sul tema emergono scenari poco rassicuranti.
Ci sarà sufficiente energia per alimentare il boom dell’intelligenza artificiale? Il rapporto tra il fenomeno dell’AI e la sostenibilità solleva molti interrogativi, in un momento in cui politici e giganti della tecnologia stanno programmando massicci investimenti in data center. Lo scorso gennaio, all’indomani dell’insediamento alla Casa Bianca, Donald Trump ha annunciato un piano di investimenti da 500 miliardi di dollari, con Oracle, OpenAI e Softbank a guidare il progetto, mentre Microsoft ha manifestato l’intenzione di spendere 80 miliardi di dollari su questo fronte solo nel 2025.
Secondo l’Agenzia Internazionale per l’Energia, il consumo dei data center rappresentava circa il 2% dell’elettricità utilizzata nel mondo nel 2022 ed è desti-
nato a raddoppiare (o poco meno) entro il 2030, per raggiungere 945 terawattora, ovvero l’equivalente del fabbisogno energetico del Giappone. Ed è chiaramente l’intelligenza artificiale a innescare questo boom, con la previsione di un fabbisogno energetico decuplicato nell’arco dei prossimi tre anni.
Fra tecno-utopie e pessimismo
In un recente studio, Schneider Electric ha sviluppato quattro scenari legati alla possibile evoluzione del consumo energetico delle infrastrutture necessarie per le applicazioni AI entro il 2035. Per avere un’idea di quello che ci aspetta, si legge nel report, basti notare come nel Data Center Alley della Virginia Settentrionale le infrastrutture di elaborazione dati consumino già il 25% dell’elettricità
della regione e potrebbero raggiungere quasi il 50% del totale in uno scenario di forte crescita. Questo spingerà le utilities a proporre nuove infrastrutture di produzione di energia basate su combustibili fossili: proprio quelli che andrebbero aboliti per far posto alle fonti rinnovabili. Parimenti, in Irlanda si prevede che già dal prossimo anno i data center inghiottiranno quasi un terzo dell’elettricità consumata su base nazionale, mentre nei Paesi Bassi la regione di Amsterdam ha messo in atto restrizioni in seguito alle tensioni di rete causate dalle infrastrutture tecnologiche.
Tra i quattro possibili scenari proposti da Schneider Electric, quello più ottimistico si basa sull’idea che possa esistere una disponibilità inesauribile di fonti energetiche. Coincide con la visione dei tecno-utopisti, convinti che il progresso tecnologico possa superare tutti i vincoli relativi alle risorse. In questa configurazione, gli autori del rapporto prevedono che il consumo globale di elettricità ge-
nerato dalle applicazioni di AI aumenterà da 100 a 1.370 TWh tra il 2025 e il 2035. Tuttavia, la crescente domanda di elettricità dell’AI potrebbe continuare a dipendere dai combustibili fossili, con le conseguenze ambientali che ne derivano, soprattutto in termini di emissioni di gas serra.
Se questa traiettoria è chiaramente quella pianificata dall’amministrazione Trump e dai suoi sostenitori nel settore hi-tech, essa potrebbe essere ostacolata dalla disponibilità di risorse energetiche. È questa l’ipotesi che Schneider Electric sta esplorando nel suo scenario di crisi energetica, caratterizzato da una rapida espansione seguita da una forte contrazione. In questo modello, il consumo aumenterebbe da 100 a 670 TWh tra il 2025 e il 2030, spinto dalla crescita esponenziale dei processi di addestramento dei modelli e dell’inferenza legata all’AI generativa, soprattutto in regioni come gli Stati Uniti, la Cina e l’Unione Europea. Questo rapido sviluppo, che stiamo già osservando, supererebbe le capacità delle infrastrutture energetiche, portando a crisi locali in linea con i citati segnali già registrati in Irlanda, Paesi Bassi o Virginia. La prevedibile reazione di industrie e nazioni porterebbe a un rallentamento del ritmo di crescita e a un consumo destinato a scendere a 190 TWh dopo il picco del 2030.
Gli scenari “intermedi” Il report delinea altre due possibili traiettorie. La prima si basa sulla possibilità di un arresto della crescita dell’energia necessaria per le applicazioni di AI a partire dall’inizio degli anni Trenta, a causa di un certo numero di problematiche di natura materiale (disponibilità di energia sicura, ma anche scarsità di dati, carenze di materiali e minerali), normativa o sociale. Questo modello prevede un consumo di 570 TWh nel 2035. Il secondo scenario, forse quello più auspicabile, disegna un possibile percorso di progresso
Spuntano come funghi e crescono anche in capacità di calcolo e consumi: sono i data center hyperscale (anche detti cloud data center), i “giganti”, come quelli direttamente posseduti o gestiti da cloud provider del calibro di Amazon (Aws), Microsoft e Google o da colossi dei servizi digitali come Apple e Meta. Mettendo insieme le principali definizioni date da analisti e vendor, sono hyperscale tutti quei data center che non solo si estendono su un’ampia superficie, ma sono progettati per garantire scalabilità estrema, connettività veloce e latenza minima. Sono indicati, quindi, per supportare applicazioni a intenso uso di dati e fortemente dipendenti dalla latenza, per esempio in ambiti come l’e-commerce, i social media, la ricerca scientifica, la realtà virtuale, il gaming. Tipicamente, contengono qualche migliaia di server (almeno cinquemila, in base alla tassonomia di Fortune Business Insight). Secondo nuove statistiche di Synergy Research Group, a fine 2024 si contavano nel mondo 1.136 data center con caratteristiche di gigantismo e scalabilità estrema. Il numero dei centri di elaborazione dati hyperscale è raddoppiato in cinque anni, mentre per il raddoppio della loro capacità di calcolo complessiva ne sono bastati quattro. Questo significa che non soltanto sono state costruite nuove infrastrutture, ma quelle esistenti hanno beneficiato di potenziamenti, popolandosi di nuovi server e appliance con componenti semiconduttori di ultima generazione. Secondo Fortune Business Insight , il giro d’affari mondiale dei data center hyperscale ha sfiorato nel 2024 i 163 miliardi di dollari, ma ancora non abbiamo visto nulla: si prospetta una crescita a un tasso annuo del 24,6%, per arrivare a 608,5 miliardi di dollari di valore nel 2030. V.B.
tecnologico sostenibile, dove i fabbisogni legati all’AI si bilanciano con una gestione sensibile dell’ambiente. In questa ipotesi, entro il 2028 l’intelligenza artificiale diventerà fortemente industrializzata, supportando positivamente gli sforzi di decarbonizzazione. La previsione è che il consumo totale di energia possa raggiungere i 785 TWh nel 2035.
Un’analisi sull’Italia
Di recente Boston Consulting Group (Bcg) ha prodotto un’analisi dalla quale si evince che nel nostro Paese è ospitato il 13% dei data center europei e il relativo consumo di energia è pari al 3% del totale. La crescita degli insediamenti sta seguendo un ritmo dell’8% all’anno, mentre in altri Paesi continentali si oscilla tra il 4% e il 6%. Più che sugge-
rire di agire sul piano tecnologico, Bcg punta l’attenzione sulle normative e sul dialogo fra le parti in causa, per razionalizzare l’edificazione di nuove costruzioni (oggi focalizzata in alcune aree territoriali, soprattutto in Lombardia) e per puntare sull’utilizzo di fonti energetiche rispettose dell’ambiente. Dove non arrivano gli Stati, forse, possono arrivare gli stessi grandi player tecnologici. Di poco tempo fa, per esempio, è la notizia della partnership che Google ha avviato con diversi soggetti (Intersect Power e Tpg Rise Climate) per costruire negli Stati Uniti parchi di data center alimentati esclusivamente da energia rinnovabile. L’investimento previsto è di 20 miliardi di dollari e il primo impianto dovrebbe essere completato nel 2027. Roberto Bonino
Nella visione di Ovhcloud, è impossibile fare stime esatte sul futuro fabbisogno energetico del settore. Esistono, però, delle strade obbligate da percorrere.
La sostenibilità dei data center è tutt’altro che un tema logoro: se ne parla da anni, tra promesse e obiettivi di riduzione dell’impronta carbonica, ma con poche certezze. La tecnologia dei chip fa progressi verso l’efficienza, così come aumenta il ricorso alle fonti rinnovabili. Ma questo basta per immaginare un mercato data center sostenibile negli anni a venire, considerando anche il boom dell’intelligenza artificiale? La francese Ovhcloud ha di certo voce in capitolo: non solo è uno dei punti di riferimento per le aziende che preferiscano un operatore europeo, ma fin dal 2022 è impegnata nella riduzione dei propri impatti diretti e l’anno seguente ha sviluppato una tecnologia proprietaria di raffreddamento ad acqua (liquid cooling). Come vede Ovhcloud la sfida della sostenibilità? Lo abbiamo chiesto a Gregory Lebourg, global environmental director della società francese.
Com’è che la sostenibilità è diventata un tema scottante per il settore dei data center?
Il tema non è nuovo. Nel nostro settore abbiamo sperimentato una crescita stabile in termini di consumo di energia, direi che è stato così dalla nascita del mercato dei data center. Quanto più ci spostiamo
in cloud e il mondo diventa digitalizzato, tanto più il fabbisogno energetico aumenterà. Ma negli anni è stato possibile contenere l’incremento dei consumi grazie al fatto che i produttori di chip hanno investito molto in ricerca sviluppo per inseguire la legge di Moore e rendere i componenti sempre più efficienti. In poche parole, i server di oggi necessitano di meno energia per eseguire più calcoli. Come fornitori di data center, anche noi di Ovhcloud siamo stati sempre più creativi ed efficienti nel modo in cui facciamo funzionare le nostre piattaforme. Abbiamo introdotto diverse tecnologie per il raffreddamento e questo è il punto più importante quando si parla di consumo energetico del data center. In secondo
luogo, abbiamo fatto molti progressi nel modo in cui orchestriamo l'infrastruttura.
E oggi che cosa è cambiato?
Oggi vediamo una gestione massiccia di piattaforme eseguite su Gpu: componenti più energivore rispetto alle Cpu tradizionalmente usate nei data center. Le Gpu non sono una novità per il mercato, essendo state introdotte molto tempo fa per diverse finalità, per esempio il gaming e il calcolo parallelo. Quindi sappiamo come integrarle nella nostra piattaforma e come alimentarle efficientemente e raffreddarle. Il grande cambiamento attuale nel mercato è l’adozione massiccia delle Gpu: si è creata una sorta di bolla. Molti fornitori stanno creando infrastrutture dedicate all’addestramento dei Large Language Model (LLM) ed è questo che alimenta la domanda di energia odierna.
Come vedete il futuro?
Con il passaggio da una fase in cui domina l’addestramento degli LLM a una fase in cui prevarranno le attività di inferenza, il consumo di energia si manterrà elevato ma sarà più distribuito e più vicino all’utente finale. In pratica, invece di avere grandi data center che consumano molta energia con picchi di domanda per addestrare i modelli, ci sarà un consumo di elettricità extra più distribuito su scala globale e spalmato nel tempo. Secondo uno studio pubblicato dalla International Energy Agency all’inizio del 2024, il settore data center nel 2022 ha rappresentato il 2% dei consumi di elettricità mondiali. Siamo nell’ordine dei 460 terawattora, valore comparabile a quello del fabbisogno di un Paese come la Francia. In base alle stime contenute in questo studio, il fabbisogno di elettricità dei data center su scala mondiale probabilmente arriverà al raddoppio nel 2026 rispetto ai livelli di quattro anni prima. Ma a distanza di qualche mese,
lo scorso ottobre, la stessa International Energy Agency ha rivisto queste previsioni e stima ora che il raddoppio sarà entro il 2030, dunque con tempi più lunghi, e forse non sarà un pieno raddoppio ma un incremento di circa 400 terawattora. Il boom dell’AI potrebbe essere responsabile di tale incremento in misura del 50%.
Ciò che intendo dire è che non abbiamo la sfera di cristallo e forse è troppo presto per tracciare delle traiettorie. Sappiamo che gli impatti dell’AI sulla domanda di energia saranno significativi, ma in che misura lo saranno è tutto ancora da capire. Dipenderà anche dal tipo di modelli che saranno prevalentemente sviluppati e addestrati: modelli linguistici di grandi dimensioni o più piccoli e specializzati, più efficienti in termini di consumi energetici?
Che ruolo potrà avere l’Europa nello sviluppo dell’intelligenza artificiale “sostenibile”?
Dobbiamo sicuramente porci la domanda, collegandola anche al tema della sovranità digitale. Dovremmo lasciare che siano gli Stati Uniti e la Cina a guidare lo sviluppo dei Large Language Model? O dovremmo, per ragioni di sovranità, avere i nostri sviluppati in Europa? Uno dei temi sul piatto è anche quello dei bias, che dipendono dal tipo di algoritmo utilizzato e anche dai dati con cui è stato alimentato. Penso si possa dire che dovremmo avere degli LLM addestrati in Europa, basati sui nostri data set, che rispecchino i nostri valori. Possiamo far parte della competizione e i player non ci mancano, per esempio penso a Mistral, i cui algoritmi sono di livello comparabile a quelli di OpenAI e Deepseek. E arriviamo alla seconda domanda: questi modelli possiamo addestrarli noi, in data center collocati in Europa, meglio di quanto non si farebbe negli Stati Uniti o in Cina? Di certo potremmo farlo
su un’infrastruttura a basse emissioni di carbonio, grazie al peculiare mix energetico di cui oggi l’Europa dispone, anche se con differenze tra un Paese e l’altro. Quindi sì, sia per ragioni di sovranità sia di sostenibilità, l’Europa è il posto giusto per sviluppare modelli di AI.
La sostenibilità è un selling point? Negli ultimi anni ho visto aumentare, tra i clienti, la richiesta di informazioni sulla sostenibilità. Queste informazioni vengono discusse anche in fase di prevendita, e molti clienti chiedono di considerare non solo le emissioni di carbonio ma anche gli altri criteri, perché l’impatto ambientale è multifattoriale. Nel nostro concetto di sostenibilità non c’è soltanto la riduzione dell’impronta carbonica: devono essere considerati anche altri fattori, come l’utilizzo delle risorse idriche e minerarie, necessarie anche nell’industria dei semiconduttori, e come il consumo di suolo e sottosuolo. Fin dai suoi inizi, 25 anni fa, Ovhcloud ha deciso di non costruire nuovi data center ma di trasformare edifici esistenti, e per noi è facile farlo grazie alla tecnologia di water cooling proprietaria, perché non dobbiamo preoccuparci della circolazione dell’aria.
Quali sono e saranno le vostre strategie su questi temi? Il nostro scopo non è addestrare Large
Language Model. Vorremmo, invece, replicare quello che è stato fatto con successo all’inizio degli anni Duemila con il boom di Internet: avere un ecosistema open source di modelli specializzati, più piccoli e meno energivori rispetto agli LLM. Vorremmo ospitare questo ecosistema sulle nostre piattaforme e orchestrare l’accesso ai modelli, indirizzando le richieste dei clienti su quelli più adatti per ciascun contesto e caso d’uso (generazione di gesti, riconoscimento delle immagini e via dicendo).
Per noi cloud sostenibile significa avere un data center che fa buon uso dell’elettricità consumata. Bisogna valutare il PUE, il Power Usage Effectiveness, l’efficienza dei server ma anche quella dei sistemi di raffreddamento. È molto importante che il raffreddamento ad acqua avvenga in circuito chiuso, e da oltre vent’anni abbiamo scelto questa tecnologia. Abbiamo imboccato questa strada indipendentemente dall’intelligenza artificiale, ritenendo che fosse la migliore in termini di impatto ambientale. Oggi ci sono buone ragioni affinché tutto il settore dei data center segua questa direzione, perché abbiamo raggiunto un limite nella capacità di raffreddamento. Per dirla alla Martin Luther King, ho un sogno: che un giorno i costruttori di chip, come Nvidia e Amd, progettino e ci forniscano componenti raffreddati ad acqua. Il mio sogno è che la sostenibilità venga inserita all’inizio della catena e che gli operatori di data center come Ovhcloud e i produttori di componenti abbiano una roadmap comune. Siamo membri attivi di Ocp, l’Open Compute Project, e spingiamo fortemente per la standardizzazione della tecnologia di raffreddamento ad acqua direct-to-chip: crediamo di aver dimostrato che essa è il modo migliore per ottenere un cloud sostenibile e, di fronte al boom dell’AI, crediamo sia giunta l’ora di agire.
Valentina Bernocco
Il punto di vista di Auriga sull’evoluzione digitale del settore bancario, che oggi fa leva sull’intelligenza artificiale.
Sempre meno sportelli fisici e filiali, sempre più servizi digitali e strumenti self-service, come i terminali Atm. Le banche hanno da tempo avviato un cambiamento teso in questa direzione, motivato da esigenze di efficienza e taglio dei costi ma anche da obiettivi di innovazione. E oggi l’intelligenza artificiale sta dando una nuova spinta. Ci offre il suo punto di vista Vincenzo Fiore, Ceo di Auriga, azienda specializzata in software per il settore bancario.
Nel settore dei servizi finanziari come stanno cambiando i servizi front-end?
Da anni assistiamo a una profonda trasformazione del settore bancario, con un’attenzione sempre maggiore verso soluzioni e approcci al cliente innovativi. Fruibilità, semplicità, accesso “h24” e sicurezza sono diventati per la clientela elementi essenziali. Fattori che hanno
spinto le banche a investire nella tecnologia e implementare soluzioni digitali avanzate, per andare incontro a nuove esigenze dei clienti e alla necessità di una maggiore efficienza in termini di risorse e costi. In particolare, le banche stanno affrontando pressioni significative legate alle infrastrutture, dove un elemento
fondamentale è rappresentato dall’Atm, abilitatore di servizi e primo accesso al contante.
Un elemento cruciale di questa trasformazione è la user experience, oggi al centro delle strategie di digitalizzazione delle banche, tese a proporre una navigazione più fluida e funzionalità intuitive che rispondono alle necessità individuali degli utenti. Le interfacce sono sempre più personalizzate per offrire esperienze specifiche in base al comportamento, alle preferenze e alla storia dell’utente, migliorandone la soddisfazione. Inoltre, le istituzioni finanziarie stanno evolvendo per offrire un’esperienza omnicanale, che permetta agli utenti di interagire con i servizi su più piattaforme (su Pc, su dispositivo mobile, in filiale). Questo approccio integrato facilita la continuità dell’esperienza del cliente, consentendo di passare senza interruzioni da un canale all’altro.
Torniamo agli Atm. Qual è stata la loro evoluzione?
Gli Atm da semplici strumenti di erogazione di denaro stanno sempre più diventando centri multifunzione per accedere ai servizi bancari: un terminale di nuova generazione consente di dare accesso, in modo continuativo, a una serie di servizi prima disponibili solo attraverso un operatore in filiale. In questo modo gli istituti bancari possono sfruttare il potere della tecnologia per migliorare l’esperienza del cliente, offrendo un’ampia gamma di servizi con maggiore personalizzazione e garantendo la disponibilità di opzioni self-service sicure. Accogliere questa trasformazione permette agli istituti finanziari di rimanere competitivi, di fornire servizi eccellenti e continuare a svolgere un ruolo vitale nelle comunità in cui operano. Lo sportello diventa un abilitatore di servizi innovativi a valore aggiunto, creando una maggiore fidelizzazione degli utenti.
La GenAI e l’Agentic AI sono le nuove frontiere dell’intelligenza artificiale. Nel campo dei servizi finanziari, però, sono all’opera da tempo anche altre tecnologie di machine learning. Ecco alcuni dei principali casi d’uso dell’AI, nelle sue diverse declinazioni.
• Automazione del supporto clienti per taglio dei costi e miglioramento della customer experience.
• Analytics ed elaborazione statistica sui clienti per ottimizzazione dell’offerta, efficienze, sviluppo di nuovi servizi.
• Analytics ed elaborazione statistica su dati storici e sui mercati per attività di Business Intelligence.
• Assistenza o automazione dei servizi di consulenza e gestione patrimoniale, per taglio costi, personalizzazione e fidelizzazione (robo advisory).
• Trading algoritmico per l’identificazione di opportunità di investimento o vendita.
• Analytics e sistemi di autenticazione degli utenti per la riduzione delle frodi.
• Automazione del rilevamento e della risposta alle minacce informatiche.
• Automazione di procedure di onboarding, attivazione e disattivazione di carte di pagamento.
• Generazione di contratti e documentazione tecnica.
• Assistenti virtuali per uso interno, interrogazione di knowledge base, gestione della compliance.
“Stiamo assistendo a un cambiamento significativo nel modo in cui l’AI generativa viene implementata nel settore bancario, poiché le istituzioni stanno passando da un'ampia sperimentazione a un approccio strategico che dà priorità alle applicazioni mirate di questa potente tecnologia”: parole di Shanker Ramamurthy, global managing director banking & financial markets di Ibm Consulting. A motivarle ci sono i dati emersi dall’ultima ricerca firmata Ibm e condotta dal suo think tank interno, L’Institute for Business Value, su rappresentanti di banche di otto mercati (Stati Uniti, Canada, Unione Europea, Regno Unito, Giappone, Cina, India e America Latina). Nel 2024 solo l’8% delle banche aveva creato e adottato in modo sistematico soluzioni di AI generativa, definendo una vera strategia, mentre il 78% si limitava ancora a un “approccio tattico”. Poche, comunque, le realtà ancora riluttanti o lontane dal tema AI. Tra gli intervistati, il 60% degli amministratori delegati di banche riconosceva di dover accettare un certo livello di rischio per cogliere i vantaggi dell’automazione e migliorare la competitività. Uno scenario di automazione estrema sembra improbabile: tra i clienti, solo il 16% ha detto di sentirsi a proprio agio nell’interagire con una banca totalmente digitale e priva di filiali. V.B.
Come entra in gioco l’AI in queste tecnologie?
Uno dei suoi impatti sull’efficientamento degli Atm riguarda il modo in cui viene gestito il contante. L’automazione, insieme all’analisi predittiva e all’apprendimento automatico, permette di ottenere
una maggiore ottimizzazione dell’intero processo di controllo, approvvigionamento e movimentazione del contante. In questo modo, è possibile ridurre la quantità di contante inutilizzato e garantire la disponibilità continuativa per soddisfare la domanda dei clienti. Inoltre, l’intelli-
genza artificiale consente alle banche di elaborare i dati statistici legati all’utilizzo del bancomat, per prendere decisioni accurate e anche per analizzare la rete complessiva di sportelli automatici, in modo da poter determinare i servizi per ciascun sportello. Aiuta, poi, a monitorare le transazioni e le movimentazioni, garantendo che non vi siano errori nei flussi finanziari. Siamo convinti che l’intelligenza artificiale sia destinata a diventare sempre più pervasiva, abilitando approcci più efficienti, accurati e basati sui dati.
Quanto sono diffusi, al momento, gli Atm evoluti?
Difficile dare un quadro preciso sull’attuale diffusione degli Atm evoluti in Italia, perché il concetto include numerose tipologie e perché dipende dalle funzionalità specifiche che ciascuna banca decide di implementare. Sono comunque numerosi gli istituti bancari che hanno iniziato a implementare Atm multiservizio in grado di offrire, oltre al semplice prelievo, altre funzionalità come il deposito di denaro, il pagamento di bollette, la ricarica di carte prepagate e la consultazione di documenti bancari. V.B.
Il Marketing Mix Modeling è un’attività consolidata, che oggi però sta cambiando grazie all’intelligenza artificiale.
Imodelli di Marketing Mix Modeling, noti come MMM, sono strumenti consolidati per valutare l’impatto delle leve di marketing sui risultati di business. Anche nel settore finanziario – tra banche, compagnie assicurative e fintech – vengono utilizzati per misurare l’efficacia delle campagne, per distribuire meglio i budget e per comprendere dove convenga investire. Tuttavia, c’è un aspetto che troppo spesso rimane ai margini: in che misura questi modelli riflettano davvero la complessità del mondo reale. La maggior parte degli MMM lavora, infatti,ß su dati aggregati, spesso su scala nazionale, trattando il mercato come un grande blocco uniforme, dove ogni leva produce lo stesso effetto ovunque. Chiunque abbia avuto a che fare con clienti sul territorio sa che non funziona così. In certe aree d’Italia, ad esempio, il rapporto con la banca passa ancora dalla filiale fisica, mentre in altre tutto si gioca sull’app. Alcune città rispondono bene alle promozio-
ni, altre sono sensibili alla reputazione del brand. E mentre in alcune province cresce la richiesta di prodotti assicurativi casa, altrove il bisogno è meno sentito. Tutto questo ha a che fare con il contesto geografico. Ogni territorio ha una propria logica economica, sociale, infrastrutturale: ignorarlo significa rinunciare a una parte importante della spiegazione sul perché qualcosa abbia funzionato oppure no.
Ma non basta sapere dove avviene una reazione. Serve anche capire chi è il cliente, come pensa, che valori ha. La componente psicografica – motivazioni, atteggiamenti, livello di fiducia, apertura all’innovazione – è fondamentale nel settore finanziario.
C’è chi è guidato dal bisogno di sicurezza, chi cerca efficienza, chi vuole sentirsi libero e autonomo nella gestione dei propri strumenti. Integrare queste sfumature nei modelli MMM permette non solo di leggere meglio il passato, ma anche di prevedere con maggiore accuratezza l’efficacia
Il Marketing Mix Modeling impiega tecniche di statistica, analytics e machine learning per creare modelli econometrici, con cui valutare l’impatto di diverse azioni del marketing mix) sui risultati di vendita, fidelizzazione e retention. Questa attività aiuta, quindi, ad allocare strategicamente i budget. Le principali sfide riguardano i dati di partenza usati per la modellizzazione, ovvero la loro disponibilità, qualità, accuratezza e granularità. Tradizionalmente il Marketing Mix Modeling si affida a dati storici, ma negli approcci più evoluti integra anche dati “real time”, processati dall’AI. Strumenti come i Large Language Model hanno il vantaggio di poter elaborare molto rapidamente grandi quantità di dati, anche di diverso formato e provenienti da fonti eterogenee.
di future campagne. E oggi, grazie ai nuovi strumenti di intelligenza artificiale come i Large Language Model (LLM), è possibile simulare dialoghi realistici con profili psicografici diversi. Si può testare come un cliente diffidente reagisca a un cambio di pricing, o come un utente più esplorativo percepisca un’offerta di investimento. I modelli non si limitano più a restituire numeri: cominciano a “parlare”, a spiegare, ad anticipare.
Questa evoluzione dei MMM porta valore concreto. Permette di calibrare meglio i messaggi, ottimizzare i canali, distribuire in modo più intelligente gli investimenti. È una strada che non richiede rivoluzioni: si può partire da pochi dati territoriali, da tre profili psicografici ricorrenti, da una prima simulazione conversazionale per validare una nuova offerta. L’obiettivo non è solo misurare con più precisione, ma decidere con maggiore consapevolezza. In un mercato finanziario in continua trasformazione, anticipare vale più che inseguire. E un MMM potenziato – che unisce numeri, luoghi e persone – può davvero fare la differenza.
Stefano Brigaglia, data science & location intelligence partner di Jakala
Per Andy Ory, Ceo di QuEra Computing, basteranno pochi anni per i primi casi d’uso industriali. Ma servono ecosistemi e infrastrutture.
Nel panorama dell’innovazione, poche frontiere suscitano oggi entusiasmo – con la doverosa cautela – al pari del quantum computing. Una tecnologia che promette di riscrivere le regole del supercalcolo ma che allo stesso tempo vive nella contraddizione, tra promesse dirompenti e scogli tecnici ancora imponenti. Per fare chiarezza su dove stiamo andando, e con quali tempi, abbiamo parlato con Andy Ory, Ceo di QuEra Computing, una delle aziende più promettenti nel panorama quantistico, specializzata nei sistemi basati su atomi neutri. Fondata a Boston nel 2018, solo lo scorso febbraio ha completato un round di finanziamento da più di 230 milioni di dollari.
A emergere è un quadro complesso e in rapida evoluzione: il quantum non sarà per tutti, ma chi saprà posizionarsi oggi con una visione solida potrebbe trovarsi in pochi anni in vantaggio competitivo notevole. Non è un caso, ovviamente, che alla supremazia quantistica stiano lavorando colossi come Google, Ibm, Microsoft e Amazon, che negli ultimi mesi hanno presentato i loro ultimi prototipi.
Andy Ory, quanto è maturo l’ecosistema che supporta il quantum computing, tra infrastrutture, cloud e software?
L’ecosistema delle tecnologie quantistiche sta vivendo una fase di transizio -
ne. Se fino a pochi anni fa i computer quantistici funzionavano solo in condizioni di laboratorio, oggi si stanno affacciando a un mondo più industriale. Tuttavia, la maturità varia molto da un ambito all’altro: sul fronte hardware esistono diverse tecnologie concorrenti (superconduttori, ioni intrappolati, atomi neutri), ciascuna con vantaggi e sfide, e in parallelo dal lato software si stanno sviluppando linguaggi, compilatori e simulatori che permettono di programmare in modo più intuitivo, anche senza una profonda conoscenza della fisica quantistica. Il cloud gioca un ruolo chiave: aziende come Amazon, Microsoft e Ibm offrono accesso a computer quantistici reali o simulati, accelerando
la sperimentazione. Rimane però una forte necessità di competenze specializzate e manca un’infrastruttura software completa e standardizzata, come invece esiste nell’informatica tradizionale. Alcune aziende stanno cercando di colmare queste lacune, lavorando su soluzioni interoperabili e modulari. La vera sfida è costruire un ecosistema tecnologico solido, scalabile e affidabile: non solo per far funzionare i computer quantistici, ma per renderli strumenti accessibili e utilizzabili ogni giorno in ambiti produttivi concreti.
Come si può distinguere tra potenzialità effettiva del quantum computing e hype mediatico?
Distinguere il potenziale reale dal rumore di fondo richiede una certa alfabetizzazione tecnologica e uno sguardo critico. Come spesso accade con le tecnologie emergenti, il quantum computing ha attirato molta attenzione anche da parte di investitori e media in cerca della next big thing. Ma non tutto ciò che si presenta come quantum ha una reale base scientifica o industriale solida. Un primo criterio utile è osservare chi sono partner e investitori di ciascun progetto: il coinvolgimento di università di eccel-
lenza o di aziende con esperienza tecnologica concreta è spesso un buon segnale. Un altro elemento è la trasparenza sui risultati: chi comunica roadmap credibili, metriche tecniche verificabili e limiti attuali, ha di solito una visione più seria. Infine, è importante valutare l’aderenza a problemi reali: se una soluzione quantistica non ha ancora un vantaggio chiaro rispetto a quella classica, è legittimo dubitare della sua maturità. Servono anni di ricerca, capitale e collaborazione per arrivare al vero impatto: l’hype tende a sovrastimare il breve termine, ma sottovaluta l’effetto di lungo periodo, che nel caso del quantum potrebbe arrivare prima di quanto pensiamo.
In proposito, quali ritiene essere i tempi realistici avere un vantaggio quantistico concreto rispetto all’informatica classica?
Il cosiddetto quantum advantage, ossia la capacità di un computer quantistico di risolvere un problema utile meglio di un sistema classico, non è più un concetto teorico, ma nemmeno una realtà. La percezione di chi vive questo mondo è che siamo a pochi anni di distanza dal vedere i primi casi d’uso industriali dove il quantum potrà davvero fare la diffe-
renza. Quanti anni, però, dipenderà dal tipo di problema: in settori come la chimica computazionale o la simulazione di materiali, i computer quantistici potrebbero offrire un vantaggio tangibile già entro questa decade. Per applicazioni più generali, il percorso sarà più lungo. È importante però non confondere il vantaggio sperimentale di laboratorio con quello operativo in produzione. La vera sfida sarà integrare i sistemi quantistici nei flussi di lavoro delle aziende, in modo stabile e affidabile. Per arrivarci servono investimenti continui, standard condivisi e una stretta collaborazione tra scienza e industria. Insomma, il quantum computing non sarà una rivoluzione improvvisa, ma una transizione: proprio per questo, chi inizia oggi a investire e sperimentare potrà trovarsi in netto vantaggio quando la tecnologia sarà pronta per il mercato.
In che modo le partnership tra aziende, governi e centri di ricerca stanno accelerando lo sviluppo del quantum computing?
Le partnership sono fondamentali perché permettono di mettere insieme competenze, infrastrutture e risorse economiche difficilmente concentrabili in un solo soggetto. I governi promuovono queste collaborazioni attraverso programmi strategici e finanziamenti pubblici. Per esempio, centri di ricerca nazionali come l’Oak Ridge National Lab negli Stati Uniti hanno creato ecosistemi collaborativi come il Quantum Science Center, che unisce realtà accademiche, pubbliche e industriali per affrontare sfide comuni. Anche in Europa esistono iniziative simili, essendo il quantum computing ancora in fase pre-commerciale. Inoltre, le collaborazioni con aziende di settori verticali –come la farmaceutica o l’energia – aiutano a identificare problemi reali dove la tecnologia quantistica può offrire un
vantaggio concreto. Queste partnership contribuiscono anche a far condividere know-how e accelerare la transizione dal laboratorio al mercato.
Quali sono oggi le aree geografiche più attive e strategiche?
Lo sviluppo del quantum computing è una questione geopolitica tanto quanto scientifica. Attualmente, le regioni più attive sono Nord America, Unione Europea e Asia orientale, in particolare Giappone, Corea del Sud e Cina. Negli Stati Uniti l’ecosistema è alimentato da una forte sinergia tra università, investimenti governativi e imprese private. L’Unione Europea ha investito massicciamente in progetti all’avanguardia: Paesi come Germania, Francia e Italia si distinguono per la solidità accademica e industriale. L’Asia ha puntato su programmi strategici di lungo termine, e per esempio il Giappone ha recente-
mente installato un computer quantistico con il supporto di aziende locali. Al di là della supremazia tecnologica, molti Paesi vedono nel quantum computing un’opportunità per recuperare terreno perso in altri ambiti digitali come l’intelligenza artificiale o il 5G. In questo contesto, la capacità di attrarre investimenti, formare talenti e costruire filiere locali diventa cruciale per consolidare una posizione strategica a livello globale.
Quali modelli economici e industriali possono rendere sostenibile l’adozione su larga scala? Il quantum computing non si inserisce facilmente nei modelli tradizionali, almeno nella sua fase attuale. Per renderlo sostenibile, servono modelli ibridi: un esempio è il quantum-as-a-service (QaaS), che consente alle aziende di accedere a risorse quantistiche tramite cloud senza dover costruire o gestire
hardware costoso. Questo approccio democratizza l’accesso e consente a settori diversi – come finanza, chimica e logistica – di sperimentare. Un altro modello è quello dell’Open Innovation, in cui startup, aziende consolidate e istituzioni collaborano su problemi condivisi, riducendo il rischio e i costi individuali. Inoltre, l’integrazione tra quantum e tecnologie classiche apre scenari di co-elaborazione che possono portare benefici concreti già prima della piena maturità quantistica. Le aziende che riusciranno a creare valore reale in casi d’uso specifici saranno quelle che guideranno la transizione da ricerca a mercato. In questo quadro, la nostra scelta è l’adozione di un modello flessibile che unisce vendite dirette, accesso in cloud e collaborazioni strategiche, puntando alla scalabilità senza rinunciare alla specializzazione.
Gianluca Dotti
Il punto di vista di Smeup sul percorso di adeguamento alla Nis2 e sulle lacune di sicurezza ancora da affrontare.
Un’Europa più sicura, almeno dal punto di vista dei dati, delle infrastrutture e applicazioni informatiche: è l’obiettivo della direttiva Nis2 (Network and Information Security 2), recepita in Italia lo scorso ottobre. Rispetto alla precedente direttiva Nis, sono stati fissati maggiori obblighi di gestione dei rischi cyber, disclosure degli incidenti e cooperazione con le autorità competenti. Inoltre l’ambito di applicazione è stato esteso a tutte le organizzazioni private e pubbliche con “funzioni importanti per l’economia e la società nel suo insieme”, e dunque sanità, trasporti, servizi postali, fornitura di energia, produzione alimentare, industria chimica, gestione dei rifiuti e anche servizi digitali come motori di ricerca, social network e piattaforme Web. Ne abbiamo parlato con Maurizio De Paoli Alighieri, security manager di Smeup Ics, la divisione di Smeup focalizzata su progetti di infrastruttura IT, cloud e cybersicurezza.
Qual è stato in Italia il percorso verso la compliance alla Nis2?
Abbiamo riscontrato due scenari principali: da un lato, aziende già mature su alcuni temi chiave, per esempio il controllo degli accessi o la protezione perimetrale, che hanno accolto la Nis2 come un’opportunità per formalizzare e strutturare le pratiche esistenti. Dall’altro lato, aziende meno consapevoli, per le quali la direttiva ha rappresentato un punto di partenza
per costruire una cultura della sicurezza. In entrambi i casi, la Nis2 ha avuto il merito di rendere la cybersecurity una priorità strategica e non solo tecnica. Una delle principali sfide è stata il passaggio da una logica reattiva a una proattiva. La direttiva richiede non solo misure di difesa, ma anche capacità di rilevamento, risposta e continuità operativa. Molte aziende hanno dovuto rivedere l’approccio al monitoraggio e alla gestione degli incidenti. Sul fronte organizzativo, l’integrazione tra IT, compliance e top management è ancora un percorso in divenire: servono collaborazione trasversale e cultura diffusa della sicurezza.
Su quali aree l’impatto della Nis2 è più evidente?
Sicuramente sull’infrastruttura IT e sulla gestione degli accessi, ma anche – e forse soprattutto – sulla supply chain e sui processi di governance. La Nis2 amplia lo sguardo: non ci si limita più alla
Maurizio
De Paoli Alighieri
propria rete, ma si è responsabili anche delle terze parti critiche. Questo impatta in modo diretto sulla selezione dei fornitori, sulla gestione dei contratti e sulla valutazione dei rischi di filiera.
Perché si parla ancora tanto di sicurezza del cloud?
L’ambiente cloud è dinamico, esposto e accessibile da molteplici punti. Serve un modello di sicurezza che segua il dato, non il perimetro. Gli ambienti ibridi, sempre più diffusi, richiedono architetture integrate e strumenti capaci di operare trasversalmente: è qui che entrano in gioco soluzioni come il Secure Access Service Edge (Sase), il rilevamento e la risposta estesi (Xdr) e la gestione delle identità centralizzata.
Che cosa vi aspettate per il futuro?
Nel 2025 vediamo crescere l’interesse verso soluzioni integrate, automatizzate e intelligenti. L’adozione di strumenti come l’Edr o l’Xdr, l’autenticazione multifattore e i Security Operations Center gestiti è in netto aumento. Allo stesso tempo, si parla sempre più di sicurezza applicata ai dati e all’identità, non solo all’infrastruttura. Guardando al futuro, il fattore umano assumerà un ruolo ancora più critico. Non si tratta solo di formazione, ma di costruire una vera e propria cultura della sicurezza, dove ogni individuo è consapevole e responsabile. L’adozione di architetture Zero Trust diventerà fondamentale per limitare il raggio d’azione degli attacchi. Infine, l’intelligenza artificiale giocherà un ruolo duplice, rafforzando le difese ma anche alimentando attacchi più sofisticati. V.B.
Spingendo su responsabilità e competenze, la nuova direttiva può potenziare la sicurezza informatica. Il punto di vista di Cyber Guru.
Con l’entrata in vigore della Direttiva Nis2, la cybersecurity non è più solo una questione tecnica: diventa un elemento strategico della governance aziendale. I consigli di amministrazione e i vertici aziendali non possono più delegare totalmente la sicurezza informatica ai team IT: devono comprenderla, integrarla nei processi decisionali e, soprattutto, formarsi in maniera continua per essere all’altezza delle nuove responsabilità che la normativa impone.L a Nis2 rafforza, infatti, il concetto di accountability, attribuendo ai dirigenti la responsabilità diretta di garantire la sicurezza delle infrastrutture digitali dell’azienda. Non si tratta solo di rispettare un obbligo normativo, bensì di proteggere il valore dell’impresa in un contesto in cui le minacce informatiche sono sempre più sofisticate. Il regolamento prevede sanzioni significative in caso di mancata conformità, ma la vera sfida non è solo evitare le multe: è costruire una cultura aziendale solida, in cui la cybersecurity sia parte integrante della strategia di business.
La formazione continua
Uno degli aspetti più innovativi della Nis2 è l’obbligo di formazione continua per i membri degli organi di gestione. Questa misura riconosce finalmente un principio fondamentale: la sicurezza informatica non è solo una questio -
ne tecnologica, ma anche e soprattutto una questione di consapevolezza. Per anni, molte aziende hanno considerato la cybersecurity come un problema da risolvere con strumenti tecnici e policy imposte dall’alto. La realtà ha dimostrato che, senza un coinvolgimento attivo del management e una formazione adeguata, il rischio rimane altissimo. Il fattore umano è il punto più vulnerabile di qualsiasi sistema di sicurezza: se chi prende le decisioni non ha una comprensione chiara
Gianni Baroni
delle minacce e delle misure necessarie per mitigarle, l’intera organizzazione ne risente. L’obbligo formativo introdotto dalla Nis2 dev’essere visto come un’opportunità: investire nella conoscenza della sicurezza informatica a tutti i livelli aziendali significa ridurre il rischio di attacchi e aumentare la resilienza dell’intera struttura.
Dalla compliance alla cultura
C on la direttiva Nis2 la sicurezza informatica diventa un elemento essenziale per la governance aziendale. Amministratori e dirigenti apicali non possono più delegare completamente il tema ai reparti di security, ma devono acquisire consapevolezza e strumenti per poter prendere decisioni strategiche e informate. Adeguarsi alla direttiva non significa solo rispettare un nuovo regolamento, ma fare un salto culturale. La cybersecurity non può più essere percepita come un costo, ma come un asset strategico che garantisce la continuità operativa e tutela la reputazione aziendale. Le imprese che sapranno cogliere questa occasione per rafforzare le proprie difese non solo eviteranno le sanzioni, ma acquisiranno un vantaggio competitivo significativo. E attraverso i nostri percorsi di formazione, come il Board Training Nis2 progettato con questo scopo, vogliamo supportare le aziende in questo passaggio culturale, fornendo ai Consiglieri di Amministrazione ed ai dirigenti della PA una formazione mirata, efficace e basata su un modello di apprendimento progressivo. In un mondo sempre più interconnesso, la sicurezza informatica è un elemento distintivo di affidabilità e serietà, e la Nis2 segna una svolta. Sta ora alle aziende decidere se subirla come un onere burocratico o trasformarla in un’opportunità per crescere e innovare in sicurezza.
Gianni Baroni, founder & Ceo di Cyber Guru
L’attività di Organismo di Vigilanza (Odv) spiegata da Diana D’Alterio, consigliera di Aodv231.
Og gi gli Organismi di Vigilanza (OdV), attraverso la propria attività di supervisione sistemica, sono sempre più coinvolti nella prevenzione e gestione dei rischi informatici all’interno delle aziende. A loro spetta il compito di vigilare sull’idoneità e adeguatezza dei modelli organizzativi adottati dalle aziende (MOG231), che sono pilastri del sistema di controllo interno e gestione dei rischi. Come evolvono i compiti dell’OdV in risposta alla compliance a norme europee come la direttiva Nis2 e il regolamento Dora (Digital Operational Resilience Act)? Abbiamo affrontato il tema con Diana D’Alterio, consiglie-
ra di Aodv231, l’Associazione dei Componenti degli Organi di Vigilanza.
Come opera un Organismo di Vigilanza?
L’OdV è un soggetto chiave nella governance aziendale e quindi per l’intero sistema di controllo interno e gestione dei rischi. La sua attività si concretizza con vari strumenti: incontri periodici non formali, ma di vigilanza effettiva, operativa e calibrata sullo specifico profilo e livello di rischio dell’azienda; verifiche sui componenti e principi del modello; e inoltre verifiche a sorpresa. L’OdV incontra le figure aziendali coinvolte nella gestione dei rischi informatici, ad esempio i responsabili IT e OT, i Ciso e altri stakeholder interni, tra cui chiunque gestisca processi critici, acquisti, appalti e fornitori terzi. L’OdV supervisiona anche che il sistema di whistleblowing per la ricezione e gestione delle segnalazioni sia idoneo ed efficacemente operativo, e il D. Lgs. 24/2023 ha riformato tale attività anche ampliando il perimetro alla protezione dei dati e alla sicurezza informatica. L’OdV vigila sul modello che include anche i protocolli per un’idonea ed efficace gestione della sicurezza IT e OT, anche ricevendo e analizzando flussi informativi relativi a data breach, attacchi e incidenti informatici. E ciò sia per la prevenzione dei reati informatici, sia perché la gestione delle risorse tecnologiche può essere attività strumentale ad altri rischi-reato 231.
La direttiva Nis2 e il regolamento Dora stanno introducendo nuovi obblighi. Come devono adeguarsi gli OdV?
Queste normative impongono requisiti stringenti. Le aziende più strutturate hanno già adottato un approccio proattivo, mentre altre dovranno affrontare un percorso di adeguamento progressivo. L’OdV deve mantenere alta l’attenzione su questi temi e, seguendo un approccio basato sul rischio, valutare le eventuali modifiche necessarie ai sistemi di controllo interno e al Modello 231, raccomandando all’occorrenza ai vertici aziendali il conseguente aggiornamento dinamico del modello.
Perché Nis2 e Dora sono importanti per aziende e cittadini?
Queste norme mirano alla protezione delle infrastrutture aziendali più esposte, siano esse finanziarie o legate ai servizi essenziali. La sicurezza informatica è fondamentale per garantire la disponibilità dei servizi anche in situazioni di emergenza, tutelando la libertà e il benessere dei cittadini.
L’identificazione, valutazione e quantificazione dei rischi può far convergere gli interessi: un’interruzione prolungata di Internet, energia, sanità o trasporti avrebbe conseguenze economiche e sociali enormi. Per le imprese, significherebbe perdite di fatturato; per lo Stato, impatti sul PIL; per i cittadini, perdita di libertà. Ecco perché tutti gli attori della governance aziendale devono interessarsi a questi temi per il successo sostenibile per le aziende e per la società nel suo complesso. E .V.
In Italia il numero degli incidenti informatici cresce, in percentuale, meno dei rilevamenti.
I dati e il commento di Fortinet.
Le aziende italiane rilevano un numero crescente di attacchi informatici. Ma potrebbe non essere del tutto una cattiva notizia se i rilevamenti di incidenti cyber aumentano: è anche il segno di una maggiore capacità di intercettare le minacce. La divisione FortiGuard Labs di Fortinet nel 2024 ha bloccato un numero di attacchi in crescita del 14% sul 2023. In Italia invece l’incremento degli attacchi rilevati e bloccati è stato del 321%, con un picco significativo raggiunto nel primo trimestre. Considerando invece i dati del Clusit, l’associazione italiana per la sicurezza informatica (“Rapporto Clusit 2025”), il numero di attacchi con conseguenze rilevanti e andati a segno è cresciuto del 27% a livello globale e solo del 15% in Italia. Il nostro Paese, rispetto alla media globale, pare oggi maggiormente preso di mira dai cyber criminali, fra attività di cybercrime e di hacktivismo, queste ultime legate alle dichiarazioni del mondo politico sui conflitti in atto.
Intercettare le minacce
L’elemento positivo che si legge nei dati è che oggi la detection, cioè l’attività di rilevamento delle minacce, risulta essere molto più efficace in Italia. Grazie agli investimenti degli ultimi anni, alle attività del Pnrr per le infrastrutture critiche, a fondi, bandi e iniziative guidate dall’Acn (Agenzia per la Cybersicurezza Nazionale), chi era rimasto indietro ne-
gli anni precedenti ha potuto finalmente aumentare la maturità della cybersecurity sul fronte della prevenzione, del monitoraggio e del blocco degli attacchi. Ad esempio, le ultime convenzioni Consip hanno permesso alla Pubblica Amministrazione di passare da misure di sicurezza basilari (come firewall e router) a soluzioni più avanzate, come Siem e Soar (rispettivamente, software che correlano gli eventi e che orchestrano gli strumenti di cybersicurezza in uso), sandbox e Web Application Firewall (Waf). La maturità della cosiddetta “postura di sicurezza” in Italia sta, quindi, migliorando. La crescita degli incidenti rimane, con il +15% anno su anno registrato nel 2024, ma è notevolmente ridotta rispetto al +65% del 2023 e al +169% del 2022.
OT nel mirino
L’industria è sempre più bersagliata, come evidenziato dal “2024 State of Operational Technology and Cybersecurity Report” di Fortinet, basato su interviste a 550 responsabili IT e OT nel mondo. “Il 49% degli attacchi ha colpito sia ambienti IT sia di Operational Technology (OT), percentuale in crescita rispetto al 32% dell’anno precedente”, ha spiegato Aldo Di Mattia, director of specialized systems engineering and cybersecurity advisor Italy and Malta di Fortinet. “I sistemi OT sono oggi interconnessi e vulnerabili, rappresentando un obiettivo redditizio per i cyber criminali”. Anche
il “Rapporto Clusit 2025” sottolinea che il settore manifatturiero italiano, composto prevalentemente da Pmi, è particolarmente esposto, risultando il secondo più colpito a livello nazionale (15% degli incidenti), mentre a livello globale si posiziona sesto (6%). Quali strategie di protezione adottare? “Un’introduzione importante è il modello Sase (Security Secure Access Service Edge), che permette di dotarsi di infrastruttura basata su servizi cloud, con una sicurezza as-a-service allo stato dell’arte, preziosa per chi non può contare su una soluzione altrettanto avanzata on-premise”, ha detto Di Mattia. “Con un canone mensile e un servizio dimensionato per numero di utenti o di MB utilizzati nel corso dell’anno si dispone di tutta una serie di servizi sempre aggiornati. Un’altra logica che portiamo è quella di incrementare protezione e prevenzione in fase di pre-attacco. In questa fase, come emerge dal rapporto di Clusit, il 70% delle attività malevole in Italia è la ricognizione: utilizzando soluzioni innovative, threat intelligence, Adversary Centric Intelligence, analisi della superficie di attacco e deception, è possibile individuare eventuali movimenti laterali e studiare il nemico durante le sue attività iniziali”. L’analisi pre-attacco con sistemi di deception permette di capire l’identità e l’attività degli attori malevoli, di individuare gli IP sorgenti e il codice utilizzato.
E lena Vaciago
La gestione dei documenti
nella catena di fornitura
varia a seconda del settore e del contesto, tra soluzioni consolidate ed emergenti.
In questi anni, l’adozione di tecnologie digitali come Erp avanzati, sistemi di gestione dei flussi e robotica di magazzino ha creato opportunità di collaborazione stretta tra l’IT e la supply chain, per integrare sistemi, ottimizzare gli scambi di dati e automatizzare i processi operativi. In un percorso evolutivo che ha ridefinito in modo sostanziale i modelli di collaborazione, l’efficienza operativa e la gestione dei dati, la crescita dell’automazione ha coinvolto i principali processi amministrativi delle aziende (gestione di ordini, fatture, documenti di trasporto), i processi logistici (magazzini, approvvigionamenti) e di integrazio-
ne con altre componenti organizzative, come le vendite e la pianificazione produttiva o finanziaria. L’Electronic Data Interchange (EDI) è stato uno dei primi strumenti digitali ad avere un impatto significativo sulla supply chain. I primi percorsi di adozione risalgono agli anni Novanta, con le tecnologie di comunicazione allora disponibili (reti punto a punto, Ftp e così via), per abilitare lo scambio strutturato e automatizzato di documenti commerciali (ordini, bolle, fatture, avvisi di spedizione e altro) tra sistemi informatici di aziende diverse, senza intervento umano. Soprattutto in Italia, la diffusione ha seguito un cammino diseguale, attecchendo di più in specifici comparti industriali, come l’automotive, o in realtà complesse e di grandi dimensioni.
Lo scenario che si è disegnato, in qualche modo, si è trascinato fino agli anni più recenti seppure con un progressivo allargamento dei campi di applicazione, ma
scontando l’atavica resistenza all’investimento in nuove tecnologie soprattutto delle realtà medio-piccole. L’avvento della fatturazione elettronica, divenuta obbligatoria in Italia dal 2019 per tutte le operazioni tra privati (B2B) e nei confronti della Pubblica Amministrazione, ha impattato la supply chain portando una maggiore automazione dei processi contabili, una migliore integrazione tra Erp aziendali e sistemi fiscali. Ma un altro effetto è stata la raccolta centralizzata dei dati, che ha aperto a nuove possibilità di analisi e controllo delle performance di fornitura.
Uno scenario variegato
Su questi temi, TIG – The Innovation Group e Technopolis hanno realizzato una ricerca qualitativa basata su un campione cross-industry di aziende di dimensioni medio-grandi, con il fine di analizzare come siano evoluti negli anni i processi di scambio documentale nelle
aziende e come oggi le scelte tecnologiche fatte, in varia misura, siano integrate con le principali piattaforme applicative presenti. Nel ristretto universo considerato, emerge innanzitutto un panorama piuttosto variegato, con differenze di maturità fra i settori merceologici (manifatturiero, farmaceutico, retail e servizi) e modalità che dipendono dalle specifiche reti di relazioni di business. La modalità di scambio via Edi è presente e consolidata nei rapporti fra soggetti che si possono definire paritetici per dimensione, cultura, presenza di strutture IT, così come nei settori fortemente regolamentati. Tuttavia, la differenziazione fra le realtà che compongono la catena della supply chain, a monte o a valle, fa sì che lo scenario sia costituito di un mix di modalità di scambio: oltre agli Edi, questo mix comprende anche portali dedicati (soprattutto per i fornitori), forme di digitalizzazione di primo livello (una su tutte, l’utilizzo dei software di riconoscimento ottico dei caratteri) o derivazioni legacy complicate da eliminare (documenti ricevuti via e-mail o fax, dati raccolti in fogli Excel).
Non solo la dimensione dei clienti o del fornitore può costituire un limite a una maggior diffusione dello scambio elettronico strutturato di dati, ma anche l’assenza di uno standard consolidato gioca il proprio ruolo. Edifact può essere considerato il modello più universale e consolidato, ma viene utilizzato soprattutto dalle aziende che hanno molti rapporti con l’estero, in particolare con il mercato nordamericano. A seconda delle realtà, può esserci una commistione con altri framework di scambio tipicamente basati su Xml, più leggibili e integrabili con soluzioni moderne; oppure, in casi più rari, lo sviluppo di Api (Application Programming Interface) che viene portato avanti per la capacità di supportare integrazioni in tempo reale, con maggiore flessibilità rispetto ai batch Edi.
Vantaggi e svantaggi dell’Edi Laddove sia stato strutturato un processo di scambio dati digitale almeno con una fetta rilevante degli interlocutori di business (in alcuni casi anche da parecchi anni), è stato possibile apprezzare vantaggi come: il progressivo disimpegno di risorse dedicate alla commoditizzazione complessiva dei processi, l’abbattimento degli errori rispetto alle precedenti prassi manuali, e la miglior definizione di tempistiche certe nelle fasi di ricezione e consegna delle merci o nei pagamenti. Per converso, tra gli svantaggi, le soluzioni Edi richiedono infrastrutture dedicate, configurazioni complesse e personale qualificato e, come abbiamo visto, questo rappresenta un limite per le realtà meno strutturate o meno ricche in termini budget. Inoltre, nelle organizzazioni più dinamiche in termini di ingresso e uscita di interlocutori di business, anche il processo di onboarding può risultare laborioso.
Il ruolo dell’IT
L’apporto dell’IT all’efficientamento dei processi legati alla supply chain si esprime in diversi modi e lo scambio elettronico di documenti è solo uno degli elementi di una modalità di collaborazione più ampia e strutturata. Il monitoraggio in tempo reale ogni fase della catena logistica, dallo stato delle scorte ai flussi di produzione, fino alla consegna finale, è un’esigenza spesso soddisfatta dall’adozione di soluzioni di Supply Chain Management integrate negli Erp aziendali. L’impiego di algoritmi predittivi e strumenti di analisi dei dati, invece, può aiutare a ridurre gli sprechi e i costi legati all’inventario, evitando sia rotture di stock sia accumuli eccessivi.
L’introduzione della fatturazione elettronica internazionale, divenuta obbligatoria in Italia a partire dal 2019 inizialmente negli scambi tra aziende e verso la Pubblica Amministrazione, ha
rappresentato un punto di svolta, per vari motivi: non soltanto per la semplificazione e l’automazione dei processi amministrativi tra imprese operanti in contesti transnazionali, ma anche per l’impulso decisivo che essa ha fornito alla digitalizzazione complessiva dello scambio elettronico di documenti. Nei casi più virtuosi, essa si è configurata come uno strumento catalizzatore di efficienza e trasparenza lungo l’intera catena del valore, innescando un processo più profondo di standardizzazione e rendendo interoperabili le piattaforme informatiche di attori economici spesso eterogenei per dimensione, settore e giurisdizione fiscale.
Un passo avanti con l’AI Guardando avanti, anche nel mondo consolidato dell’Edi e degli scambi digitali in generale è prevedibile un ingresso sempre più definito dell’intelligenza artificiale. La tecnologia tradizionale, infatti, si basa su formati standardizzati e flussi predefiniti. Tuttavia, la configurazione e gestione di questi flussi richiede ancora molto lavoro manuale. L’AI può intervenire per mappare automaticamente i dati tra formati Edi diversi, può riconoscere e correggere errori nei documenti (come incongruenze nei codici prodotto, nei prezzi o nelle quantità), può gestire eccezioni e anomalie anche senza necessità di intervento umano. Molte aziende, inoltre, ricevono ancora documenti in formati non strutturati, come PDF, email e immagini: l’AI, in particolare attraverso tecnologie come il riconoscimento ottico dei caratteri (Ocr) avanzato, può aiutare a convertire automaticamente questi documenti in formati leggibili dai sistemi aziendali. Può, inoltre, classificare e indicizzare documenti in modo intelligente per poterli poi reperire facilmente e per interpretare il contenuto semantico di testi e note.
Roberto Bonino
Avendo standardizzato, a livello di gruppo, gli scambi di dati con i nostri fornitori, abbiamo potuto misurare in maniera puntuale l'impatto economico e i livelli di servizio che siamo stati in grado di garantire alle varie country. Un impatto positivo si è avuto, per esempio, sul livello dei resi, con effetti diretti in termini di giorni di working capital e riduzione dei costi di gestione. Inoltre è diminuito il tempo di evasione degli ordini ed è, quindi, aumentato quello del livello di servizio. Sulla gestione degli errori abbiamo investito molto per creare visibilità e capacità di analisi, allo scopo di minimizzare gli sprechi.
Andrea Ciccolini, chief information & transformation officer; Cristian Finotti, chief procurement & supply chain officer; Davide Rubini, global IT enterprise process & technologies 1AT director di Amplifon
Da tempo abbiamo ottimizzato i flussi dei nostri processi amministrativi con i fornitori, sfruttando le caratteristiche delle tecnologie Edi. L’avvento della fatturazione elettronica aveva creato l’aspettativa di poter disporre di un formato standard di interscambio tra aziende sulle stesse tipologie di dati, ma il legislatore non è andato in questa direzione, per cui di fatto è aumentata la complessità senza ottenere in cambio un vero valore. Anche per questo, le evoluzioni più recenti guardano al di fuori del perimetro già noto. In particolare, lo scambio di informazioni per finalità commerciali si sta evolvendo, allo scopo di comprendere e condividere dati sulla quantità di venduto per tipologia di prodotto e di marchio.
Francesca Porta, Emea South Cio & global head of IT strategy di Avolta
Nel settore farmaceutico possiamo beneficiare della presenza del Consorzio Dafne, che ha costruito un ecosistema omogeneo per la digitalizzazione del ciclo dell’ordine, per noi strutturato nel rapporto che abbiamo con i grossisti. Questa è la componente più strettamente Edi dei processi di scambio dati che abbiamo attivato. L’altra componente importante riguarda gli operatori della logistica, con i quali, però, gestiamo una relazione maggiormente personalizzata. La completa integrazione con il nostro sistema gestionale oggi ci consente di disporre di flussi omogenei e automatizzati, per quanto possibile. Operando su scala internazionale, siamo riusciti a ottenere una standardizzazione replicata in ogni Paese di nostro interesse, non solo sugli aspetti strettamente amministrativi ma anche, per esempio, sulla gestione degli stock o dei rifornimenti.
Umberto Stefani, group CIO & digital transformation officer di Chiesi Farmaceutici
Il panorama dei nostri interlocutori a valle è ancora oggi piuttosto frastagliato e dipende molto dalle dimensioni di ogni realtà con cui ci interfacciamo. In Italia gli ottici continuano a lavorare come in passato e non ci sono state grandi evoluzioni, ma lo stesso accade negli altri Paesi europei. Diverso è il discorso per altre categorie di interlocutori, a cominciare delle grandi catene della distribuzione, dove la presenza di una struttura IT interna ha aiutato a realizzare un’integrazione dei dati più strutturata e completa, sulla base di scambi che avvengono con standard come XML o Edifact. Negli ultimi anni si è aggiunto tutto il mondo dell’e-commerce, travel retail, department store e simili, per noi con interlocutori soprattutto di grandi dimensioni, che hanno una cultura tecnologica elevata e quindi hanno reso possibile la definizione di tracciati standard ormai consolidati.
Mirco Lucchetta, IT director, e Federica Fontolan, IT senior manager di Safilo
Siamo una realtà estremamente composita in termini di relazioni con i nostri clienti e interlocutori di business. Di peso notevole è il canale dell’Horeca, che genera circa un terzo del nostro fatturato, ma nella rete rientrano anche i punti vendita di proprietà e quelli in franchising, gli operatori della Gdo e del cosiddetto Modern Trade, senza dimenticare l’e-commerce (sia diretto sia indiretto, tramite marketplace o e-tailer). In questo scenario avvengono scambi documentali di diversa natura, più evoluti con i soggetti di dimensioni e capacità di investimento elevate, un po’ più tradizionali con soggetti locali o molto specializzati. Nel campo della logistica, in previsione, vorremmo arrivare a un’integrazione sempre più vicina al real time. Non è al momento a piano un cambio di piattaforma o un’estensione dei servizi Edi già in essere, ma semmai la progressiva inclusione di canali o player che non sono ancora integrati in questa logica di flussi.
Claudio Bianchi, Cio di illy Caffè
Rinascente è un’azienda di retail puro, che nel solo punto vendita di piazza Duomo a Milano ospita e vende i prodotti di circa 3.500 marchi, con un turnover molto elevato. La complessità degli scambi di dati è facilmente intuibile e sarebbe ideale poter far leva su una standardizzazione estesa a tutti i nostri interlocutori. Purtroppo, lo scenario è piuttosto diversificato e il livello di maturità molto diseguale. L’Edi è il canale principale per noi, ma non è applicabile in ogni situazione. Tuttavia, puntiamo a scambiare il maggior numero possibile di oggetti di business e abbiamo una buona penetrazione in termini di volumi complessivi. Il vero elemento di attenzione, per noi, è poter sempre allineare correttamente ciò che viene richiesto, fatturato e ricevuto, sempre attraverso un canale digitalizzato di comunicazione. Se l’Edi agisce da strumento di puro trasporto, l’AI può essere il futuro per correggere in modo il più possibile automatico le possibili imprecisioni.
Paolo Ciceri, Cio di Rinascente
All’interno di un mercato storicamente tradizionalista, negli ultimi anni abbiamo accentuato la transizione verso lo scambio elettronico di dati via Edi. Ha contribuito soprattutto il crescente peso del mercato dell’hobbistica, che porta con sé la necessità di interagire con i più importanti operatori specializzati della grande distribuzione. Si sta consolidando anche l’importanza dell’e-commerce, per noi rivolto non alla clientela finale ma ai player B2B che poi con essa si interfacciano. Qui abbiamo scelto la strada del portale, mantenendo la stessa impostazione del flusso, ma lasciando maggior autonomia nell’inserimento degli ordini. Ai benefici in termini di efficienza e velocità di gestione del processo, si aggiunge la riduzione degli errori rispetto al passato. L’assenza di un vero standard, tuttavia, mantiene una complessità che solo operatori di medie e grandi dimensioni sono oggi in grado di affrontare.
Roberto Cavicchini, Cio di Mapei
Da oltre vent’anni Marazzi ha iniziato a spingere verso l’utilizzo di soluzioni di scambio dati elettronici con i propri interlocutori. Lavoriamo però con una rete piuttosto eterogenea e capillare, che spazia dal grande distributore al piccolo negozio di paese e, per questo motivo, ancora oggi l’Edi copre un volume non particolarmente significativo del nostro fatturato. Abbiamo però sviluppato altre soluzioni di digitalizzazione almeno della componente di order entry, attraverso la lettura ottica dei documenti o la messa a disposizione di un portale dove il cliente può inserire il proprio ordine in modalità self-service. Se aggiungiamo quest’ulteriore componente, peraltro in crescita, la quota totale dello scambio dati elettronico (in una qualche modalità) porta a una copertura complessiva del 35% del fatturato.
Pier Paolo Ori, customer service & distribution director di Marazzi Group
Marelli opera oggi in oltre venti Paesi, dove sono allocati oltre cento stabilimenti. L’organizzazione è suddivisa in sei business unit produttive, che generano un volume pari a 50mila part number differenti, frutto della lavorazione di 350mila reference code di componenti acquisite dai fornitori. Una simile complessità del mondo Operations non può essere affrontata senza il supporto di sistemi digitalizzati anche per lo scambio di informazioni, attraverso l’Edi e non solo. Dobbiamo essere sempre in grado di guidare l’attività manifatturiera dei nostri stabilimenti, fornendo loro una chiara visione delle necessità dei clienti, almeno sul medio termine. In questo modo, sempre via Edi, essi possono condividere con i rispettivi fornitori tempistiche precise di consegna. Tutto questo si riassume nell’implementazione, ormai attiva da tre anni, del progetto Siop (Sales Inventory Operational Planning), un approccio end-to-end, dalla domanda dei clienti alla visibilità per i fornitori, che consente di rendere efficiente la produzione globale.
Carlo Chiarle, global head of manufacturing operations & supply chain di Marelli
Techint è un gruppo estremamente articolato, che comprende diverse realtà raccolte sotto sei brand principali. Fra questi, l’unico ad aver conservato la denominazione originaria è Techint Engineering & Construction, che raggruppa le società di ingegneria e costruzioni controllate nel mondo. Questa entità gestisce rapporti prevalentemente con una cerchia controllata di fornitori di software e servizi. Fa parte del gruppo, tuttavia, anche Humanitas, fra le principali aziende ospedaliere private in Italia, la cui supply chain è certamente molto articolata e gestita con diverse modalità di scambio dati. La nostra presenza in diverse parti del mondo, con prevalenza dell’Italia e dell’America Latina, comporta una certa differenziazione delle prassi di gestione dei flussi amministrativi, ma a fattor comune c’è la scelta dell’ambiente gestionale Sap e attualmente proprio in Techint E&C siamo impegnati nella migrazione a S/4Hana. Gli sviluppi sul fronte AI potrebbero cambiare lo scenario nel medio termine.
Bruno Corbo, IT senior regional manager for Europe, Africa & Middle East di Techint
L’interazione con i nostri clienti B2B avviene per noi attraverso due canali principali, ovvero il retail (negozi di proprietà o in franchising) e il mondo wholesale (grandi retailer specializzati nell’arredamento). Gli scambi avvengono in modalità Edi con questi ultimi soggetti, sfruttando soprattutto lo standard Edifact, in particolar modo sul mercato americano. Verso il retail, invece, siamo noi a fornire soluzioni di scambio che passano attraverso portali. Più complicato è lo scenario del ciclo passivo, dove ci interfacciamo con diverse tipologie di aziende, anche piccole e poco strutturate. Abbiamo pertanto costruito un portale fornitori che consente uno scambio organizzato solo con una parte di questi interlocutori, collegati con Api dedicate, mentre per gli altri lo strumento funge da piattaforma per l’invio del semplice documento. In prospettiva, l’utilizzo dell’AI potrà aiutarci nell’integrazione dei dati meno strutturati.
Pierangelo Colacicco, Cio di Natuzzi
Non basta più digitalizzare: oggi le aziende vogliono integrare, automatizzare e scalare. Secondo la ricerca di TIG – The Innovation Group, un’azienda su due ha già digitalizzato almeno in parte la propria supply chain, mentre oltre il 37% sta puntando sull’integrazione tra piattaforme di Supply Chain Management (Scm) ed Erp per migliorare reattività, tracciabilità e collaborazione lungo tutta la filiera. Ma il vero salto di qualità passa dalla capacità di gestire in modo fluido i flussi documentali e fiscali, soprattutto in contesti internazionali dove la frammentazione di provider e normative rallenta l’efficienza. Soluzioni come Edi, fatturazione elettronica internazionale e integrazione basata su API diventano quindi leve strategiche per ridurre errori, standardizzare i processi e accelerare il time-to-market. Il dato più interessante? Quasi tutte le aziende coinvolte nel report usano o stanno valutando piattaforme esterne per gestire i flussi di e-invoicing all’estero, fatto che evidenzia una forte domanda di governance centralizzata, di compliance semplificata e di visibilità real time. Serve un nuovo approccio, capace di connettere ecosistemi eterogenei e trasformare ogni scambio in un’occasione di efficienza e crescita. Noemi Zampiceni, regional marketing executive di Comarch Italy
Un’accelerazione verso la standardizzazione degli scambi di dati digitalizzati si è avuta a seguito della pandemia e ci ha portato a sviluppare processi non solo limitati al classico Edi. Non si tratta semplicemente di eliminare obsolete e destrutturate modalità di trasmissione di documenti amministrativi, ma di integrare anche altre tipologie di informazioni rilevanti per il business, fornendo un valore aggiunto utile per rafforzare la relazione di partnership, in particolar modo con i nostri clienti. Sicuramente il maggior beneficio percepito riguarda la maggior standardizzazione e automazione di attività che prima erano eseguite manualmente, richiedevano l’impiego di persone e lasciavano spazio a possibili errori.
Marco Manganelli, direttore IT Italia di Ferrero
Dopo aver avviato un percorso di digitalizzazione strutturato qualche anno fa, stiamo procedendo celermente con l’estensione della tecnologia Edi sia a monte, con i principali interlocutori nel mondo della logistica, sia soprattutto, a valle con i nostri retailer di riferimento, che sono anche i clienti più importanti in tutto il mondo. Le motivazioni che ci hanno spinto in questa direzione riguardano innanzitutto l’efficienza legata alla presenza di flussi digitalizzati, che prima erano lasciati alla manualità dei nostri colleghi amministrativi. Ma riguardano anche la necessità di adeguarci alle richieste dei retailer. Una volta completata questa fase, vorremmo iniziare a integrare i fornitori strategici.
Davide Nebbia, chief information & digital officer di Moleskine
Gli scambi dati per Unilever si possono, a grandi linee, dividere in due aree. Una riguarda la componente della logistica e della supply chain, ovvero con le terze parti che gestiscono i depositi o con i fornitori delle fabbriche. In questi casi, siamo noi a indicare a questi soggetti di far riferimento alla piattaforma Sap Btp per la gestione dei documenti amministrativi. L’altro canale importante per noi è quello dei clienti, dove esiste uno scenario assai più frammentato. Più standardizzata, via Edi, è la situazione con gli operatori più grandi, in particolare quelli della Gdo, con cui ci siamo spinti anche allo scambio di informazioni dettagliate sui prodotti e sulle relative modalità di movimentazione. Con le aziende medio-piccole, invece, interagiamo attraverso una piattaforma esterna, dove il nostro provider di riferimento si occupa di definire le modalità di interscambio e la traduzione dei flussi per allineare le aziende al nostro sistema gestionale.
Angelo Ruggiero, Cio di Unilever
La società software bresciana si è affidata a Nutanix per migliorare l’erogazione dei propri servizi e modernizzare le applicazioni.
Chi accompagna i propri clienti nella trasformazione digitale può, e spesso deve, affrontare lo stesso percorso, mettendo mano alla propria infrastruttura IT e al modello di business Questo ha fatto Smeup, software house bresciana da quasi 100 milioni di euro di fatturato, presente in Italia con 23 sedi e oltre 700 collaboratori. L’azienda opera in quattro aree di business: i software per le piccole, medie e grandi imprese, la tecnologia Sap, i servizi gestiti di infrastruttura, cloud e cybersicurezza e, infine, le piattaforme tecnologiche rivolte agli Isv (Independent Sorfware Vendor). Su tali piattaforme poggiano i software gestionali sviluppati dalla stessa Smeup, ovvero Erp, soluzioni per la gestione documentale, gli analytics, la logistica, la grafica e altro ancora. Nel puntare alla crescita del giro d’affari, Smeup sta seguendo principalmente due linee di sviluppo: l’allargamento della presenza in più settori di mercato (in particolare manifatturiero, servizi finanziari e sanità) e la focalizzazione sull’as-a-Service. Un modello, quest’ultimo, che comporta vantaggi di ricavi continuativi per chi lo propone e che per partner e clienti sopperisce al problema della carenza di com-
Smeup utilizza Nutanix Cloud
Platform Pro e Nutanix Cloud
Infrastructure Ultimate su circa 700 core di calcolo e 34 dispositivi host, all’interno di in due data center certificati tier-4 nel milanese e di un sito di disaster recovery in Emilia Romagna.
petenze. Nel caso di Smeup, si declina in un’offerta di infrastruttura (Infrastructure as-a-Service, IaaS), di software (SaaS) e di servizi gestiti. “Per raggiungere questi obiettivi”, spiega Dario Vemagi, direttore generale di Smeup, “dobbiamo costruire un percorso rapido ed efficace verso i microservizi e la modernizzazione delle applicazioni, ma anche gestire in modo ottimale il problema dello skill gap, un tema che coinvolge anche i nostri clienti e può essere risolto attraverso la collaborazione sempre più stretta con i nostri partner tecnologici”. Qui è entrata in gioco Nutanix, e per Smeup non si trattava di una novità assoluta: fin dal 2014 l’azienda bresciana ha virtualizzato le proprie risorse di calcolo, memoria e rete con l’iperconvergenza. “Per molti anni”, racconta Vemagi, “abbiamo sfruttato le soluzioni iperconvergenti per costruire la nostra offerta verso i clienti, utilizzando quindi Nutanix con un approccio puramente di rivendita e apprezzando l’efficacia ed efficienza dei prodotti. Poi abbiamo capito che anche per le nostre infrastrutture dedicate ai servizi gestiti le soluzioni della multinazionale ci permette-
vano di ottenere un vantaggio competitivo importante, e le abbiamo portate a bordo, rafforzando ulteriormente la partnership”. Per realizzare le infrastrutture IT su cui poggiare la propria offerta As-a-Service, Smeup ha quindi adottato soluzioni come Nutanix Cloud Platform Pro e Nutanix Cloud Infrastructure Ultimate, scegliendo la formula “a consumo” (attualmente poggiata su cinque availability zone) e anche acquistando hardware certificato per queste tecnologie, senza eccessivo impatto sui costi.
“Nutanix”, testimonia Vermagi, “si è rivelata la soluzione più efficace e in linea per lo sviluppo veloce del business, per la flessibilità (è multi-datacenter e multi-zona) e per la semplicità di implementazione e gestione. Giusto per dare qualche cifra, partendo da zero oggi riusciamo a implementare un nuovo cluster con decine di nodi in circa una settimana, mentre prima ci volevano mesi”. Ai vantaggi di flessibilità e agilità già ottenuti se ne affiancheranno altri: nel prossimo futuro l’azienda conta di incrementare del 30% la densità dei propri data center (anche per raggiungere obiettivi di risparmio energetico e sostenibilità) e prevede di dimezzare il tempo dedicato alla gestione delle risorse IT, potendo così focalizzarsi sullo sviluppo applicativo. Smeup completerà la migrazione degli esistenti servizi sulla nuova infrastruttura ma è anche intenzionata a crearne di ulteriori, sfruttando le architetture a microservizi e la modernizzazione applicativa. L’obiettivo commerciale è di triplicare i clienti dei propri servizi gestiti. “I nostri data center oggi supportano l’offerta di servizi a circa 350 aziende, che sono più o meno il 10% dei nostri attuali clienti di gruppo”, illustra Vermagi. “Abbiamo quindi un grande potenziale di crescita. In effetti, i servizi gestiti crescono oggi del 20% anno su anno e noi consideriamo di poter triplicare il numero dei clienti nei prossimi due o tre anni grazie alla velocità e alla flessibilità della tecnologia Nutanix”.
La piattaforma di ServiceNow ha permesso di ottenere risparmi, velocità e semplificazione in diversi processi.
Automazione significa velocità, sicurezza, assenza di intoppi: tutti vantaggi che vorremmo sempre sperimentare quando siamo in viaggio. Vantaggi che Autostrade per l’Italia ha saputo, se non altro, realizzare nella gestione delle operazioni e degli asset IT. Il principale concessionario per la costruzione e gestione delle autostrade a pedaggio in Italia ha iniziato anni fa un percorso di trasformazione digitale per migliorare il funzionamento di una serie di servizi sulla propria rete di oltre 3.000 chilometri di strade, 4.200 ponti e viadotti e 420 chilometri di tunnel, percorsa da una media di quattro milioni di persone al giorno. Questa infrastruttura è tappezzata da migliaia di telecamere, segnali con messaggi variabili, sistemi telematici e ventole di scarico nei tunnel, tutti elementi critici per la sicurezza dei viaggiatori.
Fino a poco tempo fa, la società gestiva il pagamento dei pedaggi, le condizioni delle strade e tutti gli altri servizi dai propri data center di Firenze e Calenzano, con una soluzione on-premise che, tra le altre cose, serviva anche per il monitoraggio degli eventi dell’IT. Si è poi deciso di migrare in cloud le operazioni IT e le funzioni di gestione dei servizi, realizzando contestualmente una revisione dell’ambiente IT. Con il passaggio al cloud, si è scelto di “spegnere” una dozzina di server e di consolidare le esistenti applicazioni sulla piattaforma di automazione di ServiceNow, la Now Platform. Autostrade per l’Italia già la usava in altri ambiti, tra cui i servizi delle risorse umane, la pianificazione di progetti IT e gestione dei rischi. “Dopo aver valutato le tecnologie, abbiamo consolidato tutto sulla Now Platform per fornire le
basi per il successo presente e futuro”, spiega Stefano Ricciardi, responsabile del monitoraggio degli asset dell’IT e dell’infrastruttura, che ha guidato il progetto. L’azienda ha adottato le soluzioni Discovery, Service Mapping, Event Management e Service Operations Workspace di ServiceNow per poter monitorare gli eventi IT e misurarne gli impatti attraverso un migliaio di mappe dei servizi. Il consolidamento di diverse applicazioni sulla Now Platform ha consentito un generale taglio dei costi e un miglioramento di efficienza, grazie alla riduzione del numero di fornitori IT e a una più semplice integrazione con piattaforme terze. Ci sono stati, poi, altri specifici vantaggi. Per la gestione degli asset IT, Autostrade ora ha un modello di dati unificato nella Now Platform da cui può trarre indicazioni di intelligence e che permette di automatizzare varie attività, i monitoraggi, la configurazione e gestione degli asset IT (cioè applicazioni,
Autostrade per l’Italia usa i moduli Discovery, Service Mapping, Event Management e Service Operations Workspace di ServiceNow per monitorare gli eventi IT. Inoltre ha spostato sulla Now Platform le attività di IT Service Management. Nelle Service Operations, ciascuna anomalia rilevata attiva un allarme e viene visualizzata nel front-end, che consente agli operatori di avere una visione completa su applicazioni ed eventi.
database, software, Web server e server fisici e virtuali). L’automazione delle relazioni tra gli elementi della configurazione (la descrizione del modello di servizio) riduce un’attività manuale altrimenti molto costosa. Il database di gestione configurazione di ServiceNow (Cmdb) tratta gli elementi della configurazione e le relazioni per gli asset IT, che vengono inventariati in un altro sistema. Con lo stesso metodo vengono monitorate le applicazioni distribuite in più ambienti, anche in cloud e su sistemi esterni al perimetro IT aziendale. “La Now Platform, unificata e intelligente, ci offre visibilità e controllo di tutto ciò che è distribuito nel nostro ambiente diversificato”, sintetizza Ricciardi. I Servizi Specialistici di ServiceNow hanno preso in carico l’implementazione di modelli di servizi e integrazioni per la compilazione del Cmdb.
La Now Platform viene usata anche per le procedure di aggiornamento software e installazione di patch, diventate più rapide e meno invasive, e per ridurre gli interventi di manutenzione su server e sistemi operativi. Altri vantaggi riguardano le Service Operations, cioè processi con cui vengono erogati servizi ai clienti: anche qui la Now Platform ha permesso di unificare elementi in precedenza separati, oltre ad aver migliorato la user experience dei dipendenti di Autostrade con un diverso front-end e un catalogo di servizi IT semplificato. Processi consolidati, come la gestione degli incidenti, sono stati ricreati in ServiceNow Itsm. Ora è possibile monitorare e misurare da un unico portale, il funzionamento di tutte le applicazioni per intervenire prontamente in caso di problemi. Il “viaggio” di Autostrade per l’Italia con ServiceNow non è finito. Tra i prossimi passi, è prevista la realizzazione di mappe di impatto che descrivano le relazioni tra gli elementi della configurazione di tutte le applicazioni. Altri progetti riguarderanno le AIOps e l’osservabilità.
Una soluzione di intelligenza artificiale si connette con i sistemi di rilevamento delle intrusioni e con la centrale operativa.
La mente e lo sguardo, il “cervello” e gli “occhi”: da qualche anno l’intelligenza artificiale sta trasformando i sistemi di videosorveglianza, rendendoli più efficaci, più reattivi e più sicuri. Un esempio arriva da Istituto di Vigilanza Coopservice (Ivc), una realtà giovane perché creata nel 2023, ma che può contare sulle esperienze accumulate nel gruppo di cui fa parte, nato nel 1991 a Reggio Emilia. La società fornisce soluzioni e servizi di vigilanza attraverso dieci centrali operative, 400 pattuglie su strada, oltre 2.200 Guardie Particolari Giurate e oltre 1.200 operatori tecnici di sicurezza.
La società ha recentemente deciso di potenziare le proprie operazioni di videosorveglianza attraverso l’intelligenza artificiale, con due obiettivi specifici: ridurre i falsi positivi e rendere più veloci e precise le risposte della centrale operativa.
Nel complesso, si puntava a migliorare il servizio fornito ai clienti, ottimizzando anche gli sforzi di intervento. Così è nata AI Smart Video, una soluzione basata su algoritmi di machine learning (e più precisamente di deep learning) che possono analizzare in tempo reale la scena catturata da una videocamera smart e classificare gli elementi ritenuti degni di nota, per esempio presenze o comportamenti anomali (potenzialmente, atti vandalici) nell’area sorvegliata, che si tratti di un’abitazione privata, un’azienda o uno spazio pubblico. Il software può anche rilevare in automatico l’oscuramento delle telecamere. Con questo metodo è possibile realizzare un monitoraggio ininterrotto, 24 ore su 24 e sette giorni a settimana, con significativa riduzione dei falsi positivi e degli errori nella gestione degli eventi. Proprio per questo scopo, oltre che per mantenere alte le performance complessive del sistema, le librerie algoritmiche vengono costantemente aggiornate. Comportamenti sospetti, intrusioni e minacce sono riconosciuti con una tempestività e precisione senza precedenti: grazie agli alert prodotti dall’AI nel momento stesso in cui il fatto accade, la centrale operativa può distinguere i falsi allarmi dagli eventi degni di nota, e dunque intervenire prontamente. “La nuova soluzione AI Smart Video consente di ridurre drasticamente i falsi positivi e rendere più efficiente il lavoro che tutti i giorni i nostri colleghi svolgono sul territorio”, sottolinea Andrea Lambiase, direttore dell’area Tecnologia&Innovazione dell’Istituto di Vigilanza Coopservice. “La nostra mis-
AI Smart Video è un software basato su algoritmi di deep learning per il rilevamento di intrusioni e minacce, rapido da installare e compatibile con i principali sistemi di videosorveglianza in commercio. Attraverso la periferica Smart Video Box, che crea un tunnel crittografato, la centrale operativa si collega in plug&play al sistema video del cliente.
sione è di mettere al servizio dei clienti l’innovazione tecnologica e questo servizio ne è un chiaro esempio”.
Poiché le telecamere intelligenti raccolgono e analizzano una quantità significativa di informazioni sensibili, la divisione Innovation&Technology di Istituto di Vigilanza Coopservice ha progettato una soluzione di potenziamento della cybersicurezza e della privacy. Si tratta di Smart Video Box, una periferica video che permette alla Centrale Operativa di collegarsi in modalità plug&play al sistema video del cliente, senza rischi per i clienti: il traffico dati è cifrato e viene consentito accesso soltanto agli streaming video. In questo modo le immagini e i filmati vengono protetti da eventuali hackeraggi, potenziali abusi e violazioni di privacy.
“Il servizio basato sull’intelligenza artificiale”, commenta il direttore commerciale, Sabino Fort , “ci consente di essere ancora più competitivi sul mercato, sia dal punto di vista dell’eccellenza di servizio sia del prezzo, introducendo per primi una novità che mette al riparo anche da potenziali attacchi informatici ai sistemi di videosorveglianza”.
Il software di Remira Italia ha permesso di automatizzare e migliorare le procedure di ordine, la gestione del magazzino e la previsione della domanda.
L’automazione della supply chain è una spinta all’efficienza e all’innovazione per un settore strategico per l’economia (e non esente da crisi) come quello dell’automotive. La catena di approvvigionamento presenta notevoli complessità per chi, come Freccia International, ha oltre diecimila articoli a magazzino e operazioni commerciali estese su cinque continenti. Fondata nel 1923 come Scarpa&Colombo e inizialmente dedita alla produzione di valvole a motore, oggi è una multinazionale che distribuisce componenti per il settore automobilistico, sia per il primo impianto sia per i ricambi. Negli anni l’incremento delle referenze e la gestione manuale delle scorte erano diventati un problema, comportando tempi di fornitura troppo lunghi e variabili. L’azienda ha quindi cercato una soluzione tecnologica che la aiutasse a gestire meglio i flussi di approvvigionamento, a prevedere la domanda e pianificare la produzione in modo più preciso, nonché a ridurre l’errore umano.
Freccia International ha, così, scelto di affidarsi a Remira Italia, divisione del gruppo internazionale nato in Germania, specializzato nella fornitura di soluzioni cloud per la supply chain. “La sfida di Freccia International, con la sua lunga storia e la crescente complessità del business, richiedeva un cambio di passo per superare le sfide legate alla gestione delle scorte, della catena di fornitura e delle previsioni di vendita”, spiega Matteo Sgatti, regional sales manager di Remira Italia.
Dopo una prima fase di analisi e definizione congiunta degli obiettivi, Remira Italia ha messo in campo il proprio software per la gestione delle scorte, dotato di funzionalità di intelligenza artificiale. Il software permette di definire strategie di acquisto mirate in base al luogo in cui si trova fisicamente la merce, in base ai tempi di approvvigionamento o all’indice di rotazione. Grazie alla funzionalità di riconoscimento delle eccezioni, gli utenti possono concentrarsi sugli elementi che richiedono una particolare attenzione. Il progetto ha previsto l’installazione del software, la validazione dei dati e la progettazione dell’interfaccia. La soluzione è stata personalizzata in base ad alcune esigenze specifiche di Freccia, come l’utilizzo e il confronto dei forecast dei clienti e l’ottimizzazione delle logiche di acquisto per determinate categorie di articoli o mercati. Dopo i test e le attività di formazione dedicata agli utenti, il sistema è entrato in piena operatività,
Il software di Remira Italia lavora per “eccezioni”, che vengono evidenziate nella dashboard, e guida l’utente nella routine di programmazione quotidiana, mostrando dove è necessario intervenire e suggerendo come procedere con l’acquisto o trasferimento di articoli. È possibile prevedere la domanda tenendo conto anche di trend o eventi promozionali.
con evidenti risvolti: è stato possibile automatizzare i calcoli delle proposte d’ordine e gran parte della gestione degli ordini, mentre la pianificazione della domanda è diventata più precisa. “La crescente complessità del mercato e l’aumento delle referenze ci hanno spinto a cercare soluzioni innovative per ottimizzare la nostra supply chain”, racconta Andrea Scarpa, product manager di Freccia International. “Grazie alla collaborazione con Remira Italia, abbiamo introdotto un sistema avanzato di gestione delle scorte basato sull’intelligenza artificiale, che ha migliorato significativamente la precisione delle previsioni e ridotto gli errori umani. Questo ci ha permesso di rispondere in modo più efficiente alle esigenze dei nostri clienti, garantendo tempi di consegna più rapidi e una maggiore disponibilità dei prodotti. Siamo entusiasti dei risultati ottenuti e guardiamo al futuro con fiducia, sapendo di poter contare su un partner tecnologico affidabile e competente”.
Quando: 27 maggio
Dove: Palazzo Ripetta, Roma
Perché partecipare: l’evento, in presenza e a porte chiuse, è riservato ai Chief Information Security Officer (o ruoli analoghi) di aziende utenti e delle aziende Ict sponsor dell’iniziativa. Al centro del dibattito, la gestione del rischio e le strategie di cybersicurezza del 2025.
Quando: 11 giugno
Dove: Palazzo Giureconsulti, Milano
Perché partecipare: giunto alla settima edizione, l’evento dell’Associazione Italiana per l’Intelligenza Artificiale tratterà le molte sfaccettature del tema più caldo degli ultimi anni. Tra sessioni plenarie, tavole rotonde e un’area dedicata al networking, si parlerà di casi reali e best practice.
Quando: 18-19 giugno
Dove: Grand Hotel Dino, Baveno (VB)
Perché partecipare: sarà un’occasione per riflettere sull’evoluzione dei modelli di consumo e di vendita e sulle trasformazioni abilitate dalle tecnologie. Per l’occasione, saranno presentati i dati degli osservatori di Confimprese e Jakala.
Quando: 23-24 settembre
Dove: Grand Hotel Dino, Baveno (VB)
Perché partecipare: giunto alla 15a edizione, con il sottotitolo “Guardare oltre il Risiko bancario”, quest’anno l’appuntamento di TIG Events porterà sul palco economisti, accademici, analisti e imprenditori del settore.