Technopolis 46

Page 1

www.technopolismagazine.it

NUMERO 46 | MARZO 2021

STORIE DI ECCELLENZA E INNOVAZIONE

Smart working e servizi cloud ridisegnano il perimetro di difesa e cambiano, forse per sempre, le tecniche per garantire privacy e protezione del dato.

IL VIRUS COLPISCE LA CYBERSECURITY INCOGNITA MOBILITÀ

24

I lockdown hanno messo in crisi i modelli di mobilità intelligente, in particolare lo sharing. Riuscirà la tecnologia a innescare la rinascita?

DATA CENTER VERDI

33

Tra sogno e realtà, le infrastrutture di elaborazione dati sostenibili attirano attenzioni e investimenti, in primis tra i big della tecnologia.

EXECUTIVE ANALYSIS Le applicazioni IoT vanno verso la maturità, migliorando l'efficienza operativa del settore manifatturiero e non solo.


The Innovation Group Innovating business and organizations through ICT

Events & Webinar Market Research Consulting & Advisory Digital Marketing Go to market services Content creation Storytelling ICT Magazines

www.theinnovationgroup.it segreteria.generale@theinnovationgroup.it 0287285500


SOMMARIO 4 STORIA DI COPERTINA STORIE DI ECCELLENZA E INNOVAZIONE

N° 46 - MARZO 2021 Periodico mensile registrato presso il Tribunale di Milano al n° 378 del 09/10/2012

Le nuove priorità del post pandemia

Covid, un obiettivo e un pretesto per gli hacker

Identità digitale, come difenderla?

11 IN EVIDENZA

Bitcoin: una bolla o la moneta del futuro?

La tecnologia amica della fedeltà

Smartphone: il mercato riparte

Coordinamento: Valentina Bernocco Hanno collaborato: Roberto Bonino, Carmen Camarca, Roberto Masiero, Elena Vaciago

L’IoT semplice e sostenibile non è più un miraggio

Microsoft Teams e telefono fisso ora si parlano

Idee creative per la supply chain

Customer service, specchio dell’azienda

Progetto grafico: Inventium Srl Foto e illustrazioni: Istockphoto, Adobe Stock Images, Shutterstock

Rischio It: l’Italia è in zona arancione

Direttore responsabile: Emilio Mango

24 ITALIA DIGITALE

Next Generation Italia: un Piano da riscrivere?

Trasformazione digitale, un percorso avviato

30 MOBILITY Editore e redazione: Indigo Communication Srl Via Palermo, 5 - 20121 Milano tel: 02 87285220 www.indigocom.it Pubblicità: The Innovation Group Srl tel: 02 87285500

Laboratori di idee per la ripartenza

Servizi di sharing, dal successo alla crisi

34 INFRASTRUTTURE

“Data center “verdi” tra sogno e realtà”

Cio sotto pressione

Edge computing, una stella nascente?

38 INTELLIGENZA ARTIFICIALE

Algoritmi, tra opportunità e insidie

Stampa: Ciscra SpA - Arcore (MB)

Una risorsa non umana, ma etica

© Copyright 2021 Indigo Communication Srl Tutti i diritti di proprietà letteraria e artistica riservati.

42 EXECUTIVE ANALYSIS

Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto.

44 ECCELLENZE

Pubblicazione ceduta gratuitamente.

Internet of Things, si va verso la maturità

Porta aperta all’innovazione

Polizia Municipale di Ravenna - Axon

Linea Light Group - Infor

Università di Pisa - E4 Computer Engineering


STORIA DI COPERTINA | Cybersecurity

LE NUOVE PRIORITÀ DEL POST PANDEMIA

L’ascesa dello smart working, l’uso sistematico di dispositivi personali e servizi cloud, la crescita dei data breach: nel 2021 l’agenda della sicurezza informatica si trasforma alla luce dei pesanti cambiamenti avvenuti durante i lockdown.

4

| MARZO 2021

I

l 2020 è stato un anno di importanti cambiamenti, segnato fra le altre cose anche da una forte crescita del rischio cyber. Come ha osservato di recente la Polizia Postale, è stato un anno di continua evoluzione delle minacce rivolte sia ai singoli sia alle imprese di tutte le dimensioni e settori. Con la pandemia di covid-19 sono cambiate anche le priorità della cybersicurezza: in cima alla lista, la necessità di poter lavorare da remoto senza rischi, di ripensare ai meccanismi di autenticazione (vista la frequenza di attacchi mirati al furto di credenziali) di estendere il raggio della


L’HOME OFFICE FA GOLA AI CRIMINALI Con il boom del lavoro da remoto, le nostre abitazioni si sono trasformate in uffici personali. E per le aziende gli ambienti informatici distribuiti (on-premise e nel cloud), lo smart working e l’uso di dispositivi domestici da parte dei dipendenti significano un allargamento della superficie di attacco esposta al rischio. Un problema da affrontare sarà quello di mettere sotto controllo un ambiente così distribuito, con oggetti consumer connessi che fino a ieri non erano risorse da proteggere. Tanto più che gli attaccanti sono molto bravi ad avvalersi di vulnerabilità collegate a terze parti, a supply chain estese, come hanno dimostrato molti dei più gravi data breach avvenuti nella storia. Secondo il report

sicurezza ai dispositivi Internet of Things e di smart home. Per molti l’ultimo anno ha portato a un decisivo cambiamento dell’approccio alla cybersecurity, dal quale sembra non si tornerà indietro. E ne sono diretta conseguenza le tendenze di cybersicurezza che caratterizzeranno il 2021. Uno smart working più sicuro

Secondo un’indagine condotta a livello globale da Dimensional Research per conto di Check Point, il 95% dei 613 professional intervistati ha completamente cambiato nel corso del 2020 la

propria strategia di sicurezza in azienda per rispondere alla nuova situazione di lavoro da remoto creatasi nei mesi del lockdown. Nel 2021, mettere in sicurezza gli smart worker rimarrà quindi la principale priorità (citata dal 47% dei rispondenti), seguita dalla prevenzione degli attacchi di phishing e social engineering (42%), dalla protezione degli accessi da remoto (41%) e di applicazioni e infrastrutture cloud (39%). Tuttavia portare a termine questi obiettivi richiederà molto lavoro, servirà qualche anno. Intanto, per rispondere a una disruption delle modalità operative delle aziende che non ha precedenti, assisteremo già nel 2021 a uno spostamento deciso verso nuovi modelli di endpoint security, basati sul concetto di “zero trust”. Se fino a ieri la sicurezza veniva progettat per difendere la rete, o il perimetro aziendale (entro cui ad esempio operava il Soc,

“Xfinity Cyber Health” di Comcast dello scorso novembre, quasi tutti i consumatori (il 95%) sottostimano i rischi informatici che riguardano i dispositivi domestici, come computer, smartphone, tablet, webcam, router e Nas. In media, gli intervistati pensano di essere stati oggetto di circa 12 attacchi al mese, un numero però smentito dall’osservazione di Comcast, secondo cui le abitazioni sono bersaglio di una media di 104 minacce al mese. Nel caso di sistemi privi di schermo, spesso l’utente non si accorge affatto di aver subito un attacco. Le aziende dovranno considerare questi aspetti e preoccuparsi di mettere in sicurezza la propria forza lavoro anche in ambienti domestici altamente vulnerabili.

Security Operation Center, per monitorare la situazione e gestire eventuali incidenti), oggi i problemi si sono spostati altrove: direttamente nelle attività svolte dai lavoratori, che accedono da qualsiasi posto, con device diversi, o addirittura nel cloud. Il concetto della sicurezza “zero trust2 (non nuovo, ma oggi estremamente attuale) sposta il controllo su qualsiasi accesso e tende ad assegnare un livello minimo di autorizzazioni tramite policy che limitano il rischio di esporre i dati a malintenzionati. Una sola password non basta più

Il costo del cybercrimine è in continua crescita: secondo le stime del Center for Strategic and International Studies di Washington, ha sull’economia globale per 1,9 milioni di dollari ogni minuto nel 2020, ovvero per 1.000 miliardi di dollari in tutto l’anno. Una quota pari 5


STORIA DI COPERTINA | Cybersecurity

a circa l’1% del Pil mondiale. Poiché almeno l’80% degli attacchi coinvolgono delle credenziali utente, è chiaro che nel prossimo futuro l’autenticazione tramite password sarà sempre meno diffusa. Già oggi vediamo nuovi servizi digitali nascere fin da subito con meccanismi di autenticazione a due o più fattori, cioè basati su un doppio passaggio (per esempio l’inserimento di credenziali e di un codice token usa e getta, inviato su smartphone o prodotto da una chiavetta). Inoltre, si assiste a un’esplosione di nuovi meccanismi di autenticazione passwordless, da quella biometrica alle chiavi hardware ai QR code, e soprattutto, all’utilizzo di tecniche basate su intelligenza artificiale o machine learning e

CLOUD, UN BENE DA PROTEGGERE Come avremmo fatto, nei mesi del lockdown più rigoroso, senza l’aiuto di Pc, smartphone, applicazioni di videoconferenza, collegamenti Internet a banda larga, siti di e-commerce? Si può veramente dire che il 2020 sia stato l’anno del cloud. Dal punto di vista dell’IT, però, non sono mancati problemi relativi alla complessa gestione di ambienti multi-vendor e alle necessità di sicurezza del cloud. Si tratta ora di individuare la strada migliore per riprendere il controllo di tutto e specialmente per gestire la sicurezza, aumentare la visibilità, introdurre nuove misure e processi di cloud security. Non sarà un passaggio facile e neanche veloce. Le vulnerabilità degli ambienti cloud stanno diventando un grattacapo sempre più grave: servizi configurati male, cloud hijacking o furto di credenziali aziendali o personali (poi riutilizzate per esfiltrare i dati

6

| MARZO 2021

sull’analisi dei comportamenti. Con la diffusione del covid-19 e con l’aumento esponenziale di accessi da remoto, da molteplici device, dotarsi di metodi sicuri per autenticare le persone è diventata una priorità per le aziende. Vedremo in futuro quali saranno i meccanismi che andranno per la maggiore: al momento, i metodi biometrici sembrerebbero quelli più difficili da contraffare da parte degli attaccanti, in quanto indipendenti dal device dispositivo per inviare le informazioni come l’hash generato. La crescita dell’attività cybercriminale nel corso del 2020 si è tradotta per le aziende in un incremento degli alert

prodotti dalle soluzioni di sicurezza informatica adottate, oltre che in un incremento del numero di incidenti. Quindi, un notevole aumento dei volumi di attività per i responsabili della cybersecurity interni alle aziende e per chi opera nei Soc. Gestire un numero di alert così ampio sta diventando impossibile senza opportuni aiuti, e in aggiunta, senza strumenti di automazione e machine learning che possano distinguere gli alert più urgenti da una marea di dati di minore importanza (o falsi positivi) e che permettano una risposta più rapida agli attacchi già in corso. Elena Vaciago, associate research manager di The Innovation Group

o per altre gravi frodi), intercettazione del traffico verso il cloud, phishing e ransomware che prendono di mira i contenuti archiviati. I dati di mercato indicano che un’azienda su tre fa ampio uso del cloud computing, e potrebbe sperimentare uno di questi problemi. Inoltre, con la prevista crescita del fenomeno (secondo gli analisti, entro il 2023 il 75% dei database sarà in una piattaforma cloud) avremo una vera esplosione di questi attacchi. Nell’ultimo anno, per rispondere alle esigenze del lavoro da remoto durante la pandemia, i passi avanti nei percorsi di digitalizzazione del business sono stati enormi. Il problema è che la sicurezza non è riuscita a tenere il passo con la trasformazione dei modelli operativi. Come correre ai ripari? Innanzitutto, per poter usare il cloud senza rischi è necessario che l’azienda si faccia carico della sicurezza di dati e ambienti IT anche quando questi sono posizionati al di fuori dell’on-premise. Senza aspettarsi, quindi, che la sicurezza sia solo

responsabilità del provider, ma piuttosto adottando un modello di responsabilità condivisa. Quindi bisogna tener conto delle vulnerabilità del cloud e rafforzare i processi interni, da un lato per garantire una migliore visibilità di ciò che è posizionato in cloud, dall’altro lato per diffondere una cultura di sicurezza intrinseca in ogni attività. Aspetto da non sottovalutare è la corretta configurazione dei servizi: nella fretta di usare queste risorse, le aziende trascurano spesso alcuni processi e configurano in modo errato i cloud pubblici, lasciando porte aperte a eventuali attaccanti. A livello di misure di sicurezza, sempre per rendere più rapido e veloce l’impiego di queste risorse, molti trascurano la necessità di impostare password complesse, di autenticare gli utenti, di gestire i privilegi degli utenti o di crittografare i dati, come se queste misure fossero garantite dal cloud provider in modo predefinito. Sottovalutare questi aspetti è invece molto grave e può mettere a rischio le informazioni sensibili dell’azienda.

Automazione e intelligenza


COVID, UN OBIETTIVO E UN PRETESTO PER GLI HACKER Due fenomeni paralleli cavalcano l’onda della pandemia: attacchi di alto livello, come quello subito dall’Ema, e phishing rivolto verso la massa degli utenti digitali.

U

n dato impressionante giunge dal “Cost of a Data Breach Report 2020”, uno studio quantitativo di Ponemon Institute, che ha analizzato 524 violazioni informatiche dell’anno passato, relative ad aziende di vari settori e Paesi: in media, un singolo attacco con perdita di dati causa danni per 3,86 milioni di dollari. Il danno monetario è ancor maggiore nel settore di sanità e industria farmaceutica, dove la media è di 7,13 milioni di dollari persi per ciascuna violazione. Il fenomeno è in ascesa: i ripetuti attacchi alla supply chain dei vaccini per il covid-19 hanno dimostrato la capacità degli hacker di infiltrarsi anche nelle reti di istituzioni come l’Ema (Agenzia europea del farmaco) e di ministeri governativi. E di certo le capacità non mancano a Lazarus, un gruppo cybercriminale celebre tra gli addetti ai lavori, forse legato al governo nordcoreano e in attività da almeno un decennio: sarebbero opera sua, a detta di Kaspersky, due attacchi dell’autunno 2020 ai danni di un ministero della Salute e di una società farmaceutica. Nomi e Paesi non sono stati svelati, mentre sappiamo che entrambe le operazioni ricalcano metodi usati in passato da Lazarus ed entrambe impiegano malware con funzionalità backdoor (cioè capaci di controllare da remoto

i dispositivi infettati, spesso per fini di spionaggio). “Questi due incidenti rivelano l’interesse del gruppo Lazarus per l’intelligence legata al covid-19”, ha commentato Seongsu Park, esperto di sicurezza di Kaspersky. “Crediamo che tutte le organizzazioni attualmente coinvolte in attività come la ricerca sui vaccini o la gestione della crisi dovrebbero stare molto attenti agli attacchi informatici”. Ancor più clamoroso è l’attacco subito lo scorso dicembre dall’Agenzia europea del farmaco: una violazione che ha fatto approdare sul dark web una cinquantina di file di informazioni classificate sull’iter autorizzativo e commerciale del vaccino Pfizer-BioNTech, con tanto di email confidenziali, nomi e cognomi di funzionari dell’Ema coinvolti. Il bottino degli hacker è stato scoperto online, su un forum di compravendita di dati rubati, dai ricercatori della società di cybersicurezza Yarix, che hanno rinvenuto il leak e allertato la Polizia Postale. Gli esperti di Yarix non hanno dubbi: la finalità

dell’attacco è stata certamente “quella di arrecare un importante danno di reputazione e credibilità a Ema e Pfizer”. Riguarda similmente il tema del covid-19 ma è di tutt’altro genere e livello un’ulteriore attività cybercriminale in gran spolvero nell’ultimo anno: il phishing. A differenza degli attacchi mirati a obiettivi strategici, come quelli realizzati da Lazarus, il phishing tipicamente richiede ai suoi autori minori abilità tecniche e punta sui grandi numeri, su bersagli numerosi e indifferenziati. Con una email truffaldina, che impiega loghi, firme, indirizzi mittenti contraffatti, si tenta di convincere il destinatario a cliccare su un link o a scaricare un allegato, per poi inserire le proprie credenziali, dati personali o dati di carta di credito con promesse di vario genere. L’argomento coronavirus è stato sfruttato a piene mani con rivelazioni sui contagi, offerte imperdibili su mascherine in vendita, proposte di improbabili farmaci salvavita e addirittura finte notifiche di multe per mancato rispetto del distanziamento sociale. A fine 2020 il “Report Phishing and Fraud” del laboratorio di ricerca di F5 (F5 Labs) evidenziava come nelle settimane di picco dei contagi il volume degli attacchi di questo tipo fosse più che quadruplicato rispetto alla media annuale dei rilevamenti. “Gli aggressori sfruttano l’attuale debolezza emotiva legata a una situazione che sfortunatamente continuerà ad alimentare minacce pericolose e diffuse”, sottolinea David Warburton, senior threat evangelist degli F5 Labs. Valentina Bernocco

7


STORIA DI COPERTINA | Cybersecurity

IDENTITÀ DIGITALE, COME DIFENDERLA? Il sistema delle password non è il più sicuro, ma anche la biometria ha dei limiti. Ne parliamo con Antonio Lioy, professore ordinario di cybersecurity del Politecnico di Torino.

8

| MARZO 2021

D

iremo addio a user ID e password, sostituendole con metodi di autenticazione biometrica come la lettura dell’impronta digitale o il riconoscimento facciale? Se ne discute da anni, dato il rischio che le credenziali vengano rubate con attacchi di phishing o hackeraggi. Non mancano esempi di aziende che hanno intrapreso il percorso della biometria, come Apple (con il Touch ID e il

FaceID dell’iPhone) e Fujitsu (con i suoi computer con incorporati scanner per la lettura del tracciato venoso del palmo della mano). Le credenziali alfanumeriche sono però ancora il sistema di autenticazione più usato nel quotidiano, nel Web e sui telefoni. A che punto siamo, e che cosa ci riserva il futuro? Ne abbiamo discusso con Antonio Lioy, professore ordinario di cybersecurity del Politecnico di Torino.


Qual è il suo punto di vista sulle debolezze dell’autenticazione classica?

Nonostante siano decenni che si avvisino tutti della debolezza delle password in uso, molti continuano a sottovalutare il problema e continuano a usarle in modo poco sicuro anche per accedere a servizi che richiederebbero molta più attenzione. Ora è stato fatto un grosso passo in avanti in Europa richiedendo il doppio fattore di autenticazione per tutte le transazioni finanziarie e per tutti gli acquisti con carta di credito, anche sui diversi siti di e-commerce (con la cosiddetta Sca, Strong Customer Authentication). Eppure, anche questo passaggio è stato criticato: ho letto articoli allarmistici secondo cui questi meccanismi avrebbero potuto portare a un calo dell’e-commerce. Dobbiamo però fare delle scelte e puntare con decisione a educare le persone. La PSD2, la direttiva europea sui servizi di pagamento, prevede per tutti i retailer europei attivi su Internet l’obbligo di introdurre un’autenticazione a due fattori. Ma è una misura sufficiente?

Sicuramente permette di rafforzare la sicurezza nei pagamenti, anche se rimane il rischio: se invece di collegarci al sito italiano scegliamo il sito statunitense, lì non c’è questo controllo. Per i consumatori si tratta solo di piccole complicazioni in più, in sostanza un buon prezzo da pagare per una maggiore sicurezza. Quello che invece servirebbe per migliorare ancora di più la sicurezza potrebbe essere un’autenticazione risk based e context based, ossia un meccanismo per adattare il livello di sicurezza al singolo caso, sulla base dell’importanza della transazione o della modalità in cui avviene. Se ad esempio una persona accede con un indirizzo IP e un dispositivo mai utilizzati prima, o effettua un acquisto non usuale, si può pensare a un controllo

in più, a una tripla autenticazione. Ma tenere conto sia del fattore di rischio sia del contesto in cui avviene la transazione è molto più complicato, per cui al momento si preferisce estendere il secondo fattore in tutti i casi. Ad oggi questa autenticazione risk e context based avviene già?

Presso il Politecnico di Torino abbiamo lavorato su questi aspetti per vari progetti in ambito europeo: si tratta di una soluzione utile nell’adattare il livello di complessità al livello di rischio e al valore della transazioni, quindi per aspetti finanziari importanti sicuramente già oggi avviene. Alcuni meccanismi di questo tipo sono anche utilizzati da anni per le carte di credito anche se ancora non in modo così generalizzato, legato più ad anomalie che non a valutazioni di contesto. Come vede l’uso della biometria?

I sistemi biometrici, oltre al problema di non essere standardizzati, sono utilizzabili solo localmente, a livello di singolo device, ad esempio per sbloccare il cellulare o il Pc. Ma poi per funzionare in rete richiedono altri meccanismi. Una tecnica di autenticazione che invece è decisamente più forte, e potrebbe essere una delle chiavi del futuro, è il sistema Fido che sta prendendo ora piede negli Stati Uniti. In sostituzione di userID e password, utilizza chiavi asimmetriche per l’autenticazione ed è attivabile con smartphone, o come software installato su Pc o come hardware con chiavette apposite. È un sistema estremamente forte, che rispetta l’anonimato e la non linkability, il tracciamento delle persone. Ma ritengo che spesso si scelga di non adottare queste soluzioni proprio perché lo scopo è quello di tracciarci, di conoscere per ogni individuo abitudini di acquisto e siti visitati.

Con lo smart working come sono cambiate le problematiche di sicurezza?

Oggi c’è un rischio altissimo lavorando da casa, legato al fatto che le persone utilizzano i propri dispositivi personali e mentre lavorano navigano su vari siti. Quindi, da una parte possono infettare il device, mentre contemporaneamente sono attivi su cloud aziendale. Un’autenticazione debole su un sito di ecommerce può permettere quindi a un malware di attaccare un Pc e bypassare anche l’autenticazione forte verso altri ambienti. Servirebbe invece mettere completamente in sicurezza la postazione di lavoro, e non guardare soltanto al sistema di autenticazione forte. A proposito dell’Italia, non si può non citare il successo di Spid, che da marzo 2020 a oggi è passato da 6 a quasi 13 milioni di utenti. Come si potrebbe migliorare questo sistema?

Alcuni difetti di Spid sono stati visti da tutti, ad esempio, con il “click day” si è notato che i sistemi non erano dimensionati per numeri elevati di accessi. Si tratta però di un problema di giovinezza che nel frattempo dovrebbe essere stato risolto, sia per i server finali della Pubblica Amministrazione sia per i sistemi Spid stessi. Una cosa sicuramente molto positiva è che il livello di sicurezza di Spid è migliore di quello di tanti altri metodi. Va ricordato, infatti, che Spid non è solo un sistema di autenticazione quanto piuttosto un sistema di identità, ossia c’è la certezza che la persona che si autentica sia proprio lei, una sicurezza in più garantita dallo stesso Stato italiano. Diventa molto più difficile organizzare truffe o sostituzioni di persona se si usa Spid. È quindi molto utile sia per l’autenticazione più forte sia per la maggiore certezza sui dati personali associati a quelle credenziali di autenticazione, quindi sulla validità legale della transazione abilitata. E.V. 9


Digital Wealth Management 2021

SAV the E DAT E

Le diverse “facce” del prossimo digital financial advisor

23 febbraio 2021 ore 10 - 13

#TIGBANKING

Il digitale sta trasformando l’industria del risparmio e nei Paesi dove il fenomeno è maggiormente in crescita i clienti dei nuovi digital financial advisor manifestano un livello di soddisfazione molto alto, beneficiando anche di bassi costi di gestione rispetto ai clienti di wealth manager tradizionali. Scopri come rendere possibile questo cambiamento partecipando all’evento “Digital Wealth Management“, in programma il #23febbraio in diretta streaming dalle 10 alle 13.

I relatori confermati:

Benedetta Arese Lucini Oval Money

Roberto Arosio Banca Aletti

Marco Bernardi Banca Generali

Michele Cumin Salesforce

Carlo Giausa Banca Sella

Duccio Marconi CheBanca! S.p.A Gruppo Mediobanca

Mauro Massironi Azimut Wealth Management

Renato Miraglia UniCredit

Massimo Antonello Piancastelli Intesa SanPaolo

Maurizio Primanni Excellence Consulting

Giovanni Sandri BlackRock Italy

Paolo Zavatti Banca Euromobiliare

SPONSOR: The Innovation Group Innovating business and organizations through ICT

www.theinnovationgroup.it


IN EVIDENZA

l’analisi

BITCOIN: UNA BOLLA O LA MONETA DEL FUTURO? La valuta fatta di bit è nuovamente sulla cresta dell’onda, e non solo perché l suo valore è cresciuto fino a superare la soglia dei 49mila dollari, ma anche per l’endorsement dei grandi nomi della finanza mondiale.

La criptovaluta nata oltre dodici anni fa oggi attira gli interessi di personaggi come il miliardario Paul Tudor Jones (che a fine 2020 ha svelato di aver comprato Bitcoin come investimento che protegge dall’inflazione) e Stanley Freeman Druckenmiller, uno tra i più grandi gestori di hedge fund degli ultimi decenni. Anche un nome leggendario di Wall Street come Bill Miller da mesi consiglia l’acquisto di Btc e a inizio febbraio ha presentato alla Securities and Exchange Commission un documento da cui si evince l’intenzione di investire nel Grayscale Bitcoin Trust fino al 15% delle risorse del Miller Opportunity Trust (che ammontano a 2,25 miliardi di dollari di asset in gestione). Anche l’uomo più ricco al mondo si è tuffato senza mezze misure in questa opportunità: a inizio febbraio Elon Musk ha fatto fare alla sua Tesla un investimento da 1,5 miliardi di dollari in Bitcoin e annunciato che prossimamente l’azienda automobilistica inizierà ad accettare la criptovaluta come metodo di pagamento, pur con alcune limitazioni. E se fosse tutta una bolla speculativa, pronta a scoppiare come già accaduto nel 2018? Balza anche all’occhio dei meno esperti, quanto le opinioni siano divergenti. Tecnicamente, una bolla speculativa si gonfia man mano che il prezzo di un bene aumenta oltre il valore sostanziale del bene stesso, ma nel caso di un asset digitale è difficile stabilire quale sia tale valore. Al di là delle definizioni, quel che interessa i potenziali investitori è capire il livello

di rischio associato ai Bitcoin. La velocità dell’impennata di prezzo di questa criptovaluta supporta la previsione di Michael Hartnett, chief investment strategist di Bank of America, secondo cui questa sarebbe non una semplice bolla, ma “la madre di tutte le bolle”. Qualcosa di simile ha detto l’economista Nouriel Roubini, noto osteggiatore delle criptovalute. Opposta è la convinzione di Rick Rieder, dirigente di Blackrock cioè della più grande società d’investimento al mondo, il quale addirittura scommette sul Bitcoin come nuovo “bene rifugio”, destinato a sostituire l’oro nelle scelte degli investitori più prudenti. Vero è, spiegano gli esperti di finanza, che l’acquisto di Btc è abbastanza diffuso come forma di investimento, mentre lo è molto meno nel mercato al dettaglio, fatto che ne incrementa la volatilità. D’altra parte l’ascesa del prezzo delle criptovalute negli ultimi anni è stata alimentata non solo da Initial Coin Offering usate per far incetta di risorse (dribblando il giudizio degli enti regolatori) ma anche dalla loro progressiva, pur iniziale, integrazione nel sistema finanziario mondiale.

Lo scorso autunno PayPal ha introdotto nella propria piattaforma di pagamento digitale la possibilità di acquistare, conservare e vendere Bitcoin, Bitcoin Cash, Ethereum, e Litecoin: per ora si tratta di una sperimentazione riservata agli utenti statunitensi, ma nel corso di quest’anno potrebbe essere estesa a tutti i clienti e i merchant. Verso le cryptocurrency anche il settore bancario dà segni di interesse: a fine 2019 un’indagine condotta dalla Banca dei Regolamenti Internazionali su 66 banche centrali di altrettante nazioni evidenziava che una su dieci prevede di emettere una propria valuta digitale entro il 2022. Un colosso del settore come Mastercard ha annunciato che prima della fine dell’anno inizierà a supportare “criptovalute selezionate” direttamente nel proprio circuito, vale a dire permetterà agli utenti di fare acquisti online spendendo monete virtuali ma recapitando al venditore un pagamento in valuta tradizionale. Va detto che Mastercard, secondo quanto dichiarato, si focalizzerà sulle stablecoin, cioè asset digitali che simulano l’andamento di valute a corso legale come il dollaro o l’euro e che quindi sono esposte a minore volatilità. L’antitesi del Btc, dunque. Pare quindi che il mondo dell’economia e della finanzia stia normalizzando l’esistenza delle criptovalute, integrandola al suo interno, ma non è scontato che il Bitcoin debba emergere come scelta preferenziale né per le banche né per i consumatori. Valentina Bernocco

11


IN EVIDENZA

l’intervista

LA TECNOLOGIA AMICA DELLA FEDELTÀ Jakala, unica società italiana, figura nella lista delle prime dieci grandi aziende del segmento loyalty marketing nel mondo, stilata da una recente ricerca di Forrester.

Jakala entra nella classifica di Forrester sui fornitori di servizi di loyalty marketing B2C (business-to-consumer). La società di ricerca americana ha analizzato gli impatti della tecnologia su aziende e consumatori finali, pubblicando “Now Tech: Loyalty Marketing, Q4 2020 - Tools And Technology: The Customer Loyalty Playbook”, studio basato sull’ analisi (per dimensione, funzionalità, area geografica e orientamento al mercato verticale) dei principali tech, service e hybrid provider con un fatturato da 25 a oltre 75 milioni di euro. Jakala fa parte del gruppo delle large company (la società fattura oltre 300 milioni di euro) e si è distinta per essere un “hybrid loyalty provider” in grado di usare in modo combinato dati, advanced & location analytics, intelligenza artificiale, digitale, tecnologie, contenuti ed experience design. Come è emerso dal report, per lo sviluppo di progetti di loyalty & engagement è fondamentale un approccio basato sui dati, ovvero sull’analisi delle abitudini d’acquisto dei consumatori e dei loro comportamenti di fedeltà alla marca. Alla base della strategia di Jakala c’è l’approccio data-driven, essenziale per disegnare campagne di loyalty volte ad aumentare l’engagement del consumatore. Technopolis ha intervistato Marco Di Dio Roccazzella, general manager di Jakala, per capire meglio che cosa abbia spinto la società nella top-10 di Forrester.

12 |

MARZO 2021

Marco Di Dio Roccazzella

Come siete entrati così velocemente tra i big mondiali del loyalty marketing?

Il nostro motore di loyalty è molto sofisticato, perché Jakala lavora su questi temi dagli anni Duemila e su più mercati. Lavoriamo tra gli altri con Enel, Gruppo Eni, Intesa Sanpaolo, Vodafone, Oviesse, quindi dal retail alle telco, dal finance all’energy. La nostra è un’offerta ibrida e completa, perché alla tecnologia (piattaforma ed Api) e alla consulenza uniamo la parte analitica e poi la creatività, i contenuti, e infine la gestione dei premi fisici, quindi il dialogo con la logistica. L’altro tema è che la piattaforma è internazionale, una caratteristica che, per esempio, ci ha aperto le porte del mondo del fashion. Non sarà così raro un approccio olistico al loyalty marketing, e resta la domanda: perché voi?

Non siamo gli unici ma l’approccio olistico è sicuramente distintivo. Un altro vantaggio competitivo è che noi abbiamo inserito nella piattaforma tutta la

gestione data-driven dei programmi di loyalty, quella che ad esempio permette di differenziare i premi adattandoli ai clienti. Altre piattaforme presenti sul mercato sono, sì, transazionali ma non c’è “modellistica”. Noi arriviamo anche a fare attività di campaign maximizer, che permette di adattare i contenuti delle Dem attraverso algoritmi di intelligenza artificiale. Sembra una cosa destinata solo a grandi e facoltosi clienti..

In realtà stiamo sviluppando una versione “light” per aziende più piccole, che non necessitano di tutte le funzioni (ad esempio della logistica). Quali altri elementi distintivi avete?

Vinciamo perché in termini di funzionalità, che poi sono quelle mappate da Forrester, noi siamo un vero hybrid loyalty provider, cioè copriamo il più ampio e più vasto insieme di funzionalità: dashboard per calcolare il Roi dei programmi, gestione di programmi multi-valuta, gestione delle frodi, gestione emozionale ed experience design. Questa ricchezza di funzioni diverse è anche il frutto delle acquisizioni fatte in questi anni: oggi la nostra piattaforma è veramente al servizio del cliente, è molto “business-driven”, oltre che “data-driven”. Infine, c’è l’aspetto fondamentale del real-time: la nostra piattaforma, basata su cloud opera in tempo reale. Emilio Mango


SENTINELONE PUNTA AL RADDOPPIO IN ITALIA

Paolo Ardemagni

Con la recente acquisizione di Scalyr, la multinazionale di cybersicurezza accelera la propria strategia. Arrivato in SentinelOne da un anno, Paolo Ardemagni ha oggi la responsabilità delle strategie aziendali per il Sud Europa, area che comprende Italia, Francia, Spagna e Portogallo e tutta la parte del mercato emergente che include Israele e l’est del vecchio continente. Technopolis l’ha intervistato per capire quanto la recente acquisizione di Scalyr sia strategica nei progetti di crescita a livello mondiale e in Italia.

cloud può essere utilizzato tramite Api dagli Oem per sostituire le piattaforme open source Elk “sotto il cofano” e per alimentare altri servizi SaaS e di analisi dei dati, oppure può essere fruito con l’interfaccia utente di Scalyr per l’analisi dei log e la gestione degli incidenti. Come s’innesta l’acquisizione nelle nuove strategie di SentinelOne?

Questa acquisizione strategica accelera il percorso di innovazione di prodotto già intrapreso da SentinelOne, un percorso che oggi ci permette di plasmare il mercato Xdr (eXtended Detection and Response) mantenendo un modello di crescita sostenibile. La tecnologia di Scalyr risolve una delle maggiori sfide operative per i fornitori di sicurezza informatica: bilanciare la scalabilità, la velocità e i costi di gestione dei dati (oggi ancora molto alti). In pratica, avere a disposizione e offrire la piattaforma Xdr più avanzata e integrata del settore rafforza il nostro percorso di crescita, costruendo al contempo un’attività sostenibile a lungo termine che offre valore a clienti.

Che cosa fa esattamente Scalyr?

Scalyr ha creato la prima piattaforma di analisi dei dati su scala cloud nativa del settore per la gestione e lo studio dei log. La soluzione acquisisce e archivia petabyte di dati macchina, strutturati e non strutturati, ed è ottimizzata per informazioni ad alta cardinalità e ad alta dimensionalità, oltre che per la ricerca e l’archiviazione dei dati a basso costo e ad alta velocità. Il cloud di dati degli eventi di Scalyr è una soluzione SaaS completa e completamente gestita per l’analisi dei log. Il data

Che progetti avete per i prossimi anni?

SentinelOne è a mio parere l’unica soluzione di sicurezza informatica che comprende prevenzione, rilevamento e risposta basati sull’intelligenza artificiale, per endpoint, container, carichi di lavoro cloud e dispositivi IoT, in un’unica piattaforma Xdr autonoma. Con SentinelOne le organizzazioni ottengono piena trasparenza su tutto ciò che accade nella rete alla velocità della macchina, per sconfiggere ogni attacco, in ogni fase del ciclo di vita delle minacce. Ab-

biamo le idee chiare sulla gestione dei dati e la loro sicurezza intrinseca. Già nelle prossime settimane annunceremo una serie di iniziative che chiariranno ulteriormente la nostra mission a livello mondiale. In Italia stiamo crescendo e acquisendo sempre più clienti; contiamo quindi di espanderci ulteriormente, come del resto sta avvenendo in tutte le filiali europee e mondiali. Più in dettaglio, vogliamo duplicare il fatturato ottenuto nel 2020. L’esigenza per i clienti di far evolvere la sicurezza degli endpoint esiste: gli investimenti nell’IT sono quindi obbligatori, visto il proliferare delle minacce nel cloud. E come SentinelOne intende muoversi per raggiungere questi obiettivi?

In Italia SentineOne è presente da quattro anni con la sua struttura di vendita e supporto. Stiamo potenziando il canale e acquisendo clienti finali sempre più importanti. Siamo un’azienda enterprise cross-segmento, cioè operiamo con tutti i mercati, inclusi quello bancario, assicurativo e Pubblica Amministrazione. L’offerta è in cloud e ha opzioni classiche di licensing in abbonamento annuale o multi-anno, anche in modalità Mssp (Managed Security Service Provider); quest’ultima abilita i provider a coprire la fascia bassa del mercato con servizi gestiti. Inoltre, collaboriamo con i più importanti rivenditori a valore, insieme ai quali siamo in contatto con l’utente finale. Oggi il tessuto italiano è meno maturo di quello europeo, ma con la spinta degli investimenti in arrivo ci sarà molto spazio per le nostre ambizioni di crescita. E.M.

13


IN EVIDENZA

BLUE YONDER S’ALLINEA ALLA TRASFORMAZIONE CLOUD Nata come Jda, l’azienda ha provveduto nel 2020 a un rebranding che nasconde la volontà di far emergere gli aspetti più innovativi e digitali del portafoglio d’offerta. Per 35 anni si è chiamata Jda, creandosi uno spazio di rilievo nel mondo della gestione delle supply chain. Nel 2020 è arrivato un rebranding che ha portato all’adozione del nome Blue Yonder, derivato da un’azienda acquisita un paio d’anni prima, competente soprattutto nei settori dell’intelligenza artificiale e del cloud. Questo spiega già molto dell’evoluzione di una società che oggi si definisce “digital fulfillment company” e che riassume la propria visione con la volontà di ridurre gli sprechi, l’energia e i costi necessari per rafforzare il commercio globale e accelerare la sostenibilità. Lo scorso anno è arrivato l’ingresso nel capitale (20%, equivalente a circa un miliardo di dollari) di Panasonic, che ha voluto così rafforzare la propria presenza nel campo dei sistemi connessi per le imprese. In primavera, con tempi molto rapidi, è stato attivato un Covid-19 Response Center e,

Stefano Maio

a seguire, si sono definite le partnership con Dhl (creazione di una piattaforma per l’integrazione dei robot usati a magazzino su Microsoft Azure) e con Accenture (progettualità congiunte cloud-first per la modernizzazione delle supply chain di aziende del retail e della distribuzione). “A questo dobbiamo aggiungere, soprattutto a livello locale, la conquista di clienti come Cnh Industrial e MaxiDi”, spiega Stefano Maio, senior director Italia, Spagna e Portogallo di Blue Yonder, “così come l’acquisizione di Yantriks, fornitore di una soluzione SaaS specifica per l’ottimizzazione e l’integrazione tra processi di e-commerce omnicanale ed evasione degli ordini”. Questo insieme di iniziative testimonia

come l’azienda si voglia posizionare al centro del percorso evolutivo dei processi, inevitabilmente sempre più digitali, relativi alla pianificazione produttiva e alla distribuzione delle merci. “Soprattutto alla luce degli avvenimenti dell’ultimo anno”, prosegue Maio, “i nostri clienti hanno un bisogno crescente di poter disporre di una supply chain resiliente e capace di gestire, il più possibile in modo autonomo, situazioni di imprevedibilità o anomalia. La Blue Yonder che abbiamo acquisito si era già posizionata da tempo in quest’ambito e oggi la piattaforma Luminate si propone non solo come una tecnologia, ma come un vero e proprio ecosistema digitale, disponibile in modello SaaS, pronto a fornire integrazione, intelligenza, visibilità e controllo sui processi, con il machine learning incorporato per offrire i suggerimenti migliori in ogni contesto”. In Italia, Blue Yonder è tradizionalmente meglio posizionata sul rapporto diretto con i clienti, ma ora l’intenzione è di rafforzare la strategia Tier-2 su mercati come il manifatturiero e il retail/grocery. “Faremo leva su partnership globali rilevanti come quella con Accenture, ma anche con specialisti locali come Athena Retail di Bologna, seguendoli tutti sul territorio con la nostra rete di consulenti”, conclude Maio. R.B.

TWITTER CINGUETTA DI GIOIA Quello di Twitter è un business ormai maturo, incapace di grandi exploit e tuttavia sano, a dispetto della saturazione del mercato dei social network e a dispetto degli anni recenti, in cui la piattaforma di microblogging aveva rallentato la sua crescita e popolarità. I ricavi del 2020 sono stati poco meno di

14 |

MARZO 2021

3,72 miliardi di dollari, dato in crescita del 7% rispetto al 2019. Alla voce utile netto c’è un rosso da 1,13 miliardi, dovuto al lievitare dei costi e degli investimenti. Senz’altro positivo è il dato sull’utenza: i lockdown, il bisogno di informazione e di interazione hanno favorito la crescita dell’uso dei social

network, e la piattaforma di microblogging non fa eccezione. “Il 2020 è stato un anno straordinario per Twitter”, ha dichiarato l’amministratore delegato, Jack Dorsey. “Abbiamo riportato nel quarto trimestre una crescita del 27% anno su anno degli utenti giornalieri attivi, per una media di 192 milioni”.


SMARTPHONE, IL MERCATO RIPARTE Secondo i dati di Counterpoint Research, in un 2020 di calo l’ultima parte dell’anno mostra segnali incoraggianti. Intanto il 5G esce dalla nicchia. Le vendite di smartphone risentono dei lockdown e delle conseguenti difficoltà economiche diffuse, ma sono in ripresa. I dati Counterpoint Research mostrano nel quarto trimestre del 2020 un mercato acciaccato dal covid-19: con 395,9 milioni di unità commercializzati, i volumi sono in calo dell’1% anno su anno (cioè rispetto al quarto trimestre 2019) ma in crescita dell’8% sul terzo trimestre 2020. Le continue recrudescenze della pandemia, con nuovi picchi di infezioni sperimentati in mezzo mondo, hanno certamente pesato sul trimestre, rallentando una ripresa che avrebbe forse potuto essere più decisa. Nel complesso, nel 2020 le vendite sono scese del 10% a volume rispetto al 2019 proprio a causa del covid-19 e dei lockdown, che hanno pesato soprattutto sulla prima parte dell’anno per poi alleggerire il loro carico nella seconda. La crescita del 5G e il declino dei feature phone

“È interessante notare”, commenta Aman Chaudhary, research analyst di Counterpoint, “che nel mercato c’è stata anche una chiara migrazione dai feature phone agli smartphone, poiché i dispositivi sono diventati un veicolo per lo studio, il lavoro e l’intrattenimento. Una forte spinta verso il 5G, tramite la riduzione dei prezzi dei dispositivi e delle tariffe degli operatori, ha ulteriormente sostenuto il processo di ripresa del merca-

to”. L’ascesa dei modelli con supporto al 5G è evidente: nel terzo trimestre rappresentavano il 17% del totale dei telefoni venduti nel mondo, nel quarto trimestre la percentuale era salita al 34%. Una crescita, spiega Counterpoint, alimentata dalle dinamiche di calo dei prezzi ma anche dal lancio dell’iPhone 12 di Apple e dalla disponibilità di numerosi modelli dal costo inferiore ai 300 euro, proposti da marchi come Xiaomi, Oppo, Vivo e OnePlus. Sul totale degli smartphone 5G venduti nel 2020, la Cina ha concentrato il 40% della domanda. Chi sale e chi scende

Con 42,4 milioni di smartphone spediti nel 2020, Realme è stato il marchio protagonista della crescita più impetuosa: +65% su base annua. Favorito, chiaramente, da un livello di partenza più basso e dunque dal maggior potenziale di crescita, ma anche dal lancio di un modello 5G dal prezzo competitivo come il Realme 7 5G. Nella classifica mondiale dei marchi più venduti, Realme nel quarto trimestre 2020 è settimo. Prima di lui sfilano, nell’ordine, Samsung, Apple, Huawei, Xiaomi, Oppo e Vivo. La società sudcoreana ha mantenuto il primato, con 255,7 milioni di smartphone commercializzati nel 2020, nonostante il calo del 14% anno su anno. Ora, spiegano gli analisti, Samsung è alle prese con la concorrenza dei marchi cinesi nella fascia media e con quella di Apple (e in particolare dell’iPhone 12) nel segmento premium. A proposito di Apple, il quarto trimestre dell’anno è tradizionalmente il momento d’oro per gli iPhone e il 2020 non ha fatto eccezione. Fra inizio ottobre e fine dicembre il marchio di Cupertino è in testa alla classifica, con un volume di vendita (81,9 milioni di iPho-

ne) addirittura superiore a quello dell’analogo quarter del 2019 (72,3 milioni). Huawei, al terzo posto, ha tenuto testa non solo alla situazione della pandemia ma anche alle restrizioni commerciali verso gli Stati Uniti, specie grazie a una domanda forte sul mercato cinese. La Cina è stata responsabile del 70% degli acquisti di telefoni Huawei del 2020. Nel quarto trimestre si è però verificato un crollo del 41% anno su anno. La dinamica “nazionalista” ha aiutato anche Xiaomi , che ha eroso quote di mercato ai danni della stessa Huawei e di Honor (il marchio di fascia media recentemente venduto da Huawei). Parte del merito va al lancio di modelli bestseller, come Redmi 9, Redmi 9A e Redmi 10X, apprezzati anche in Europa. Oppo è cresciuta dall’8% anno su anno, fino a raggiungere una quota di mercato del 9% con 34 milioni di smartphone venduti nell’ultimo trimestre.

15


IN EVIDENZA

L’IOT SEMPLICE E SOSTENIBILE NON È PIÙ UN MIRAGGIO Forte di investimenti in ricerca e di diverse tipologie di sensori, la nuova Software Ag sembra avere una marcia in più. Giulio Ballarini, country manager e vice president sales Italy di Software Ag, guida la filiale italiana da pochi mesi ma ha già le idee chiare su strategie e obiettivi della multinazionale, forte anche del piano di trasformazione Helix, avviato nel 2019 dal Ceo, Sanjay Brahmawar. Un investimento di 50 milioni di euro in soli cinque anni per ridisegnare i servizi dell’organizzazione, che dovrà poggiare su tre pilastri: integrazione e Api (con Webmethods), IoT e analytics (Cumulocity IoT) e infine business transformation (Aris e Alphabet). Ci può fare una sintesi della nuova offerta di Software AG?

Software Ag ha compiuto da poco i cinquant’anni e, come sappiamo, ha costruito la sua fortuna su due prodotti, Adabas e Natural, su un database ad alte prestazioni per mainframe e su un linguaggio di sviluppo (un mercato maturo ma che vale ancora circa tre miliardi di dollari). Nel 2007 è arrivata l’acquisizione di Webmethods, quindi ha assunto importanza il tema dell’integrazione di applicazioni e processi, un trend di grande attualità ma spesso sottovalutato. Abbiamo poi costruito il segmento che fa capo alle soluzioni Aris e Alfabet, quello della gestione dei processi, vista non solo in ottica di disegno ma soprattutto finalizzata a conoscere come si muova il cliente al fine di realizzare un customer journey efficace. L’ultimo pilastro, quello che mi ha portato in Software Ag, riguarda l’Internet of Things.

16 |

MARZO 2021

Giulio Ballarini

sono in posti impervi e privi di connessione Internet, mentre la pala deve essere monitorata, bisogna installare un miniPc, un firewall e un router. Tutte queste piccole e grandi problematiche fanno sì che i progetti siano complessi, che poi è il motivo per cui molte Pmi non abbracciano progetti IoT, spaventate dalle difficoltà e dai costi. La nostra piattaforma integra in modo nativo centinaia di device e, nel caso il cliente abbia bisogno di connettere un dispositivo che non è già compreso, lo possiamo integrare senza bisogno di investimenti importanti.

Quanto conta l’IoT nell’attuale strategia?

Io credo molto nell’offerta IoT di Software Ag, una soluzione end-to-end che permette alle aziende di partire con progetti di Internet delle cose in settimane anziché in mesi. Il segreto della nostra piattaforma (Cumulocity, acquisita nel 2017, ndr) è che permette di gestire e integrare direttamente tutti i device, il punto debole di molte implementazioni. Un esempio: i semafori in città hanno sensori di fornitori diversi, e non è facile integrarli in un’unica piattaforma, noi lo potremmo fare rapidamente ed efficacemente. Come se non bastasse, alcuni progetti IoT sono basati su architetture on premise, altri sono in cloud, a volte si opera con architetture miste. Insomma, spesso la complessità è decisamente elevata e le difficoltà rischiano di far fallire anche le iniziative più ambiziose. Però ci sono anche casi di successo...

Ne abbiamo tanti. Uno su tutti è quello che ha visto protagoniste le pale eoliche di Nordex, un nostro cliente con cui abbiamo realizzato un bellissimo caso di applicazione IoT in ambito energie rinnovabili. Il problema è che le pale (ma più in generale i device periferici), spesso

Il segreto non saranno solo i sensori...

Certamente no, anche se è una componente fondamentale. L’altro grande vantaggio competitivo è che in seguito alla riorganizzazione abbiamo un Ebitda solido e stabile, intorno al 20%. Un dato che ci consente di dedicare molte risorse a ricerca e sviluppo, ma anche di investire nei progetti insieme al cliente. In Italia avete qualche progetto di rilievo?

Ne abbiamo molti, perché l’Italia è uno dei primi Paesi di Software Ag per competenze IoT. Ne citerò uno: stiamo lavorando con un grande cliente come Octo Telematics, che integra servizi telematici a bordo dei veicoli e ha costruito il suo business model anche grazie alla nostra tecnologia. Poi ci sono molte iniziative in ambito industria manifatturiera, dove le nostre piattaforme possono aiutare a migliorare la progettazione e la manutenzione dei prodotti (e in particolar modo delle macchine), permettendo anche ai clienti di gestire al meglio l’approvvigionamento delle materie prime e i consumi energetici. Aiutando, quindi, le imprese sui temi importanti della sostenibilità e dell’economia circolare. E.M.


MICROSOFT TEAMS E TELEFONO FISSO ORA SI PARLANO Hisolution promuove l'integrazione delle soluzioni software di collaboration con i centralini telefonici: una nuova necessità, nata dagli sconvolgimenti della pandemia. Lo shock della pandemia ha cambiato, forse per sempre, l’utilizzo dei sistemi di Unified Communication. Tra i protagonisti di questo settore in Italia c’è Hisolution, che ha da sempre un rapporto privilegiato con i carrier e che lavora per integrare le soluzioni software di collaboration con i centralini telefonici. Un’azienda dalla doppia anima: quella tecnica, che arriva dal Dna di ingegneri specializzati nel settore delle telecomunicazioni, e quella consulenziale, cresciuta negli anni con l’ascolto dei clienti e con l’importanza sempre maggiore data al fattore umano, alla storia delle persone. Technopolis ha intervistato il Ceo, Luca Coturri, per capire meglio il percorso dell’azienda toscana. Quali sono i numeri di Hisolution?

Hisolution è un gruppo composto da tre società. Il fatturato 2020 aggregato è stato di circa 3,7 milioni con una crescita del 30% rispetto al 2019, più della metà sono ricavi ricorrenti. Nel 2021, in cui l’effetto della pandemia sarà ancora più impattante, pensiamo di superare i 4 milioni. Poi c’è Habble, spin-off di Hisolution, che ha chiuso il 2020 a 3,8 milioni di euro. Come gruppo “allargato” abbiamo quindi superato i 7 milioni di euro di ricavi, con una crescita dei servizi del 70%. Come la pandemia ha trasformato il modo di lavorare?

La pandemia ha cambiato tutto e noi per primi, ovviamente, abbiamo dovuto adattarci con le attività a di-

Luca Coturri

stanza. Per noi, che abbiamo sempre lavorato tanto da remoto con i nostri clienti, l’impatto però è stato più umano che tecnologico: abbiamo continuato a usare strumenti come Microsoft Teams e WebMeeting, abbiamo dovuto incrementare l’efficienza e, come per tutti, il tempo è diventato una risorsa ancora più preziosa. Anche fuori dal nostro perimetro è cambiato tutto. Molte aziende non accettavano di lavorare da remoto, ora sono loro a non ricevere più partner e fornitori; è cambiato il modello di relazione tra organizzazioni, e non penso che tornerà tutto come prima, perché ormai abbiamo capito che molti spostamenti possono essere evitati. Com’è cambiata la vostra offerta di sistemi e servizi di telecomunicazioni?

Hisolution è nata nel 2005 e da sempre si occupa di consulenza legata all’ottimizzazione dei costi dei contratti telco e Ict, soprattutto per aziende mediograndi. Una seconda divisione tratta la tecnologia Voip (Unified Commu-

nication and Collaboration, Ucc) e il networking per clienti multi-sede e in smart working, e anche questa lavora molto con i carrier telefonici, come Fastweb e Wind3. La terza divisione, infine, si rivolge alle Pmi. Quindi il nostro core business è legato ai servizi, consulenza e assistenza. L’integrazione tra le diverse anime è per noi un punto di forza, perché non si trovano mai realtà e ambienti uniformi, e noi dobbiamo implementare tecnologia in ambienti diversi. Nei primi mesi del lockdown abbiamo scelto di investire il tempo che avanzava per accelerare tutta una serie di progetti che avevamo nel cassetto: uno di questi era l’integrazione di alcuni sistemi come Teams (visto il numero di utenti che utilizzano la soluzione Microsoft) ai centralini telefonici, qualunque tipo di centralino. Oggi gestiamo una quarantina di ticket al giorno per circa 300 clienti, tra cui alcuni soggetti che operano 24 ore su 24, come gli ospedali. È una grande opportunità che stiamo cavalcando: portare il numero telefonico dell’ufficio a casa, far dialogare Teams su Pc, cellulari e telefoni fissi. Qual è oggi l’atteggiamento dei clienti verso questi servizi?

Molte aziende avevano implementato sistemi Ucc anche prima della pandemia. La differenza è che ora li usano e che questo è un trend che non smetterà di crescere, portando molto probabilmente a un incremento dei costi sia in termini di licensing sia di banda. E.M.

17


IN EVIDENZA

UN COMPUTER DAVVERO “SPAZIALE” Manca poco al lancio del successore di Spaceborne computer, realizzato da Hpe, sulla Stazione Spaziale Internazionale. Il cloud di Microsoft Azure farà da supporto nelle attività più impegnative. Sulla Stazione Spaziale Internazionale è sbarcato un nuovo computer “nato per lo spazio”, come dice il nome stesso: Hpe Spaceborne Computer-2, il successore del primo Spaceborne Computer, è andato in orbita il 20 febbraio nell’ambito della quindicesima missione di rifornimento Northrop Grumman Resupply Mission. Il sistema di prima generazione era un proof-of-concept, che era stato lanciato nel 2017 sulla Iss e lì era rimasto per un anno, dimostrando di poter operare in ambienti a zero gravità e ad alti livelli di radiazioni. Condizioni che danneggiano il tradizionale hardware dei sistemi di calcolo. Adesso scatta l’ora di Spaceborne Computer-2 il cui tempo di permanenza previsto è di due o tre anni. Si tratta di un

sistema di calcolo “edge” (e più periferico di così è difficile immaginarlo, in effetti) che consentirà sia agli astronauti sia agli scienziati a Terra di raccogliere grandi masse di dati da sensori e satelliti dispersi nello spazio, per poi elaborarli e ottenere preziosi insight. Preziosi ma anche rapidi: a detta di Hpe, con questo computer i tempi di scoperta possono scendere “da mesi a minuti” per esperimenti di vario tipo, come l’analisi di immagini diagnostiche e il sequenziamento del Dna, o come appunto l’elaborazione di dati prodotti da sensori, satelliti. Rispetto al primo proof-of-concept, lo Spaceborne Computer-2 riesce a garantire una velocità di calcolo doppia grazie a capacità di elaborazione edge “purpose-built”, basate sul sistema di Hpe

Edgeline Converged Edge e su un server ProLiant. Il computer potrà quindi elaborare in tempo reale dati di vario tipo, incluse le immagini, sfruttando in quest’ultimo caso le sue unità di calcolo grafico Gpu. Il sistema potrà anche fare affidamento su tecnologie di intelligenza artificiale e di machine learning. A detta di Hpe, le capacità software e il potente hardware di questo sistema permetteranno agli astronauti e al personale di terra di inviare e ricevere dati in modo più rapido, riducendo di molto la latenza. All’occorrenza, il “computer spaziale” di Hpe potrà ottenere capacità di calcolo extra appoggiandosi all’infrastruttura cloud di Microsoft Azure. Potrebbe averne bisogno, per esempio, per attività complesse e avide di risorse Cpu e Gpu come la modellazione e la previsione delle tempeste di sabbia o delle condizioni ambientali di Marte, o come la misurazione dell’acqua necessaria per far crescere le piante nello spazio, o ancora come l’analisi dei fulmini che cadono sulla Terra provocando incendi e l’analisi di immagine mediche a supporto del controllo della salute degli astronauti. Insomma, pare proprio che Spaceborne Computer-2 avrà un gran bel da fare lassù nello spazio.

IL NUOVO CLOUD DI TIM SI CHIAMA NOOVLE C’è un nuovo fornitore cloud rivolto alle aziende italiane, ma è una vecchia conoscenza: Noovle Spa, newco creata da Gruppo Tim sulla base all’acquisizione, realizzata l’anno scorso, del 100% della società milanese Noovle Srl. L’offerta della nuova azienda spazierà dai servizi di gestione delle infrastrutture di rete

18 |

MARZO 2021

all’interno dei data center Tim ai servizi di progettazione e assistenza, dalla migrazione verso il cloud al supporto delle attività gestionali collegate. La rete dei 17 data center proprietari consentirà a Noovle Spa di gestire i server, i dati e le applicazioni dei clienti in un ambiente controllato e interamente localizzato in

Italia. Su incarico della società madre, inoltre, Noovle realizzerà sei nuovi data center che si specializzeranno nell’offerta di public e hybrid cloud, vantando una certificazione Tier IV. Un punto di forza sono le partnership già siglate con Google, Microsoft, Atos, Cisco, Citrix, Salesforce, Sap e Vmware.


IDEE CREATIVE PER LA SUPPLY CHAIN Le testimonianze di Gruppo Marazzi e Alcar Ruote mettono in luce la capacità di reagire alle difficoltà dei lockdown. Gli ultimi dodici mesi hanno generato uno stress senza precedenti per le supply chain delle aziende, per diversi motivi. Le conseguenze della pandemia si sono fatte sentire sia sulle realtà che hanno dovuto sopportare un carico addirittura superiore alla norma (si pensi agli alimentari) sia su quelle che, per contro, hanno visto il loro business fermarsi e adattarsi a una situazione inedita e imprevista. Il Gruppo Marazzi, fra i più noti produttori nazionali di piastrelle, ha dovuto attrezzarsi per tempo, per superare i limiti infrastrutturali di un distretto tanto dinamico quanto affollato come quello di Sassuolo. “Nel 2017 abbiamo attivato un sistema che consentisse ai trasportatori di prenotare il prelievo di materiale da noi”, spiega il Cio della business unit Ceramics, Claudio Coni. “Nella zona dove noi operiamo ci sono molti produttori e nessun polo logistico, per cui la fornitura di materiali avviene con ritiro individuale presso ogni azienda, rendendo imprevedibili i tempi di preparazione e consegna”.

Per questo motivo Marazzi ha deciso di sviluppare un sistema per la prenotazione del prelievo di piastrelle, senza costringere il camionista ad attendere la preparazione della merce, ma trovandola pronta al suo arrivo. L’azienda emiliana ha scelto Oracle Transportation Manager per realizzare la soluzione, facendo leva su una scelta tecnologica avviata dieci anni fa. Nel periodo dei lockdown l’azienda ha installato dei totem per rendere più self-service il lavoro dei trasportatori, lasciando a Oracle il compito di sviluppare l’app e personalizzando la soluzione con il proprio brand, per poi distribuirla su scala europea. Anche Alcar Ruote, un produttore di cerchioni in acciaio per le automobili, ha dovuto adattare la propria catena di fornitura alle mutate condizioni del 2020. L’azienda ha originariamente realizzato con Oracle Erp Cloud un progetto che coinvolge finance, supply chain, manutenzione e monitoraggio IoT della produzione, per poter così basare l’attività su previsioni di vendita, che devono tener conto della stagiona-

lità del prodotto (legata essenzialmente al passaggio ai pneumatici invernali). Il periodo di picco dei contagi ha inciso profondamente sul business della società e sulle attività di pianificazione: “Le vendite sono notevolmente calate”, ammette Stefano Mariani, IT manager di Alcar Ruote. “Abbiamo dovuto rimodulare il lavoro delle squadre specializzate anche in funzione dei casi di positività al covid che abbiamo riscontrato, per cercare di prevedere il più possibile il funzionamento delle linee in base alla domanda”. Oracle IoT Production Monitoring e Cloud Maintenance sono serviti per poter aggiornare in tempo reale le informazioni e mantenere, così, la continuità operativa. R.B.

PER ORACLE IL CALCOLO PUÒ SPOSTARSI OVUNQUE La nuova Roving Edge Infrastructure di Oracle è un’offerta che permette di portare nell’edge le attività infrastrutturali di base, tipicamente eseguite al centro delle reti: come lo storage, il data warehousing, gli analytics, l’integrazione e la replica dei dati in tempo reale. Per farlo, oltre al software di Oracle, è necessario usare i di-

spositivi Roving Edge Device (Red), dei nodi server portatili e “corazzati” in base a standard militari, adatti quindi a operare nei più disparati contesti al di fuori dei classici data center. Queste macchine racchiudono 40 unità di calcolo Oracle Compute Unit (OCpu, corrispondenti a 80 Cpu virtuali), 512 GB di RAM, 61

TB di storage e interfacce di rete ad alta velocità. Con questa soluzione è possibile eseguire carichi di lavoro su Oracle Cloud ovunque ce ne sia la necessità, anche nei luoghi più remoti o improbabili, “che sia il retro di un aereo, un osservatorio polare o una petroliera nel mezzo dell’Atlantico”, assicura l’azienda.

19


IN EVIDENZA

CUSTOMER SERVICE, SPECCHIO DELL’AZIENDA

INTELLIGENZA IN PERIFERIA

La relazione con i clienti si fa sempre più tecnologica e richiede nuovi investimenti, come evidenzia Salesforce.

Per i prossimi due anni Gartner prevede che oltre il 50% dei dati verrà creato nella periferia delle reti, ma sarà necessario sfruttare correttamente quei dati per poter generare valore. Il considerevole aumento del numero di dispositivi connessi implica che il traffico di rete debba diventare progressivamente più denso, ragion per cui le strutture IT avranno un bisogno crescente di strumenti di controllo degli accessi end-to-end sulle reti aziendali. L’ampia varietà di oggetti connessi, tuttavia, rende sempre più necessario l’intervento dell’intelligenza artificiale, che può consentire di sviluppare regole in grado di analizzare il contesto (ruolo degli utenti, tipologia dei dispositivi, stato dei certificati, allocazione, applicazioni collegate) per prendere decisioni in modo automatico e rapido. In questo scenario si colloca la soluzione Esp (Edge Services Platform) di Hpe Aruba: “Si tratta della prima piattaforma cloud-native basata sull’intelligenza artificiale, che permette di anticipare e correggere i problemi che nascono nella periferia delle reti, prima che ne derivi un impatto sull’attività delle aziende”, spiega Stefano Brioschi, category manager di Hpe Aruba. La tecnologia di questa soluzione si basa sull’AiOps (cioè sull’intelligenza artificiale applicata alle operations), su un modello di sicurezza zero-trust e su un’architettura unificata che copre campus, data center, filiali e siti collegati in telelavoro. “La piattaforma è in grado di prevenire anche i cambiamenti che possono intervenire nel tempo”, aggiunge Alessandro Ercoli, system engineering manager di Hpe Aruba.

Il rapporto fra aziende e clienti si è notevolmente digitalizzato nel 2020 e la conferma arriva dall’ultima edizione del report “State of Service” di Salesforce, basato sulle risposte di oltre settemila intervistati (decision maker, responsabili del servizio clienti, lavoratori mobili) provenienti da 33 Paesi, trecento dei quali italiani. Da noi si evidenzia come, in risposta agli effetti innescati dalla pandemia, l’80% dei service team abbia modificato workflow e processi, mentre l’82% ha cambiato le policy per offrire maggior flessibilità ai clienti e l’80% ha investito in nuove tecnologie. “Venendo a mancare altre forme di interazione e punti di riferimento”, commenta Alessandro Catalano, direttore vendite regionale dell’area service cloud di Salesforce, “i clienti si sono fatti più ansiosi e il customer service è diventato il principale punto di contatto umano. Di fatto, gli operatori sono diventati dei veri e propri brand ambassador e hanno dovuto far leva su una maggior empatia”. La fornitura di assistenza sul campo è rimasta un ele-

20 |

MARZO 2021

mento differenziante anche durante i periodi di lockdown e i consumatori hanno continuato a preferire, in generale, il contatto personale. Tuttavia, la disponibilità di tecnologie digitali ha aiutato gli interlocutori del servizio clienti ad aumentare la propria flessibilità e a migliorare la customer experience, agevolando anche il loro percorso di crescita. L’86% dei decision maker italiani ha fatto significativi investimenti nella formazione dei propri agenti, mentre il 76% di questi ultimi ha apprezzato la possibilità di accedere da remoto a tutti i dati necessari per lavorare. Più sorprendente può essere il fatto che, accanto all’aumento di peso dei canali digitali, ci sia stata una ripresa anche delle classiche interazioni telefoniche. “Si tratta della forma più prossima al contatto fisico venuto meno”, evidenzia Catalano, “e l’integrazione di capacità digitali, per esempio la trascrizione in tempo reale della conversazione, ha migliorato le performance dell’operatore, in particolare con un 33% di aumento della risoluzione di problematiche”. R.B.


l’intervista

IL PRIMO ANNO IN TRINCEA DI NTT LIMITED Con Emanuele Balistreri, country managing director della società, ripercorriamo gli eventi di un 2020 indelebilmente segnato dalla pandemia, guardando agli strascichi che potranno influenzare il 2021.

Verso la fine del 2019 Ntt aveva annunciato una riorganizzazione che aveva portato sotto il cappello di Ntt Limited ben 31 aziende in precedenza dotate di brand separati, il più noto dei quali in Italia era quello di Dimension Data. Di lì a poco sarebbe scoppiata la pandemia, evento che ha condizionato lo scorso anno e ha generato o rafforzato fenomeni non programmabili, con effetti destinati a perdurare anche in questo 2021. Abbiamo provato a ripercorrere gli eventi del periodo trascorso dall’annuncio della nuova struttura con il country managing director della società, Emanuele Balistreri. Tra gli eventi del 2020, quali vi hanno toccato più direttamente?

Abbiamo visto aree di mercato accelerare e altre subire rallentamenti anche significativi. Gli obiettivi che ci eravamo dati fino al 2023, tuttavia, non sono cambiati, anche se non possiamo non tener conto dei mutamenti intervenuti. È da non più di cinque anni che si parla seriamente di digitalizzazione dei processi, ma nel 2020 c’è stata una forte accelerazione, spesso forzata dalle circostanze. All’evoluzione dei rapporti con gli interlocutori esterni si sono aggiunti quelli interni, con dipendenti e partner. Pertanto, anche noi abbiamo beneficiato dell’espansione del lavoro collaborativo e digitale, per il quale offriamo servizi infrastrutturali. La ripartenza

Emanuele Balistreri

avviata dopo il lockdown ha poi portato con sé una revisione dei processi di business correlata al nuovo scenario di lavoro. Abbiamo assistito a un forte ricorso a risorse esterne per gestire progetti di aggiornamento, in una logica sempre più legata al cloud ibrido. Anche qui siamo stati in grado di soddisfare la domanda, grazie alle sedi presenti in Europa e pronte a erogare soluzioni as-a-service, soprattutto per servizi innovativi che richiedono una rapida attivazione. Che cosa avete osservato sul fronte della cybersecurity?

Un anno fa poteva ancora aver senso parlare di firewall, perché esisteva un perimetro più o meno definito da proteggere. Oggi, invece, si accede a dati che si trovano ovunque. Molte aziende hanno avuto un approccio tattico all’inizio e quindi noi ci proponiamo ora di affiancarle su questo fronte,

facendo leva sui nostri dati di rilevazione molto affidabili, visto che le reti Ntt ospitano il 43% del traffico Web mondiale. In prospettiva, poi, nel campo della sicurezza si aggiungeranno a breve gli effetti del 5G, con la correlata quantità di oggetti che veicolano informazioni potenzialmente sensibili. Qui stiamo sviluppando algoritmi di crittografia a basso impatto computazionale, per agire anche sugli oggetti meno “carrozzati” da questo punto di vista. Quale bilancio si può trarre in questo primo anno di attività con il nuovo brand?

Tutto sommato possiamo dire che le cose sono andate in modo positivo, considerato il periodo congiunturale. Il business è cresciuto e l’organizzazione è rimasta sostenibile. Certamente, progetti legati alla trasformazione dei data center o di evoluzione verso le SdWan sono stati rimandati, ma la compensazione è arrivata dal supporto al lavoro remoto e alle sue implicazioni. Un’altra tendenza rilevante riguarda la co-innovazione ed è sorprendente in un Paese come l’Italia. Abbiamo registrato una domanda interessata ad avere l’apporto di un consulente quale noi possiamo essere, per capire come stiano cambiando i processi interni. Il gruppo ha stanziato 3,5 miliardi di dollari di investimenti in cinque anni per ricerca & sviluppo su questo fronte. Roberto Bonino

21


IN EVIDENZA

TRA GLI IMPEGNI DI VMWARE C’È ANCHE UNA FORESTA La società statunitense si impegna nelle iniziative ambientali con obiettivi di lungo periodo, ma anche contribuendo a fare di Milano una città più verde. Se Milano sta diventando una città un po’ più verde, il merito è anche di Vmware: la filiale guidata dal country manager Raffaele Gigantino ha finanziato e realizzato materialmente la piantumazione (cominciata lo scorso ottobre) di 500 alberi e piante all’interno del Parco Nord, una delle principali aree verdi del capoluogo lombardo. Un’opera battezzata “Foresta Vmware” e donata alla città meneghina. L’iniziativa fa parte del più ampio progetto ForestaMI, con cui il Comune di Milano ha promesso di piantare nel territorio municipale tre milioni di alberi da qui al 2030. Estesa su una superficie di duemila metri quadri, la foresta di Vmware include querce di varie specie (querco-carineto, cerro, rovere), aceri, ciliegi selvatici, esemplari di carpino bianco. Durante il loro ciclo di vita queste piante assorbiranno 16.750 chilogrammi di CO2 ogni anno, corrispondenti alle emissioni di un’auto di media cilindrata che compia il giro della Terra, o a 35 voli aerei di andata e ritorno da Roma a Londra. “Stiamo abusando delle risorse del Pianeta ed è importante impegnarsi, sia come cittadini sia come aziende, nello sviluppo di una tecnologia sostenibile”, ha commentato Raffaele Gigantino, country manager di Vmware Italia. “La tecnologia non è né buona né cattiva, è il suo utilizzo che ci può per-

22 |

MARZO 2021

Raffaele Gigantino

mettere di creare un mondo peggiore o un mondo migliore. Vmware è impegnata da anni a sviluppare soluzioni tecnologiche che hanno come scopo il risparmio energetico”. La foresta è solo uno dei frutti dell’impegno di lungo termine di Vmware. Nel suo documento programmatico “Agenda 2030”, la società identifica trenta obiettivi misurabili da raggiungere

entro il 2030, focalizzati sui tre temi di fiducia, equità e sostenibilità. Accanto alle buone pratiche riguardanti la diversity (per esempio, la promessa di bilanciare la componente femminile e quella maschile nelle nuove assunzioni), gli impegni all’ecologismo comprendono la collaborazione con i partner del cloud pubblico per ottenere operations a zero emissioni di carbonio entro il 2030. E ancora, entro il 2030 Vmware ridurrà del 50% le emissioni totali della sua supply chain rispetto al livello di riferimento del 2018. C’è poi il tema dello smart working, o meglio del “lavoro distribuito”, come lo chiama Vmware: nel caso della multinazionale statunitense, non la semplice risposta alle esigenze di distanziamento sociale dettate dalla pandemia, ma un modello che rappresenta un’evoluzione organizzativa e culturale. V.B.


RISCHIO IT, L’ITALIA È IN “ZONA ARANCIONE” Uno studio di Trend Micro e Ponemon Institute ha mappato, nel mondo, l’esposizione delle aziende al pericolo di subire attacchi e perdita di dati. Zona rossa, gialla, arancione, bianca? Mentre, nel tentativo di gestire la situazione del covid-19, il governo ha proseguito con la girandola dei colori da attribuire alla Regioni italiane, dal punto di vista della cybersicurezza il giudizio è abbastanza uniforme: siamo in “zona arancione”. Ovvero il nostro è un “rischio rialzato” rispetto al livello verde (basso rischio) e a quello giallo (rischio moderato), inferiore soltanto a quello della “zona rossa” (alto rischio). Questo significa che le nostre aziende hanno un’elevata possibilità di subire una compromissione di dati, possiedono una scarsa visibilità delle minacce all’interno delle loro reti e non hanno una strategia di gestione e reazione agli incidenti. Così ha valutato Trend Micro nel suo nuovo studio “Cyber Risk Index 2020”, realizzato in collaborazione con il Ponemon Institute e con il coinvolgimento di quasi 2.800 professionisti e manager IT negli Stati Uniti, in Europa, Italia compresa e nella regione Asia-Pacific. Lo studio si impernia sul Cyber Risk Index, indicatore va da -10 a 10 (-10 rappresenta il rischio più alto) e che riflette il divario tra le difese informatiche di un’azienda e la possibilità di un attacco. Il suo valore è in grado di predire il rischio dell’azienda di subire gravi danni cyber in una determinata area. Il mappamondo del pericolo

Il Cyber Risk Index globale è attualmente di “-0,41”, corrispondente a un

delle proprie criticità interne, come il mancato allineamento o protezione delle complesse infrastrutture onpremise e in-cloud, o come la mancanza di personale adeguatamente qualificato. Il destino delle aziende è legato ai consumatori

rischio rialzato. L’area più problematica sono gli Stati Uniti, con indice di “-1,07”, mentre in Europa il valore si attesta a “-0,13”, cioè “rischio rialzato” (elevated) e l’Italia è in linea con la media del continente. Meglio di noi fanno Germania e Regno Unito, classificate in zona gialla. Su scala mondiale la regione più virtuosa è quella asiatica, con un Cyber Risk Index di “-0,02”. A livello globale, nel 2020 il 23% delle aziende ha subito almeno sette attacchi informatici e l’83% delle organizzazioni prevede che il trend continuerà. Tra le minacce esterne più temute spiccano i ransomware, le tattiche man-in-the-middle, il social engineering e gli attacchi phishing. Ma le aziende sono anche preoccupate

Gli indici di rischio sono stati calcolati tenendo presenti diverse variabili riguardanti le minacce informatiche, il pericolo di perdita di dati, la presenza o assenza di una cultura della sicurezza informatica tra i dirigenti e infine la capacità di reazione delle aziende di fronte a eventuali attacchi. La valutazione di Trend Micro riguarda quindi il tessuto imprenditoriale dei continenti e delle nazioni, e non le istituzioni o la cittadinanza. In ogni caso, queste sfere non possono essere nettamente distinte, poiché le imprese trattano e conservano qualsiasi genere di dato relativo ai loro clienti o prospect: se subiscono un data breach, a risentirne è anche la privacy degli utenti digitali. Una società colpita, tipicamente, può perdere quattro tipologie di contenuti: informazioni finanziarie, informazioni confidenziali dell’azienda, dati relativi agli utenti e comunicazioni contenute nelle email. Di conseguenza, può verificarsi una perdita immediata di denaro ma anche una perdita di proprietà intellettuale, di fiducia dei consumatori e di reputazione, di beni materiali e di produttività. V.B.

23


ITALIA DIGITALE

NEXT GENERATION ITALIA: UN PIANO DA RISCRIVERE? Anche l’ultima bozza del Pnrr, Piano Nazionale di Ripresa e Resilienza “Next Generation Italia”, presentata lo scorso 13 gennaio, in pratica l’ultimo respiro del Governo Conte, non ha suscitato grandi entusiasmi.

M

ario Calderini, Professore del Politecnico di Milano, l’ha definito “un documento composto ed educato, ma sicuramente non brillante, …totalmente anaffettivo, sideralmente distante da un’idea di società attiva, partecipe e protagonista su cui riporre la fiducia». Fabrizio Barca, Economista e Presidente del Gruppo Coordinamento del Forum Disuguaglianze Diversità, ha rilevato che «La prima grave lacuna è il fatto che la maggioranza dei progetti è priva dell’indicazione dei risultati attesi (in termini dei benefici per la popo24 |

MARZO 2021

lazione)”. Giovanni Tria, ex Ministro dell’Economia, ha espresso un giudizio ancor più articolato. Secondo lui il piano descrive principalmente bisogni e non progetti; l’allocazione delle risorse non deriverebbe tanto dalla selezione dei progetti in base al al rendimento atteso in termini di benefici e risultati chiaramente definiti, ma più che altro si tratterebbe di una ripartizione di risorse disponibili; mancherebbe un progetto industriale complessivo, in cui gli investimenti pubblici possano servire a incrementare gli investimenti privati per alimentare la crescita necessaria a finan-

ziare il pagamento del debito; e infine, dopo sette mesi non si sarebbe ancora capito chi dovrebbe fare che cosa. Insomma tutto bene, solo che il Piano non è un piano. Mancano obiettivi precisi, milestone chiaramente definite, chiara definizione delle responsabilità. E allora spetterà al Governo Draghi riscrivere questo Piano ovviando alle carenze della bozza precedente. Dopo la “pars destruens”, la “pars construens”: che cosa ci aspettiamo dal “Nuovo Pnrr”? Alfonso Fuggetta, Ceo Cefriel, in particolare è intervenuto a una recente Web


Conference di “The Innovation Group” proponendo tre temi strategici: innovazione della Pubblica Amministrazione, delle imprese, ricerca. Riguardo alla digitalizzazione Pubblica Amministrazione, Fuggetta si è fatto interprete di una diffusa perplessità in merito alle direzioni strategiche che si sono seguite nel corso degli ultimi anni, in sui l’azione del governo è stata centrata sullo sviluppo e sulla fornitura di servizi front-end ( portali, app, sistemi di pagamento, identità digitale). Perplessità condivisa anche da Eugenio Prosperetti, Docente Informatica Giuridica, Luiss che si chiede se la priorità sia veramente quella della App Io o di abilitare l’accesso ai servizi sul mobile: si tratta di capire se questa è una cosa che serve, e su questo non ci sono dubbi, o se è veramente la priorità assoluta. Fuggetta e Prosperetti, e con loro molti altri, ritengono che si debba cambiare direzione e che il Pubblico dovrà concentrarsi sempre più sulla gestione degli asset strategici del paese, e quindi sull’integrazione delle basi di dati e dei back-end, sulla razionalizzazione del parco applicativi e sul passaggio al cloud, per cui però andrebbe scongiurata la iattura di una società pubblica che alcuni supporter dello “Stato Imprenditore” stanno ventilando. Peraltro, questa scelta di priorità aprirebbe finalmente la strada ai privati per quanto riguarda l’erogazione di servizi di front-end. Per quanto riguarda le Politiche Pubbliche, Fuggetta ha rilevato che le politiche pubbliche di incentivazione sono spesso lente, discontinue e incapaci di cogliere le reali esigenze delle imprese, per cui il Nuovo Pnrr dovrebbe incentivare la nascita, la patrimonializzazione e l’investimento nella crescita dimensionale delle imprese, che andranno incentivate a innovare attraverso strumenti di supporti che incidano in modo immediato e con-

creto sul loro conto economico: cioè ad es. crediti di imposta, molto più efficaci che crediti agevolati che agiscono solo sul flusso di cassa. In merito infine alla Ricerca, Fuggetta distingue con chiarezza la vera ricerca , che è solo di base, dall’applicazione della ricerca, che è innovazione. Propone quindi un modello di finanziamento della ricerca chiaro e strutturale, anche per ovviare al problema della bassa dimensione media delle imprese, che riduce la loro capacità di investimento in ricerca. Contributi importanti alle direzioni di un Nuovo Pnrr sulla digitalizzazione della Pubblica Amministrazione vengono poi da una molteplicità di innovatori attivi particolarmente nelle nostre Amministrazioni locali. Citeremo tra i molti due interventi particolarmente significativi che abbiamo registrato nel corso della recente Web Conference organizzata da The Innovation Group. Cosa serve per gestire al meglio i Fondi Europei? Secondo Francesco Raphael Frieri, Direttore Generale, Regione Emilia-Romagna, occorre avere chiari degli obiettivi e un’organizzazione che deve essere funzionale alla messa in opera delle politiche pubbliche che chi è eletto dal popolo, le categorie economiche e il sindacato consegnano a chi ha responsabilità di governo. Frieri ha molto insistito anche sull’esigenza di investire nelle competenze, e in particolare il fatto che la Pa spesso scarseggia di competenze di natura finanziaria e di approcci matematici ai problemi. Una particolare attenzione deve quindi essere dedicata a far sì che le competenze matematiche siano ben presenti nelle specifiche di tutti i concorsi. Secondo Idelfo Borgo, Direttore Ic&T e Agenda Digitale, Regione Veneto, I fondi del Pnrr dovrebbero contribuire a rendere sempre più efficace la governance della trasformazione digitale verso il territorio. Particolarmente significativa è l’esperien-

Roberto Masiero

za della Regione Veneto, che ha portato alla nascita dei Sad, soggetti di aggregazione digitale del territorio formati dalle province, dai comuni capoluogo e da società in house o da consorzi. E particolarmente interessante l’approccio che tende a garantire a tutti i cittadini i Ledd, livelli essenziali di diritti digitali. Infine, Michele Bertola, Direttore Generale del Comune di Bergamo e Presidente Andigel, ha sottolineato l’importanza di superare una certa concezione della Pa tesa ad accaparrarsi internamente le risorse per valutare invece l’impatto che le scelte che si compiono vengono ad avere sui territori amministrati. La digitalizzazione, secondo Bertola, non deve portare alla spersonalizzazione del rapporto con i cittadini, ma al contrario a un miglioramento di relazioni, prossimità e fiducia. E infine, le grandi risorse che si sposteranno sulla digitalizzazione non serviranno a gran che se continueranno a spostarsi sulla dimensione verticale dei silos in cui l’amministrazione stessa si articola. Il Pnrr dovrà invece favorire l’integrazione dei dati locali con quelli dell’Inps, dell’Agenzie delle Entrate, dei grandi Enti centrali, per consentire di avere una visione integrata dei sistemi territoriali e di guidare l’azione del governo locale attraverso i dati e il benchmarking. Roberto Masiero 25


ITALIA DIGITALE | Perpiciatis

La crisi del covid-19 ha accelerato, nella maggior parte dei casi, i percorsi di ammodernamento delle aziende italiane, ma non ha eliminato alcuni problemi esistenti. Così svela una survey di The Innovation Group.

TRASFORMAZIONE DIGITALE, UN PERCORSO AVVIATO Con riferimento ai progetti di trasformazione digitale del business, a che punto è la sua azienda? L’emergenza ha accelerato la trasformazione digitale

31% 1,8% 49,5% 11,3% 1,2% 5,4% FONTE: TIG, 2021

26 |

MARZO 2021

Stiamo proseguendo i progetti, come da programma L’emergenza ha rallentato la trasformazione digitale Stiamo ancora valutando le iniziative da avviare Il processo si è arrestato Abbiamo dovuto rimandare alcuni progetti

È

ormai noto che uno dei principali effetti provocati dal covid-19 sia stata la forte spinta alla trasformazione digitale delle imprese, una tendenza resa necessaria dalla situazione di contingenza (pena, in alcuni casi, la stessa sopravvivenza delle imprese) ma che ha portato il Paese a effettuare quel “salto quantico” più volte invocato negli ultimi anni. La pandemia è stata la “killer application” che lo ha reso possibile. A confermare tale fenomeno sono anche i risultati dell’indagine annuale di The Innovation Group dal titolo “Digital Business Transformation Survey”, condotta tra dicembre 2020 e gennaio 2021


e basata su un campione di 181 manager line of business e IT, appartenenti ad aziende italiane di diverse dimensioni e settori (Pubblica Amministrazione, finance, industria/retail, commercio, utilities/energia, logistica). Quasi metà del campione, il 49,4%, ha dichiarato che

l’emergenza ha portato ad un’accelerazione della digitalizzazione del business, mentre per il 31% la propria azienda sta proseguendo i progetti di trasformazione digitale come da programma. Per l’11,3% dei rispondenti, inoltre, l’azienda sta ancora valutando quali iniziative di trasformazione digitale avviare, mentre nel 5,4% dei casi si è stati costretti a rimandare alcuni progetti innovativi. Soltanto in situazioni marginali (3% dei casi) l’emergenza ha portato a un rallentamento o arresto del percorso di digitalizzazione, e si tratta perlopiù di piccole realtà operanti in ambito industriale. Va precisato, tuttavia, che se da un lato l’emergenza sanitaria non ha impattato negativamente sul percorso innovativo delle imprese, dall’altro la maggior parte dei rispon-

Quali obiettivi di trasformazione digitale ha la sua azienda? Maggiore efficienza/riduzione dei costi operativi Crescita del business Innovazione Sicurezza e compliance Migliore customer experience Ottimizzazione dell’esperienza digitale dei dipendenti Risposta e minacce competitive/differenziazione dai competitor Risposta alle sfide causate dalla pandemia di covid-19 Reskilling delle competenze Partecipazione aecosistemi digitali Resilienza agli shock esterni Altro

FONTE: TIG, 2021

0

10

20

30

40

50

60

27


ITALIA DIGITALE

denti continua a vedere nel change management (50%), negli investimenti (47,2%) e nella mancanza di competenze adeguate (45,3%) i principali fattori che ostacolano il pieno sviluppo della digitalizzazione in azienda. Si tratta di problematiche che venivano evidenziate già negli anni precedenti e che non sono state eliminate nemmeno dai cambiamenti avvenuti l’anno scorso, molto rapidi e nati più dalla reazione all’emergenza che non da un percorso strutturato. La customer experience guadagna importanza

Soffermando l’analisi sugli obiettivi che si intende raggiungere tramite lo sviluppo dei progetti di trasformazione digitale, il 57% del campione esprime la volontà di aumentare l’efficienza interna o ridurre i costi operativi, mentre il

PICCOLI COMUNI IN TRASFORMAZIONE Il Fondo per l’innovazione tecnologica e la digitalizzazione fa gola ai Comuni italiani, specie a quelli di piccole dimensioni. Ben 7.246 amministrazioni comunali, cioè il 92% delle 7.904 elegibili, hanno richiesto di accedere al fondo voluto durante il governo Conte dal ministero per l’Innovazione tecnologica e la digitalizzazione guidato da Paola Pisano. Le risorse messe a disposizione degli enti ammontano a 43 milioni di euro e potranno consentire alla Pubblica Amminsitrazione locale di diventare più snella, digitalizzata ed efficiente nei servizi al cittadino. Come, concretamente?

Per esempio, adottando l’identità digitale Spid e la Carta d’identità elettronica (per consentire ai cittadini l’accesso ai servizi), integrando la piattaforma PagoPa (per i pagamenti elettronici) e avviando la migrazione dei servizi nell’applicazione Io (per l’accesso da smartphone). Le quote, assegnate ai Comuni in base alla popolazione residente, verranno erogare in due tranche: la prima, pari al 20%, per le attività concluse entro il 28 febbraio 2021; la seconda, per il restante 80%, entro il 31 dicembre 2021 se i Comuni dimostreranno di aver portato avanti il lavoro.

47,9% aspira alla crescita del business, il 42,9% allo sviluppo innovativo. Importante, inoltre, evidenziare come per il 21,4% del campione assuma rilievo l’intento di migliorare il rapporto con i clienti, aspetto che è sempre stato prioritario all’interno delle strategie aziendali e verso cui l’interesse è aumentato ulteriormente in seguito alle restrizioni causate dall’emergenza pandemica. Una circostanza che ha reso per molti inevitabile digitalizzare i canali di offerta e individuare le migliori strategie per continuare a rimanere in contatto con i clienti (le cui preferenze, abitudini e scelte d’acquisto sono andate modificandosi in parallelo). In questo contesto qual è, dunque, lo stato attuale delle imprese italiane? Quasi il 61% del campione ritiene la propria azienda sia competente o in stadio avanzato nell’ambito della Customer Experience (Cx), il 31% circa la considera “principiante” e solo l’8% la giudica “inesperta”. Per la metà del campione il princi28 |

MARZO 2021


pale obiettivo da raggiungere grazie ad attività e iniziative di Cx è aumentare il livello di fidelizzazione e soddisfazione della clientela, mentre il 18% aspira a creare un customer journey di eccellenza. Infine, il 17% dei rispondenti intende aumentare le vendite mentre soltanto nel 14% dei casi si aspira ad acquisire nuovi clienti. Questo mostra come l’attenzione al cliente venga considerata più come un elemento distintivo in un mercato sempre più concorrenziale, che può essere turbato da improvvisi shock esterni, piuttosto che come fattore di crescita ed espansione. Anche il cliente è più digitale

Qual è il livello di maturità della sua azienda in tema di customer experience? 100

80 Avanzato

60

Competente Principiante

40

Inesperto

20

FONTE: TIG, 2021

0

Emerge, dunque, che la forte spinta alla digitalizzazione rilevata nelle imprese ha caratterizzato anche il cliente/consumatore: negli ultimi mesi, infatti, nuovi segmenti di utenza hanno sperimentato (e apprezzato) modalità inedite di vivere l’esperienza di acquisto, al punto che sempre più si parla di creare, indipendentemente dalla tipologia di business, offerte basate su una forte integrazione tra il canale fisico e digitale. Tali fenomeni, infatti, stanno impattando diversi settori verticali: dall’industria e dal retail (è opinione diffusa che il massiccio ricorso all’e-commerce vissuto in questi mesi rappresenterà un punto di non ritorno) alla Pubblica Amministrazione (l’ultimo periodo ha mostrato l’importanza di rendere disponibili i servizi pubblici in chiave digitale, oltre che di modernizzare l’intero comparto pubblico), passando il settore bancario, in cui è stata del tutto ridisegnata l’interazione con i clienti (grazie ad attività di profilazione tramite Big Data, analytics, Crm). In un contesto simile, dunque, l’imperativo sarà individuare le migliori strategie per rispondere ai nuovi bisogni e aspettative che caratterizzeranno la “nuova normalità”. Carmen Camarca 29


MOBILITY

LABORATORI DI IDEE PER LA RIPARTENZA Per favorire la ripresa del trasporto pubblico e dei servizi di sharing mobility, penalizzati dai lockdown, bisognerà trasformare i percorsi e gli spazi cittadini.

L

a trasformazione della mobilità urbana non può più aspettare. Con la pandemia di covid-19, i modelli di spostamento sono diventati molto più individuali: auto privata, o, per tratti brevi, motocicletta, bicicletta o monopattino personale, scelti al posto dei mezzi pubblici. Una situazione che potrebbe presto ricreare situazioni di congestione del traffico. Nei contesti cittadini, dunque, quest’anno la priorità sarà ripensare il trasporto pubblico e integrarlo con una mobilità urbana smart e sostenibile: solo così gli utenti potranno passare da un mezzo all’altro in modo semplice, integrato o multimodale, economico e compatibile con gli obiettivi ambientali. Come riporta il “Digital Auto Report 2020” di 30 |

MARZO 2021

PwC, la preferenza delle persone per i mezzi privati durante e dopo i lockdown ha penalizzato la sharing mobility. L’indagine, condotta su tremila consumatori in Germania, Stati Uniti e Cina, ha dimostrato che le restrizioni hanno avuto come effetto, per un numero considerevole di persone, un incremento dell’utilizzo di bicicletta e auto privata, ma anche di percorsi fatti a piedi, con un crollo degli spostamenti su mezzi condivisi (dal trasporto pubblico, alla shared mobility, al ride hailing). Trasporto pubblico, una ripresa possibile

Il trasporto pubblico è stato duramente colpito dal covid-19: come emerso dai monitoraggi fatti da Moovit nelle

principali città del mondo, l’utilizzo dei mezzi collettivo prima è crollato, poi si è ripreso in parte, e quindi è diminuito di nuovo con la seconda ondata del virus. Ci vorrà molto tempo prima di ritornare ai livelli di occupazione precedenti e nel frattempo gli attori del settore hanno riportato enormi danni economici. Già lo scorso anno l’Associazione Internazionale dei Trasporti Pubblici (Uitp) aveva predetto perdite per 40 miliardi di euro per il trasporto pubblico europeo nel 2020. Che cosa servirà per favorire la ripresa? Per recuperare efficienza, senza dimenticare di essere inclusivo e sostenibile, il trasporto pubblico dovrà concentrarsi sui collegamenti principali, nei quali raccogliere il maggiore traffico di persone. Al contempo, per quanto


riguarda i percorsi periferici, dovrà sia optare per di servizi di trasporto elastici alla domanda (dunque flessibili e basati su reali bisogni di utilizzo) sia coopeare con le terze parti (fra cui i servizi di sharing mobility e di taxi) per colmare le esigenze di mobilità dell’ultimo miglio. Città sostenibili e modelli di prossimità

Uno dei trend più importanti per il 2021 sarà invece l’ampia adozione, da parte delle amministrazioni comunali, di progetti di mobilità sostenibile come quello della “città in quindici minuti”: un’invenzione di Carlos Moreno, scienziato franco-colombiano dell’Università Sorbona di Parigi, che su questi temi interverrà nel corso dello “Smart Mo-

bility, Transport & Logistics Summit” organizzato da The Innovation Group per il prossimo 21 aprile. Parigi è stata la prima metropoli europea ad aver adottato una pianificazione sostenibile dello spazio urbano basata sul concetto di prossimità, in modo da ridurre gli spostamenti in automobile in ambito cittadino, favorendo quelli in bicicletta o a piedi. Durante i mesi della pandemia quasi ogni grande città ha ridisegnato le sue piste ciclabili, ha allargato gli spazi per i pedoni e quelli per sostare all’aperto. Se inizialmente questo era partito per disincentivare l’uso di automobili private, con il covid-19 si è cominciato a pensare a ritmi di vita cittadina diversi, e alcune delle esperienze fatte nell’ultimo periodo potrebbero diventare definiti-

ve. Si parla oggi di “urbanismo tattico” quando si citano le modifiche apportate soprattutto agli ambienti stradali delle città, volte a favorire una mobilità pedonale, a ridurre l’inquinamento cittadino, a destinare il suolo pubblico per altri scopi (ad esempio mettendolo a disposizione dei ristoratori che devono disporre di spazi all’aperto). Obiettivo di questo approccio è quello di influire sul ritmo di vita nelle città, restituire spazi vivibili ai singoli quartieri, ricollegare le persone con il loro territorio ed eliminare il più possibile gli spostamenti inutili con mezzi inquinanti ed energivori. I laboratori della smart mobility stanno funzionando a pieno ritmo nelle grandi città del mondo. Elena Vaciago

Terminate le restrizioni, come useresti le seguenti modalità di trasporto rispetto ai tempi pre-covid?” GERMANIA

STATI UNITI

CINA

Bici di proprietà A piedi Auto di proprietà Mezzi pubblici Micromobilità condivisa Car sharing Taxi/Uber Di più

0

20 40 60 80 100

0

20 40 60 80 100

0

20 40 60 80 100

Ugualmente Di meno

FONTE: “Digital Auto Report 2020”, Pwc. Base: 1.259 intervistati. Dati in percentuale.

31


MOBILITY

Dopo anni di ascesa, nel 2020 i servizi di noleggio breve condiviso hanno subìto un crollo, in parallelo ai picchi dei contagi del coronavirus. Come conciliare le esigenze degli spostamenti, della sicurezza e della riduzione di traffico e inquinamento?

SERVIZI DI SHARING, DAL SUCCESSO ALLA CRISI

L’

abbiamo letto ovunque, ne abbiamo parlato con colleghi e amici, lo abbiamo sperimentato personalmente: lo smart working nel 2020 è entrato nelle nostre vite prepotentemente (che fosse la prima volta o no), garantendo continuità operativa alle aziende nonostante le restrizioni dei lockdown. Va da sé che il lavoro da casa riduca gli spostamenti giornalieri in città e il pendolarismo, ma non può essere applicato a tutte le professioni o in tutti i giorni della settimana. Nelle metropoli il revival del trasporto individuale e il conseguente 32 |

MARZO 2021

aumento del traffico certo non stanno contribuendo alla qualità dell’aria, né alla qualità della vita. Uno studio realizzato da ShareNow e dal Mobility Institute di Berlino ha calcolato che nel mese di aprile 2020 i noleggi di car sharing nella capitale tedesca erano scesi di circa il 56% rispetto ai livelli pre-crisi, mentre ad Amburgo il calo era del 62%. Nello stesso periodo, in entrambe le città il trasporto pubblico registrava cali superiori all’80% dei passeggeri. La stessa dinamica si ritrova in Italia: secondo i dati dell’Osservatorio Nazionale Sharing Mobility, tra il 2018 e

il 2019 le iscrizioni ai servizi di mobilità condivisa erano aumentate di quasi il 30%, passando nel giro di un anno da meno di 1,9 milioni di utenti registrati a oltre 2,4 milioni. Città come Genova, Milano, Roma e Torino vantavano un’offerta variegata, avendo ciascuna cinque operatori attivi. Poi il terremoto del coronavirus, tanto devastante da costringere l’Osservatorio ad aggiornare il suo report annuale per ben due volte (a giugno e a ottobre) sottoponendo nuovi questionari da compilare sia agli operatori di servizi di mobilità condivisa sia alle amministrazioni comunali


di Bologna, Cagliari, Milano, Palermo, Roma e Torino. Ne è emerso un andamento simile in tutte queste città: noleggi quotidiani in picchiata tra febbraio e marzo, un ulteriore calo da qui ad aprile, una ripresa lenta e quasi costante (tranne che in agosto) fino all’autunno. In modo fin troppo evidente, il numero dei noleggi ha rispecchiato l’andamento dei contagi, con un legame inverso. L’aumento del traffico auto nelle città è stato soprattutto conseguenza della fuga da treni, tram e metropolitane, ma anche il forte calo dei noleggi di car sharing rientra nel quadro di un futuro poco vivibile, e basti pensare al problema dei parcheggi e dei box auto. Incentivare nuovamente i servizi di sharing è necessario per far ripartire quel percorso di sostenibilità e di miglioramento della qualità della vita che diverse metropoli avevano intrapreso negli anni scorsi. Ma come gestire il proble-

ma della sicurezza? Una possibile via è quella indicata da Kinto Share, servizio di noleggio breve di auto ibride (Toyota e Lexus) attuamente presente a Venezia, Milano, Bologna e Cesena e in rampa di lancio in altre città: tutti i veicoli della flotta vengono sanificati seguendo le linee guida del Ministero della Sanità, e all’interno delle auto un cartellino riporta la certificazione dell’avvenuta procedura. Kinto Share ha anche deciso di regalare per ogni prenotazione venti minuti di noleggio gratuito, per consentire ai clienti di igienizzare i comandi di guida e l’interno dell’abitacolo. Viene spontanea una considerazione: un margine di responsabilità individuale esiste, forse inevitabilmente, non solo nell’ambito dei trasporti ma in tutte le dinamiche e le relazioni in cui il coronavirus può diffondersi. La tecnologia può fare molto, il resto spetta a noi. Valentina Bernocco

LA SFIDA DELLA “CITTÀ IN QUINDICI MINUTI” Se di “nuova normalità” vogliamo parlare, serviranno non soltanto differenti abitudini e sistemi di trasporto (rivalutando i mezzi pubblici, i servizi di car sharing e i mezzi individuali non inquinanti) ma anche inediti modelli urbanistici. Un esempio di ripensamento logistico e concettuale delle metropoli è il concetto di “città in quindici minuti” sviluppato da Carlos Moreno e promosso da Ana María Hidalgo Aleu, sindaco di Parigi: una composizione di quartieri autosufficienti e ben connessi l’uno all’altro dalla rete dei trasporti. Deve bastare un quarto d’ora per raggiungere, ovunque ci si trovi, il proprio luogo di lavoro, la scuola, il supermercato o il parco pubblico di zona. “Possiamo considerare la città

in quindici minuti come una soluzione intelligente per consentirci di avere a portata di mano, anche in tempi di pandemia, tutto ciò di cui abbiamo bisogno”, spiega Leopoldo Freyrie, architetto e urbanista. “In realtà è qualcosa di più profondo e duraturo: è l’idea che si vada verso un concetto di ‘pluri-città’, in cui cui convivono i servizi, il lavoro, i negozi, lo svago, ma anche la natura, in un raggio ragionevolmente corto. Tutti questi borghi che formano la città possono essere vissuti in modo tradizionale però sono anche connessi tra di loro e connessi al resto del mondo con servizi e possibilità di lavoro”. Bello, ma quanto realizzabile? “Per gli architetti questa è una grande sfida, che deve coinvolgere la responsabilità ambientale ma an-

che la responsabilità sociale”, riflette Freyrie. “Si tratta di un ripensamento completo, che ci richiede davvero di essere eretici, visionari, di dimenticarci dei modelli del Novecento. Milano sta tentando di applicare questo modello alle periferie, con nuovi progetti di micro-città”. Altre metropoli, per conformazione, demografia e risorse disponibili, sono forse svantaggiate rispetto al capoluogo lombardo. Quel che è certo è che in una città “a portata di mano”, più vivibile ed ecologica, la tecnologia dovrà essere protagonista, offrendo le infrastrutture necessarie allo smart working e sviluppando nuove soluzioni che rendano sicuri l’uso dei mezzi pubblici e il car sharing anche ai tempi del covid-19.

33


INFRASTRUTTURE

Per sostenere il boom dei dati e dei servizi cloud, i colossi tecnologici come Amazon e Microsoft hanno intrapreso il cammino della sostenibilità. Ma restano alcune contraddizioni da risolvere.

DATA CENTER “VERDI”: SOGNO O REALTÀ?

S

enza i data center, la stragrande maggioranza delle tecnologie che usiamo ogni giorno non potrebbero semplicemente esistere. Grandi o piccoli, interni alle aziende o nel cloud, questi luoghi conservano, elaborano, inviano e ricevono dati senza posa, garantendo il funzionamento di Internet, delle applicazioni aziendali, di innumerevoli servizi digitali, di reti di videosorveglianza, di trasporto e chi più ne ha più ne metta. Ma c’è una domanda scomoda che non possiamo più ignorare: tutto questo è sostenibile, per un Pianeta che deve riprendere il controllo sul cambiamento climatico per la sua stessa sopravvivenza? Vent’anni fa 34 |

MARZO 2021

solo 500 milioni di persone, sul totale delle popolazione mondiale, utilizzavano Internet. A fine 2020, secondo le stime di DataReportal, l’utenza digitale aveva superato quota 4,6 miliardi (4,66 miliardi di utenti attivi nel mese di ottobre, per la precisione). La dimensione che Idc chiama “datasfera”, composta dalla somma dei dati creati, scambiati, archiviati e replicati nel mondo, nel 2020 ha raggiunto la soglia di 59 zettabyte. E nel triennio 2021-2023, a detta di Idc, verrà creata una quantità di dati superiore a quella prodotta negli ultimi trent’anni. Questi numeri rendono l’idea della crescita numerica e dimensionale dei data center nel mondo. Certo, le

infrastrutture negli anni sono diventate sempre più ottimizzate nei loro consumi energetici: gli studi annuali dell’Uptime Institute mostrano che il valore medio di Pue (Power Usage Effectiveness, il tipico indicatore dell’efficienza energetica dei data center) nel 2007 era 2,5, nel 2018 era sceso a 1,6. L’analisi dei dati e l’intelligenza artificiale hanno permesso di ottimizzare l’uso dell’elettricità necessaria ad alimentare i server e a raffreddare gli ambienti, ma il merito va anche alle fonti rinnovabili. I grandi colossi tecnologici statunitensi, come Amazon Web Services (Aws), Apple, Facebook, Google e Microsoft, in patria e nel resto del mondo da anni impiegano un mix di


impianti fotovoltaici, eolici e idroelettrici, a seconda delle condizioni climatiche e territoriali più favorevoli. I grandi impegni delle big tech

La sostenibilità è anche diventata un imperativo nelle strategie di medio-lungo periodo delle big tech. Già nel 2017 Google aveva raggiunto l’obiettivo del pareggio tra i propri consumi di elettricità annui e la quantità di energia rinnovabile acquistata. Microsoft , invece, ha recentemente annunciato il proprio impegno a diventare “carbon negative” entro il 2030: dovrà, cioè, non solo ridurre le proprie emissioni inquinanti ma anche contribuire a eliminare gas inquinanti dall’atmosfera attraverso attività di rimboschimento, stoccaggio del carbonio, assistenza a fornitori e clienti (affinché possano a loro volta ridurre il proprio impatto ambientale) e investimenti in nuove tecnologie per la cattura e la rimozione della CO2. L’azienda ha già pianificato il finanziamento di 26 progetti che permetteranno di rimuo-

vere 1,3 milioni di tonnellate di anidride carbonica dall'atmosfera entro l’estate, e ha stanziato un miliardo di dollari per il proprio Climate Innovation Fund (fondo per lo sviluppo di tecnologie volte a combattere il cambiamento climatico). Intanto anche l’Europa guarda avanti: lo scorso gennaio è stato annunciato il “Patto per la neutralità climatica dei data center”, un accordo di autoregolamentazione inserito nella cornice del Green Deal. Vi hanno aderito, impegnandosi ad azzerare il loro impatto ambientale entro il 2030, ben 25 fornitori di servizi IT e cloud, fra cui Amazon Web Services (Aws), Google, Aruba, Ovhcloud e una lista di altri provider, oltre alle associazioni Cispe (Cloud Infrastructure Services Providers in Europe) ed Educa (European Data Centre Association). I progressi saranno monitorati dalla Commissione Europea due volte l'anno: le aziende dovranno dimostrare di aver raggiunto obiettivi misurabili di efficienza energetica, di acquistare energia al 100% priva di carbonio, di dare priorità alla conservazione dell'acqua, di riutilizzare e riparare server e di sviluppare sistemi di riciclo del calore. "I data center sono i pilastri portanti della quarta rivoluzione industriale”, ha sottolineato Apostolos Kakkos, presidente di Educa, “e come si è visto durante la pandemia di covid-19 sono infrastrutture essenziali non solo per l'economia digitale, ma per l'intera economia globale. È nostro dovere impegnarci in un'iniziativa di autoregolamentazione che contribuirà a garantire la disponibilità operativa, la sostenibilità e il futuro della nostra industria". Le sfide irrisolte

Questi grandi impegni giustificano un certo ottimismo ma non azzerano il dubbio che la crescita dei dati, delle connessioni e delle applicazioni possa diventare, a un certo punto, non più sostenibile. I progressi dello storage, la miniaturizzazione dell’hardware, le tecnologie di dedupli-

ca saranno utili ingredienti nelle strategie di riduzione del footprint dei data center. Ma basterà tutto questo? A gennaio del 2020 un report di Greenpeace analizzava l’operato dei colossi tecnologici cinesi, assegnando punteggi non eccelsi nelle sue “pagelle di sostenibilità”: la sufficienza ad Alibaba (60), insufficienze a Tencent (52), Gds (48) e Baidu (52). La ragione dei bassi punteggi è la frequente mancanza di trasparenza di queste aziende in merito ai propri consumi energetici. “Di fronte a una crisi climatica globale”, scriveva l’attivista di Greenpeace Ye Ruiqi a inizio 2020, “c’è una necessità urgente di ripulire Internet. Il consumo di energia dell’industria di Internet cinese sta schizzando alle stelle ed è fondamentale che i colossi tecnologici cinesi facciano da guida nel mercato per liberarsi dalla dipendenza dal carbon fossile”. A proposito di carbon fossile, Greenpeace fa notare una scomoda contraddizione nelle attività dei grandi cloud provider: pur impegnati a ridurre le proprie emissioni di CO2, Amazon, Google e Microsoft sono anche i fornitori tecnologici di aziende del comparto energia, come Shell, Bp, Chevron ed ExxonMobil. Grazie ad applicazioni di analisi dei dati molto evolute, queste compagnie stanno incrementando l’attività di estrazione di gas e petrolio: risorse cloud e software di intelligenza artificiale permettono di realizzare ottimizzazioni dei costi e analisi dei rischi. E depositi considerati fino a ieri troppo rischiosi o costosi da utilizzare oggi vengono perforati. Secondo le stime di Accenture, gli advanced analytics e il cloud potrebbero generare per il settore dell’oil&gas un valore di 425 miliardi di dollari nel quinquennio 20202025.“I contratti tra le società tecnologie e le compagnie del settore oil & gas”, scrive Greenpeace, “riguardano ora ogni fase della catena produttiva e indeboliscono in modo significativo gli impegni sul clima presi da Microsoft, Google e Amazon”. Valentina Bernocco 35


INFRASTRUTTURE

CIO SOTTO PRESSIONE Studi di Gartner e Vanson Bourne svelano che i responsabili IT nel mondo sono ancora alle prese con vecchi problemi. Ma anche con nuove richieste, conseguenza della crisi pandemica.

L

a crisi del covid-19 e gli imperativi della resilienza e della competizione hanno accelerato la trasformazione digitale delle imprese, un po’ in tutto il mondo. Ma hanno anche generato nuova pressione sull’IT. E il percorso da fare, per i chief information officer, nel 2021 sembra definito proprio dalle necessità della resilienza e della risposta alle sfide competitive in un ambiente incerto. Nel corso di un 2020 atipico come mai in passato, il ruolo dei Cio è stato determinante per garantire la continuità operativa, il supporto al lavoro remoto e l’implementazione di soluzioni digitali per il business. Nel report “L’agenda dei Cio per il 2021”, Gartner indica che “durante il lockdown, molti Cio hanno aiutato a salvare le aziende e questo ha fatto guadagnare loro una maggior attenzione da parte dei top manager. Il percorso delle imprese verso il futuro passa per l’IT e i consigli d’amministrazione ne sono pienamente consapevoli”. Abituati da anni a lottare per convincere i dirigenti della necessità di modernizzare e trarre pieno vantaggio dalla tecnologia, i Cio possono oggi sfruttare l’eliminazione di qualche barriera e la disponibilità dei consigli d’amministrazione a privilegiare sviluppi in direzione digitale.

Un IT carico di responsabilità

In un altro studio, intitolato “Global Cio Report” e realizzato da Vanson Bourne su un campione di 700 figure a livello mondiale, l’89% dei re-

36 |

MARZO 2021

sponsabili tecnologici conferma che la trasformazione ha accelerato negli ultimi dodici mesi, mentre il 58% prevede che la velocità aumenterà ancora. Tuttavia, questo quadro apparentemente idilliaco cela una realtà assai più prosaica in cui i servizi IT aziendali sono sottoposti a una crescente pressione. Paradossalmente, diventa più difficile per le strutture informatiche rispondere alla nuova domanda di innovazione rapida e di migliori esperienze digitali. Il 46% dei Cio afferma che il proprio gruppo è più sollecitato che mai, ma il 93% fa notare che la capacità dell’IT di assicurare vantaggio resta frenata dalla permanenza di silos negli altri dipartimenti. Nel 49% dei casi le barriere sono presenti fra IT e mondo delle vendite, nel 40% la limitata collaborazione fra sviluppo e business disturba la capacità dell’IT di rispondere tempestivamente alle mutevoli esigenze del business. Rivedere l’organizzazione e il suo funzionamento

I Cio affermano di passare molto tempo a cercare le informazioni necessarie per la risoluzione dei problemi. Il 74% ostenta la frustrazione di dover mettere insieme dati ricavati da una pletora di strumenti per valutare l’impatto dell’IT sul business. In media, i Cio trascorrono 12,5 ore alla settimana con i team commerciali per cercare di combinare dati destrutturati e identificare così possibili soluzioni. Le equipe passano il 16% del

loro tempo a identificare le cause di malfunzionamenti e a trovare i relativi rimedi. Vanson Bourne stima che questo costi circa 1,7 milioni di dollari all’anno alle organizzazioni, con impatti diretti sulla produttività. Per agire su tali inconvenienti e sollevare le strutture IT, lo studio preconizza cambiamenti nelle modalità di funzionamento delle imprese: in particolare, esse dovranno mettere a disposizione dei vari team una “lingua comune” unificante, che permetta di collaborare in modo più efficace. Il 95% dei Cio rileva che le decisioni sugli investimenti IT debbano essere fondate sui dati, al fine di garantire il massimo beneficio sia alle imprese sia agli utenti finali. Lo studio di Vanson Bourne arriva alla conclusione che l'impiego di strumenti di raccolta e analisi delle informazioni possa servire alle imprese per diminuire la pressione sull’IT e per consentire di innovare più velocemente, oltre ad assicurare una migliore collaborazione. R.B.


EDGE COMPUTING, UNA STELLA NASCENTE?

S

ta ai margini, ma è tutt’altro che marginale. Si prevede un futuro florido per l’edge computing, cioè il calcolo “periferico”, dislocato nelle propaggini delle reti all’interno degli oggetti connessi. Oggetti di ogni genere: che trovano casa nelle reti di telecomunicazione e nell’edilizia, nell’industria e nella logistica, nel retail e nella Gdo, o semplicemente sui nostri polsi come smartwatch o sulle strade come automobili dotate di interfacce di connettività. In tutti i casi, questi oggetti non solo raccolgono dati e li trasmettono altrove, ma eseguono attività di calcolo in loco per ridurre la latenza delle applicazioni. Nel 2020 – inutile, quasi, sottolinearlo – le applicazioni più in ascesa nelle aziende sono state quelle legate a connettività remota, comunicazioni, collaborazione e tutto ciò che abilita lo smart working. Mentre il cloud era sotto i riflettori, di calcolo edge si è parlato ben poco nell’anno della pandemia. E invece da questa costellazione di tecnologie emergeranno applicazioni importanti nella società futura, in parte basate su una più capillare disponibilità delle reti 5G. Un universo in espansione

“Ci aspettiamo che l’edge computing giochi un ruolo cruciale nella più ampia adozione e nel funzionamento di tecnologie come la realtà aumentata e virtuale, i veicoli a guida autonoma, l’IoT, i Content Delivery Network di prossima generazione, il cloud di prossima generazione e i giochi in streaming”, scriveva a fine 2020 la società

non coincidono con quelli di Reporterlink, ma la tendenza pronosticata è sostanzialmente la stessa, quella di un universo tecnologico che ancora non ha sviluppato il suo potenziale e che si espanderà prepotentemente. A detta di Reply, nel prossimo quinquennio la Germania sarà il principale mercato europeo di destinazione sia per il cloud sia per l'edge computing, con una crescita di investimenti del 28% tra l’anno 2020 e il 2025. I problemi irrisolti

di ricerca Reportlinker. Se il mercato mondiale dell’edge computing (considerando l’hardware, le applicazioni, i dati e i servizi) valeva 1,7 miliardi di dollari, ci si aspetta che questo valore debba crescere fino ai quasi 8,3 miliardi di dollari stimati per il 2025. “Sebbene attualmente non sia così diffuso”, prosegue Reporterlink, “ci aspettiamo che l’edge computing venga adottato nel periodo della nostra previsione da alcune grandi aziende, specialmente in settori come le telco e il manifatturiero e in relazione all’Internet of Things”. Altro settore trainante sarà quello di banche e servizi finanziari, nel quale la richiesta di applicazioni edge sarà alimentata dalla crescente diffusione dei pagamenti da mobile e blockchain. Vale la pena notare come non esista una definizione univoca del mercato dell’edge computing, cioè dei suoi confini: includendovi anche le piattaforme e le infrastrutture di data center dedicate alle applicazioni edge, MarketsandMarkets stima per il 2025 un giro d’affari mondiale di 15,7 miliardi di dollari. I numeri dunque

Una spina nel fianco è ancora rappresentata dai rischi informatici correlati all’Internet of Things, e dunque anche alle applicazioni edge. L’architettura che sta alla base è strutturalmente più esposta ai cyberattacchi rispetto a quella di una rete fatta di Pc o server. Non si contano, negli ultimi anni, i casi di cronaca che raccontano di vulnerabilità o avvenuti attacchi con protagonisti router domestici, webcam, videocamere di sorveglianza, e nemmeno i videocitofoni e i baby monitor possono considerarsi sicuri. “Questi dispositivi”, scrivono gli analisti di MarketsandMarkets, “sono carenti in termini di protocolli hardware robusti, e dunque utenti che sanno poco o niente di sicurezza informatica potrebbero perdere dati critici e aprire la porta a malware che potrebbero eludere l’intera rete edge”. Come si esce da questi rischi? Oltre a eliminare le vulnerabilità software, i produttori di oggetti IoT con capacità di calcolo incorporata dovranno, in futuro, introdurre protocolli e sistemi di autenticazione integrati nei dispositivi. V.B.

37


INTELLIGENZA ARTIFICIALE

ALGORITMI, TRA OPPORTUNITÀ E INSIDIE Un report di McKinsey evidenzia i legami tra gli investimenti in A.I. e la crescita del fatturato delle aziende. Ma i rischi legati al bias e alla explainability restano pendenti.

38 |

MARZO 2021

È

un costo, ma un costo che si ripaga. Investire intelligenza artificiale favorisce l’incremento degli affari, e questa tecnologia sembra oggi racchiudere un valore ancora maggiore alla luce dello stravolgimento economico, sociale e organizzativo generato dalla pandemia di covid-19. Perché servono nuove e migliori capacità di analisi dei dati, specie per comprendere le necessità emergenti

dei consumatori in innumerevoli ambiti. Uno studio quantitativo e qualitativo di McKinsey (condotto tramite survey online su 2.395 professionisti impiegati in vari settori e con interviste di profondità) evidenzia che poco meno della metà delle aziende (1.151) nel 2020 aveva già adottato tecnologie di AI in uno o più ambiti. Di gran lunga, le funzioni aziendali più contaminate dall’uso dell’intelligenza artificiale sono le service


operations (in cui rientrano anche l’IT, le attività di gestione dell’infrastruttura e delle applicazioni), lo sviluppo di prodotto/servizio, il marketing e le vendite. Qui il covid non ha causato particolari sconvolgimenti, dato che queste medesime erano le funzioni aziendali segnalate da un analogo studio di McKinsey del 2019. Fra i settori in pole position nell’adozione dell’AI, davanti a tutti c’è quello dell’informatica e delle telecomunicazioni, seguito dall’automotive e dall’industria dell’assemblaggio.

ampia fra i leader dell’intelligenza artificiale e la maggioranza delle imprese, che ancora faticano a capitalizzare questa tecnologia”. Insomma, sono proprio queste poche aziende altamente performanti, secondo McKinsey, ad aver aumentato gli investimenti in AI alla luce della crisi mondiale anziché diminuirli. Guardando ai settori di mercato, non stupisce che nel 2020 siano tendenzialmente cresciuti gli investimenti dell’ambito sanitario e farmaceutico, così come quelli dell’industria automobilistica e dell’assemblaggio.

Più intelligenza, più fatturato

Un rischio da non sottovalutare

Sembra esistere una correlazione fra l’uso più o meno esteso dell’AI e la capacità di generare fatturato extra. Ma sulla valutazione quantitativa non c’è consenso. Il 48% degli intervistati pensa che l’intelligenza artificiale nella propria azienda sia responsabile di meno del 5% dei guadagni al lordo di interessi e tasse (Ebit), mentre il 22% ritiene che la percentuale superi il 5% dell’Ebit. C’è poi solo un “piccolo gruppo” di intervistati, e McKinsey non specifica quanti siano, che stima un contributo dell’AI superiore al 20% del totale dell’Ebit. “Queste aziende”, si legge nel report, “pianificano di aumentare ancora gli investimenti in AI come risposta alla pandemia di covid-19 e all’accelerazione digitale. Questo potrebbe creare una spaccatura ancor più

Una delle insidie dell’intelligenza artificiale, in tutti i campi di utilizzo, è il problema della explainability: manca un modello di “decodifica” dell’AI, che renda comprensibili ai gestori di un’applicazione i suoi meccanismi di funzionamento. Senza questa capacità, la tecnologia è una scatola nera. E in alcune aree, come quella medica, la posta in gioco è molto alta. Se un software di AI, analizzando masse di dati di varia natura e la storia clinica di un paziente, produce una raccomandazione personalizzata, si può accettare che un medico non capisca il perché di quella scelta? Di chi sarebbero le responsabilità in caso di errore? “È incoraggiante”, osserva Roger Burkhardt, partner di McKinsey, “vedere una crescente consapevolezza dei rischi che de-

rivano da una mancanza di explainability”. Cornici regolatorie come il Gdpr, il regolamento europeo sulla protezione dei dati personali, potranno in parte mitigare questi pericoli almeno relativamente al tema della privacy. Ma bisognerà affrontare problemi ancor più spinosi, come quello del bias, il pregiudizio insito negli algoritmi, che è in parte derivato dal tipo di dati usati per allenare il modello. Per quanto effetto involontario, le sue conseguenze sono eticamente disastrose: basti pensare a un software di AI per la selezione del personale, che favorisca i candidati di una certa etnia o genere. L'esempio non è casuale perché era accaduto anni fa ad Amazon (che fece mea culpa e corresse il problema) che un suo algoritmo, usato per le analisi dei curricula, tendesse penalizzare le donne in quanto addestrato prevalentemente su dati di profili maschili. “L’equità e l’imparzialità possono essere difficili da ottenere”, scrive Burkhardt, “ma dovrebbero essere in cima ai pensieri di ogni azienda di qualsiasi settore. Sorprende particolarmente il fatto di vedere uno scarso progresso nel riconoscimento e nella mitigazione di tale rischio, considerata l’attenzione rivolta sui social media al pregiudizio razziale e ad altri trattamenti discriminatori, come gli annunci di lavoro ristretti a una fascia d'età”. Valentina Bernocco

CAMBIAMENTO CLIMATICO, IL RUOLO AMBIGUO DELL’A.I. La lotta al cambiamento climatico ha un prezioso alleato. Grazie alle capacità di analisi dei dati e di insight, le tecnologie di intelligenza artificiale possono contribuire all'obiettivo del taglio del 50% delle emissioni di carbonio mondiali entro il 2030, previsto dall'Accordo di Parigi sul clima. In che misura?

Secondo le stime di Boston Consulting Group, derivate dall’esperienza della società con suoi i clienti e riassunte nello studio “Reduce carbon and costs with the power of AI”, per una quota compresa fra il 5% e il 10%. In altri termini, grazie all’AI è possibile evitare l’emissione di un minimo di 2,6 o di un massimo

di 5,3 gigaton di CO2 equivalente. Allo stesso tempo, però, l’intelligenza artificiale sta anche aiutando le grandi compagnie dell’oil&gas a sfruttare nuovi giacimenti (ne parliamo a pag. 35), e questo certo non favorisce la transizione verso modelli di consumo energetico più sostenibili.

39


INTELLIGENZA ARTIFICIALE

UNA RISORSA NON UMANA, MA ETICA Le tecnologie di A.I. si fanno largo nel campo delle Human Resources, ma senza sconfinare nei territori in cui le interazioni faccia a faccia e l'esperienza dei selezionatori del personale sono valori aggiunti. Il punto di vista di Cornerstone OnDemand.

S

iamo disposti a farci giudicare da un software? Forse no, specie quando sono in gioco i nostri studi, le nostre competenze, la nostra professionalità. Ma nell’ambito delle risorse umane l’intelligenza artificiale può essere un validissimo strumento, soprattutto nelle prime fasi del processo di ricerca e selezione del personale. La tecnologia può setacciare dati con più rapidità, precisione ed efficienza di quanto mai potrebbe fare un essere umano. Tuttavia l’interazione faccia a faccia rimane un valore da salvaguardare. Come a dire: lasciamo i curricula al software e i candidati alle persone. Ne abbiamo discusso con José Alberto Rodriguez Ruiz, chief data 40 |

MARZO 2021

protection officer di Cornerstone OnDemand, società specializzata in soluzioni tecnologiche per le HR.

gerimenti su misura forniti dall’AI per ciascun dipendente. Quali sono i vantaggi?

Come viene usata, principalmente, l’intelligenza artificiale nelle HR?

Le tecnologie basate sull’AI applicate all’ambito delle Risorse Umane sempre più seguono l’intero ciclo di vita dei dipendenti e vengono utilizzate sia per l’iniziale processo di selezione sia per la successiva gestione dei percorsi di carriera all’interno dell’azienda. Alcune applicazioni tipiche riguardano, ad esempio, la selezione dei candidati, l’individuazione e la gestione delle competenze e la definizione di percorsi formativi personalizzati grazie ai sug-

Principalmente due. Il primo è ovviamente la maggiore efficienza: alcune aziende, ad esempio, ricevono troppi curricula e non riescono a esaminare manualmente tutte le candidature. L’AI le aiuterà non solo ad analizzare un maggior numero di Cv in minor tempo, ma anche ad assicurarsi che tutti i candidati vengano presi in considerazione. Grazie a questi nuovi strumenti, si azzera il rischio che alcune candidature possano sfuggire al selezionatore e tutte vengono prese in esame. E questo è un beneficio sia per le aziende sia per chi è alla ricerca


di un nuovo lavoro, che vedrà aumentare significativamente le possibilità di trovare un impiego. Il secondo vantaggio è legato invece alla gestione del personale: se usata correttamente, l’AI aiuta le Risorse Umane a migliorare la gestione delle persone in azienda, garantendone l’inclusione e la parità. Inoltre, si assicura ai dipendenti l’opportunità di ricevere adeguate proposte di formazione per perfezionare le proprie competenze laddove necessario. Quant’è diffuso l’impiego delle tecnologie di AI in ambito HR?

L’uso su vasta scala dell’AI è solo all’inizio, siamo solo agli albori di una grandissima trasformazione. Sono davvero entusiasta delle possibilità che questa tecnologia offre. Ovviamente, quando arrivano nuove tecnologie, capita molto spesso che i grandi gruppi e gli early adopter siano in una posizione privilegiata per testarle e usarle a loro favore. Non solo: più grande è l’azienda, maggiori sono i vantaggi offerti dall’AI in termini di efficienza. Ad ogni modo, la bellezza dell’AI sta nel fatto che, se è vero che servono grossi insiemi di dati per costruire modelli e algoritmi di intelligenza artificiale, è anche vero che questi alla fine vengono applicati su base individuale, perciò anche le piccole e medie imprese potranno beneficiarne. L’AI crea un senso di comunità: diversi attori convogliano dati nel mix, permettendo così di costruire modelli da cui tutti possono trarre vantaggio. Questo è esattamente quello che facciamo in Cornerstone. Che cosa ne favorisce o frena l’adozione?

L’efficienza e le economie di scala sono sempre un incentivo all’adozione. Dall’altro lato, la valutazione dei rischi e la scarsa familiarità con le tecnologie richiedono tempo alle aziende, che prima di implementarli devono necessa-

riamente prendere dimestichezza con questi sistemi. Ed è qui che s’inseriscono iniziative specificamente concepite per sostenere i clienti in questo tipo di sfide. Ne è un esempio il nostro Cornerstone Innovation Lab for AI, un nuovo centro di eccellenza aziendale composto da esperti di dati e machine learning specializzati nella ricerca di metodi pratici ed etici per applicare le tecnologie AI sul posto di lavoro. Le competenze di questo centro hanno già contribuito a progettare e realizzare Cornerstone Skills Graph, un motore per la ricerca delle skill unico nel settore, che permette di implementare l’AI a livello pratico per vari scopi, come ad esempio scoprire di quali competenze dispongano i collaboratori, per definire le richieste per una data posizione lavorativa e ricollocare più rapidamente le persone. Quali sono le implicazioni etiche dell’AI applicata all’HR? Quali sono i timori?

Una sola parola: discriminazione. L’AI verrà implementata su vasta scala, perciò dobbiamo assicurarci che non ripeta gli schemi discriminatori del passato. Garantendo l’assenza di discriminazione su vasta scala, l’AI contribuirà ad attenuare uno dei rischi più radicati dei processi HR. Questo è senz’altro un elemento chiave per il nostro approccio in Cornerstone, nonché uno dei motivi alla base del nostro Innovation Lab for AI. Le competenze e il valore umano saranno ancora importanti?

Una cosa non esclude l’altra: AI ed expertise umana coesisteranno, anche se probabilmente in modo diverso rispetto a come accade ora. Un esempio che mi piace citare è quello del pilota di aerei: abbiamo tutti questa concezione romantica del pilota che controlla il velivolo con le proprie mani, ma in realtà per la maggior parte del tempo gestisce il computer, ed è il computer a control-

José Alberto Rodriguez Ruiz

lare l’aereo. Nell’ambito delle Risorse Umane succederà qualcosa di simile: le competenze umane saranno cruciali per costruire e usare i sistemi di AI dedicati all’HR, mentre i professionisti HR dovranno diventare utenti esperti dei sistemi di AI. Per esempio, anziché leggere i curricula uno a uno, i selezionatori si occuperanno di individuare e configurare gli opportuni modelli di AI, controllare la qualità dei risultati, correggerli se necessario, e dopodiché passeranno a incontrare di persona i candidati prescelti per il round finale. Perché, nonostante tutti i matching in stile Tinder e sistemi analoghi, credo ancora che niente possa sostituire il rapporto umano, che resta determinante per confermare alcuni aspetti non scientifici, come ad esempio l’impressione di poter lavorare bene con qualcuno. Qual è la sfida all’orizzonte?

Penso non si tratti di una sfida meramente tecnologica, perché la tecnologia evolve molto in fretta. Credo invece che la sfida per l’adozione dell’AI nel nostro settore sia innanzitutto umana: dobbiamo formare, agevolare e supportare i professionisti delle HR affinché comprendano e usino l’intelligenza artificiale, affinché diventino utenti esperti, affinché diventino come i piloti del computer che controlla l’aereo. V.B. 41


EXECUTIVE ANALYSIS

INTERNET OF THINGS, SI VA VERSO LA MATURITÀ Le applicazioni IoT stanno già aiutando l’industria, ma anche altri settori di mercato, a migliorare l’efficienza operativa. L’integrazione dei dati è una delle sfide da affrontare.

L’

Internet delle Cose è una realtà per molte aziende, anche in Italia. Nel mondo dell’industria innanzitutto, ma anche in diversi altri ambiti produttivi, gli oggetti connessi stanno già svolgendo un ruolo concreto a supporto di obiettivi di business e di efficienza operativa. La gestione di grandi quantità di dati, la loro integrazione con altre componenti tecnologiche, l’evoluzione della cultura aziendale e il ruolo dell’intelligenza artificiale sono i temi che guideranno gli sviluppi a breve e medio termine. Per le organizzazioni impegnate nei percorsi di trasformazione digitale, l’integrazione dell’Internet of Things appare una mossa quasi ovvia: la natura stessa di un oggetto connesso, progettato per l’utilizzo in ambito aziendale, è primariamente quella di raccogliere informazioni, che poi vanno analizzate per migliorare il processo decisionale. Il comparto che si è spinto più avanti in questa direzione è senza dubbio il manifatturiero, ma la strada appare segnata e destinata a estendersi verso altri settori. Anche in Italia, dove Idc ha stimato un volume di investimenti pari a circa 98 miliardi di euro nel 2020 considerando sia la componente aziendale, sia quella consumer. La potenziale creazione di valore passa per il concetto di advanced analytics, per andare oltre la classica Business Intelligence e includere intelligenza artificiale, analisi di cluster e altre tecniche, tenendo presente che alla base di tutto ci devono 42 |

MARZO 2021

essere un’integrazione stretta dei processi aziendali e una governance del percorso compiuto dai dati, dall’edge (cioè dagli oggetti connessi) verso le altre componenti strategiche del sistema informativo. Lo scenario italiano dell’IoT

I dati generati dai dispositivi connessi stanno aumentando a un ritmo elevato. Questo pone problemi di spazio di archiviazione e gestione, portando inevitabilmente alla necessità di disporre di framework in grado di raccogliere, salvare

e lavorare i dati, per renderli poi rapidamente fruibili anche da figure poco avvezze all’uso di determinati strumenti tecnologici. A seconda dei casi, poi, possono subentrare tematiche di sicurezza legate sia alle tecnologie implementate sui dispositivi remoti o sui sistemi automatizzati sia alla loro circolazione tra diverse applicazioni e dipartimenti aziendali. Infine, occorre affrontare correttamente, meglio se nelle fasi iniziali di un progetto, il tema dell’integrazione dei dati generati da strumenti IoT con quelli di altre applicazioni


aziendali, più o meno correlate a essi. Su questi temi Technopolis ha realizzato una ricerca qualitativa, mirata principalmente ad analizzare come si stiano strutturando le strategie IoT nelle aziende e quali risultati abbiano prodotto fin qui. L’iniziativa ha coinvolto oltre quindici imprese appartenenti in modo prevalente al settore manifatturiero, ma con testimonianze raccolte anche nelle utilities, nell’healthcare e nei servizi. L’eterogeneità del campione permette di evidenziare alcune distinzioni strategiche fra le aziende coinvolte. Laddove esista un’attività di produzione radicata sul territorio italiano o almeno da qui controllata, i progetti IoT sono una realtà già ben definita, talvolta con un percorso avviato da diverso tempo e in tutti i casi con finalità specifiche legate alla pura attività di stabilimento. In queste aziende generalmente sono stati fatti investimenti in direzione della smart factory, con l’applicazione diffusa di sensori sugli impianti o sulle linee, innanzitutto per poter scoprire tempestivamente anomalie di funzionamento, ma in molti casi anche per raccogliere dati utili all’analisi delle performance o per comprendere l’intero flusso di una supply chain. Un secondo importante filone di sviluppo IoT riguarda l’integrazione della sensoristica nei prodotti, essenzialmente allo scopo di rilevare le loro modalità di funzionamento, le attitudini dei consumatori in determinati contesti, il posizionamento nei punti vendita in scenari particolarmente evoluti. Qui le casistiche sono molto differenziate e verticalizzate in funzione delle caratteristiche di ogni prodotto o dei fruitori standard. Talvolta le rilevazioni derivate dalla sensoristica integrata consentono alle aziende, con opportuni assemblaggi e analisi dei dati, di monetizzare gli investimenti effettuati sotto forma di servizi a pagamento, erogati in modo complementare oppure finalizzati a cementare la relazione con i clienti in casi di rinnovo di ordini o richieste di intervento.

ll percorso dei dati in azienda

Uno dei temi centrali dell’attuale fase di sviluppo dei progetti IoT riguarda l’uso che l’azienda fa dei dati raccolti. Abbiamo già evidenziato come, vista anche la conformazione del campione analizzato, le esperienze più consolidate riguardino gli ambienti di produzione. Ciò che si raccoglie in questo contesto viene sfruttato in modo preponderante dai responsabili degli stabilimenti o dalle figure di management tecnico a livello centralizzato, per monitorare le performance e intercettare in modo rapido le possibili anomalie nel funzionamento di una macchina o di una linea. Ancora non troppo consolidata, invece, è l’integrazione di questi dati con altre componenti del sistema informativo, se si escludono i Mes (Manufacturing Execution System) presenti nelle imprese produttive. Questo dipende, in diverse realtà, anche dalla relativa gioventù delle esperienze maturate nel mondo Internet of Things. Non così raro è il caso di aziende che hanno implementato piattaforme diverse per scopi specifici, ad esempio per l’asset management, con una conseguente necessità di ricercare una convergenza prima di tutto su questo fronte. Abbastanza comune appare l’integrazione dell’IoT di produzione con i sistemi di gestione della supply chain, mentre più raramente si arriva all’Erp aziendale, a meno che non si tratti di processi nativamente avviati in una logica di fusione applicativa. Gli output legati all’utilizzo di strumenti analitici vengono quasi sempre messi a disposizione dei manager di linea, che devono essere nella condizione di poterli interpretare e manipolare. Solo nelle realtà più evolute sono presenti figure di data scientist, che sono collocate a mezza via fra ruoli di IT e responsabili business od operations e che fungono da “interpreti” del lavoro costruito dai team di progetto. Più in generale, compete all’IT garantire soprattutto l’integrità del dato

e una corretta visualizzazione per tutti i diretti interessati. I limiti da superare

Se nella maggior parte delle aziende analizzate i progetti basati sugli oggetti connessi sono già stati realizzati o sono stati programmati a breve termine, numerosi appaiono gli ostacoli per uno sviluppo più consistente su questo fronte. Alcuni di questi ostacoli sono ancora di natura tecnologica e riguardano la difficoltà di definire standard universali che rendano più fluido e sicuro il dialogo fra i dispositivi e i sistemi aziendali, ma anche l’infrastruttura di connettività nazionale che occorrerebbe per garantire una soddisfacente qualità nella trasmissione dei dati da qualunque luogo essi partano. Un altro elemento di criticità può essere la presenza in azienda di componenti tecnologiche obsolete, che rendono difficile l’integrazione con le nuove tecnologia digitali. La sicurezza è una fonte di preoccupazione per diverse realtà, soprattutto per quelle che devono interfacciare sistemi di età differente. Naturalmente, la disponibilità di budget resta sempre un vincolo non trascurabile, tornato anche in auge a seguito delle restrizioni imposte dagli effetti della pandemia che si stanno protraendo. Il futuro dell’IoT appare promettente, come già sembrava qualche anno addietro. Il ritmo di crescita dei progetti forse non è stato quello atteso e in molti casi gli sviluppi prototipali non si sono ancora concretizzati in implementazioni su larga scala. Per chi ha già realizzato progetti, ci sono percorsi quasi obbligati in direzione della ricerca di una migliore integrazione fra i dati di provenienza eterogenea e con altre componenti, come la supply chain. In prospettiva, certamente potrà trovare maggior spazio l’intelligenza artificiale applicata alle analisi e alla correlazione dei dati che i dispositivi connessi possono trasmettere. Roberto Bonino 43


EXECUTIVE ANALYSIS

PORTA APERTA ALL’INNOVAZIONE La nostra missione è occuparci di infrastrutture per le città, per favorirne la crescita. Anche nel mondo IoT costruiamo in prima battuta reti, installate sui pali della luce e lasciate in dono al governo cittadino e a chiunque le voglia utilizzare per erogare servizi. Su questa base, abbiamo dedicato una newco ai progetti basati su oggetti connessi, capace in tre anni di superare le cento persone e i 10 milioni di euro di margine operativo lordo. Marco Moretti, Cio di A2A

Dal semplice monitoraggio, siamo evoluti verso un oggetto che attualmente può generare azioni di proximity marketing e che restituisce grandi quantità di dati, enucleati in un data lake e lì analizzati per generare insight a valore aggiunto in grado di tradursi in azioni concrete. Damiano Marabelli, CioCentral-Eastern Europe business unit di Coca-Cola

Da tempo la digitalizzazione delle fabbriche passa per l’implementazione di soluzioni legate all’Internet of Things, sia per obiettivi di efficienza operativa sia per gestire la transizione a un processo decisionale realmente basato sulle informazioni, e non solo sull’esperienza di chi lavora. Di recente, abbiamo allargato il tiro verso gli allevamenti, per applicare il concetto di “digital twin” e consentire di governare i processi operativi indipendentemente dalla fisicità e dal presidio in loco. Gianluca Giovannetti, Cio di Amadori

Efficienza e velocità sono i due concetti che ispirano le nostre attuali applicazioni in ambito IoT. Nelle fabbriche possiamo controllare meglio il funzionamento delle macchine di produzione del latte, mentre è in fase di sviluppo un progetto che ci consentirà di acquisire con maggior anticipo i dati qualitativi del prodotto prelevato dai nostri trasportatori presso gli allevamenti. In tutti i casi, il tempo reale appare un elemento importante in fase sia di acquisizione sia di trasmissione e riteniamo che il 5G possa farci fare un ulteriore salto di qualità. Massimiliano Cusumano, Ict director di Granarolo

Al di là della declinazione nell’ambiente di produzione, l’IoT svolge un ruolo fondamentale anche su alcuni dei nostri prodotti. Seggiolini anti abbandono, termometri e bilancia integrata sono primi esempi di applicazioni, che intendiamo estendere ad altri ambiti, come il ciclo pappa, le culle o il riscaldamento del latte. Roberto Villa, IT director di Artsana Già nel 2014 avevamo avviato un progetto per connettere i nostri frigoriferi installati in vari punti vendita in Europa e oggi siamo arrivati a oltre mezzo milione.

La parte essenziale del business di Veolia in Italia è concentrata sull’efficienza energetica e lì si sono sviluppati importanti progetti basati sul contributo della sensoristica intelligente. Uno dei più rilevanti è Hubgrade, una soluzione digitale che consente di gestire e analizzare in tempo reale i dati riguardanti tutti i vettori energetici, ma anche acqua e rifiuti, per avere consapevolezza dei consumi, per razionalizzarli e, in prospettiva, per fare manutenzione predittiva degli impianti che gestiamo, sfruttando

44 |

MARZO 2021

il potenziale del machine learning. Fabrizio Locchetta, Cio di Siram Veolia Al di là del monitoraggio e dell’efficientamento delle attività nei nostri stabilimenti di produzione, stiamo iniziando a valutare l’impiego dell’IoT anche per raffinare l’offerta dei nostri prodotti, in particolare nel campo della rubinetteria. Stiamo valutando soluzioni che potranno migliorare l’esperienza d’uso dei nostri clienti. Jaures Righetti, responsabile soluzioni Cad di Ideal Standard Si può dire che l’IoT ci abbia consentito di far rientrare al lavoro i nostri dipendenti, in sede o nei cantieri, in condizioni di massima sicurezza, terminato il lockdown della prima parte del 2020. La piattaforma che abbiamo implementato permette di controllare ogni aspetto del funzionamento della nostra sede e far sì


che ogni dipendente possa organizzare con precisione le proprie attività. Anche sui cantieri, la tecnologia supporta la gestione e la sicurezza delle persone che vi lavorano. Max Panaro, group organization, Ict & system quality vice president di Maire Tecnimont Il monitoraggio degli impianti di produzione è un elemento chiave per il nostro business. Manutenzione preventiva, settaggi o rilevazione dei consumi energetici sono attività consolidate e producono grandi quantità di dati. Per poter ricavare informazioni concretamente utili e nuovi sviluppi, dovremo rafforzare la collaborazione con i colleghi delle operations. Marco Campi, Cio di Marcegaglia Stiamo studiando l’applicazione dell’IoT in vari ambiti. Lavoriamo con stabilimenti allocati su diverse sedi, quindi innanzitutto vogliamo controllare in modo più puntuale il processo produttivo, ma guardiamo con interesse anche allo studio sul comportamento del nostro consumatore nell’utilizzo del divano e all’impiego nei negozi per valutare la correlazione fra modalità di esposizione dei prodotti e vendite. Pierangelo Colacicco, Cio di Natuzzi Già da qualche tempo abbiamo avviato riflessioni sulla possibilità di sfruttare sensori e simili oggetti per studiare meglio la relazione con la nostra clientela, composta soprattutto da installatori elettrici. La comprensione del livello di frequentazione dei nostri punti vendita e il rapporto con il posizionamento dei prodotti ci aiuteranno a fare analisi utili a migliorare il nostro business. Angelo Redaelli, Cio di Sacchi Elettroforniture In quanto produttori di bevande, per noi l’interesse verso l’Internet of Things si è

fin qui indirizzato essenzialmente verso gli ambienti di produzione. Qui abbiamo costruito un processo strutturato di monitoraggio continuo, che parte dai sensori sulle macchine e arriva a un database centralizzato dove si realizzano elaborazioni di tipo statistico o report in tempo reale per il monitoraggio della produzione. Claudio Basso, Cio di Acqua San Benedetto L’IoT ci aiuta già da qualche tempo a pianificare meglio i riempimenti dei serbatoi di gas industriali e medicinali, al centro delle nostre attività. Dovendo coordinare le nostre esigenze di trasporto con il fabbisogno dei clienti, possiamo ora sapere quando i grandi serbatoi si avvicinano allo svuotamento. Il collegamento con il

Crm e con il sistema di pianificazione ci consente di personalizzare il servizio e di lavorare d’anticipo anche per le consegne dei contenitori e delle bombole. Riccardo Salierno, Cio di Sapio Group Se i dispositivi elettromeccanici rappresentano la nostra tradizione, la componente elettronica di home automation è quella che più di tutte ci consente di sfruttare l’IoT per ottenere informazioni utili sia per migliorare il valore dei nostri prodotti sia per fornire opportunità di erogazione di nuovi servizi ai nostri clienti. Manutenzione remota ed energy management sono le frontiere di più recente sviluppo. Alessandro Ravagnin, responsabile marketing sistemi di Vimar

LA CONVERGENZA FRA IOT, BIG DATA E AI La ricerca conferma le tendenze osservabili sul mercato, che abbiamo saputo accompagnare anche forti delle nostre esperienze di gruppo nell’industria e nell’automazione, ma anche nei trasporti, nell’energia, nelle Tlc e in altri ambiti. Anche in Italia viviamo un progressivo allargamento di scopo rispetto al ruolo dell’IoT nelle applicazioni di fabbrica digitale, con una valorizzazione della visione olistica, che passa per l’integrazione dei dati di macchina con l’intero patrimonio informativo aziendale. Vi sono coinvolti più processi che ruotano attorno alla produzione, con la consapevolezza che analytics e machine learning esprimono il loro potenziale attraverso una più ampia correlazione dei dati disponibili. Perciò parliamo di convergenza tra IoT, big data e Ai, con una piattaforma che in casa Hitachi si chiama Lumada. L’obiettivo è creare un’architettura

unificata dei dati, che possa operare sull’edge così come sull’IoT data lake, in deployment ibrido, per garantire un’efficace chiusura del loop, rendendo misurabile il Roi. La convergenza tra IoT, big data e Ai ha trovato sempre più frequente applicazione sulle reti e infrastrutture tecnologiche distribuite geograficamente e la trasposizione di applicazioni su equipment, asset e device connessi è sempre più naturale, ad esempio su soluzioni per il monitoraggio del territorio e gli smart space. Proprio questa varietà di casi d’uso richiede l’evoluzione delle tecnologie in un’ottica di versatilità, agnosticità rispetto agli hardware di campo, interoperabilità ed estensibilità rispetto a un ecosistema tecnologico in continua evoluzione. Devrim Di Finizio, Responsabile Digital Solutions Software Unit, Hitachi Vantara Italy

45


SICUREZZA SANITARIA E DISTANZIAMENTO SOCIALE: IL RUOLO DEL PRINTING.

Oggi le aziende devono “adattarsi” a nuove regole e rivedere le proprie strategie anche in ambito printing, per garantire il rispetto delle distanze di sicurezza, l’ottimizzazione dei costi e il rilancio della produttività.

SOLUZIONI BROTHER: TECNOLOGIA CHE SI ADATTA AL CAMBIAMENTO PER RIPARTIRE IN AZIENDA! BALANCED DEPLOYMENT e DECENTRALIZZAZIONE PRIMA

UNA STAMPANTE LASER A3 PER TANTI

VANTAGGI RISPARMIO DI COSTI E TEMPI ottimizzazione delle risorse

DOPO

PIÙ STAMPANTI A4 COMPATTE

BENEFICI SICUREZZA DI STAMPA CON SECURE PRINT+

PRIMA

DOPO

UNA SOLA STAMPANTE DI DIMENSIONI IMPONENTI

PIÙ STAMPANTI, COMPATTE E PERFORMANTI

FILE PER RITIRARE STAMPE

MENO SPOSTAMENTI E ASSEMBRAMENTI

SCRIVANIE AFFOLLATE

PIÙ SPAZIO LIBERO E PIÙ DISTANZIAMENTO

a norma GDPR

FLUSSI DI LAVORO EFFICIENTI

ASSISTENZA DALLA STAMPANTE

processi più snelli e veloci senza assembramenti

monitoraggio da remoto dal dipartimento IT Scopri di più: www.brother.it


ECCELLENZE.IT | Polizia Municipale di Ravenna

BODY CAM, LE ALLEATE NELLA LOTTA AL CRIMINE Sedici videocamere Axon Body 3 aiutano i poliziotti a documentare e geolocalizzare i reati.

I

l lavoro delle forze dell’ordine notoriamente non facile. Ma la tecnologia può contribuire a trasformarlo, rendendo più efficaci, più sicuri e più mirati gli interventi di contrasto al crimine. Succede a Ravenna, dove per la prima volta in Italia si sta sperimentando l’uso delle videocamere Axon Body 3, un modello indossabile che si mimetizza sulla divisa dei poliziotti, per entrare in funzione istantaneamente grazie ai suoi sensori. La Polizia Municipale di Ravenna ha deciso di adottare 16 body cam di ultima generazione per supportare i suoi uomini nelle quotidiane attività di vigilanza. Fino a ieri, usando una telecamera tradizionale, per documentare un reato o una situazione di pericolo in corso i poliziotti dovevano perdere minuti preziosi. Ora invece basta un gesto della mano per attivare la funzione di registrazione video. “L’impiego sistematico delle body cam, innovazione assoluta nell’amministrazione italiana della Giustizia e della Pubblica Sicurezza, ha trovato l’importante sostegno del Procuratore della Repubblica e del Prefetto e riscosso ampia approvazione tra i cittadini,” ha dichiarato Andrea Giacomini, comandante del Corpo di Polizia Locale del Comune di Ravenna. “La loro sperimentazione, conclusasi recentemente, ha messo in evidenza rilevantissimi vantaggi rispetto alla capacità di prevenire comportamenti illeciti e di produrre affidabili referti a beneficio delle Autorità preposte a giudicare fatti”. Il progetto non si è limitato all’adozione delle 16 videocamere indossabili: la

polizia municipale della città romagnola è la prima agenzia in Europa a implementare Axon Respond for Devices, un software che permette di inviare informazioni di gelocalizzazione (sfruttando i sensori Gps delle Body 3) e allerte in tempo reale. Grazie ai dispositivi e al software in uso, il corpo di polizia può ora documentare meglio le proprie attività quotidiane, condividere informazioni con altri team, gestire con più efficacia il lavoro. Se, per esempio, si trovano in una situazione che richiede di chiamare i rinforzi, i poliziotti possono usare le funzioni di geolocalizzazione e di live streaming per indicare ai colleghi, in automatico e con la massima precisione, dove e come intervenire. Il chip del dispositivo, dotato di funzioni di intelligenza artificiale, può riconoscere alcuni tipi di evento (per esempio i colpi di arma da fuoco) per attivare allarmi in automatico. Il terzo ingrediente del progetto è stato l’acquisto delle licenze d’uso di Axon Evidence, una piattaforma per la gestione delle prove digitali: attraverso un portale Web, la Municipale di Ravenna può conservare le prove in formato non cartaceo, archiviarle, catalogarle, e può cercare e condividere file. Si eliminano così i costi, le complicazioni

e il disordine di flussi di lavoro basati su documenti cartacei o su supporti digitali piuttosto macchinosi da usare e poco flessibili, come i Dvd. “I quindici operatori del mio reparto hanno fornito ottimi feed back sull’utilizzo delle Body Cam Axon”, testimonia il Commissario Stefano Bravi, a capo dell’Ufficio Polizia Giudiziaria e Pronto Intervento, “mettendoci così nelle condizioni di approcciarci al meglio all’utilizzo sul campo delle nuovissime AB3, dotate di una tecnologia a dir poco futuristica per i nostri normali contesti operativi”. LA SOLUZIONE Axon Body 3 è una videocamera indossabile di piccole dimensioni, resistente ad acqua, polvere e urti. Può registrare audio e video in alta risoluzione, archiviare i filmati nella memoria interna, trasmettere filmati in streaming in tempo reale e indicare dati di geolocalizzazione grazie al Gps integrato. Include funzioni di attivazione automatica, mappe, notifiche e crittografia su dispositivo.

MARZO 2021 |

47


ECCELLENZE.IT | Università di Pisa

LO STORAGE NON RALLENTA I PROGRESSI DELLA CONOSCENZA L’ateneo ha adottato una soluzione di archiviazione a blocchi software-defined, proposta da E4 Computer Engineering, per assicurare velocità alle proprie attività di calcolo scientifico. LA SOLUZIONE Usti impiega la tecnologia di software-defined storage NVMesh di Exceler, unità Ssd Digital Ultrastar DC SN640 di Western Digital (da 1,6 TB, con latenza di lettura QoS costante di 85 µs durante l'esecuzione di carichi di lavoro misti casuali) e schede di rete Infiniband di Mellanox. L’infrastruttura può scalare fino a un massimo di 128 nodi.

V

enti dipartimenti, 17 biblioteche, 13 musei e collezioni, più di 250 fra corsi di laurea, master, scuole di specializzazione, corsi di dottorato, 1.500 docenti e poco meno di diecimila studenti immatricolati: sono i numeri dell’Università di Pisa. A questo patrimonio l’ateneo associa la sua attività di ricerca e calcolo scientifico, poggiate su un data center che ha recentemente compiuto un salto tecnologico con l'adozione di una nuova architettura di storage,in grado di supportare impegnative attività di machine learning, di analytics, di calcolo genomico e altro ancora. L’obiettivo era ottenere un sistema di elaborazione dati su larga scala, che non creasse alcun rallentamento, a zero latenza e ad alte prestazioni. Ma come? L’università ha scartato l’idea di aggregare risorse di archiviazione locali ad alte prestazioni: una strategia, questa, che può determinare performance non ottimali, compromettendo le prestazioni dello storage stesso e rallentando così l’intero data center. 48 |

MARZO 2021

La giusta risposta è arrivata da E4 Computer Engineering, solution provider emiliano specializzato in negli ambiti del supercalcolo, degli analytics ad alte prestazioni, dell’intelligenza artificiale e del deep learning. La soluzione proposta si basa sullo storage a blocchi software-defined, sui dischi a stato solido NVMe (l’acronimo sta per memoria non volatile Express, un protocollo di trasferimento rapido per le memorie a stato solido) e su interfacce di rete che raggiungono velocità di trasmissione di 200 Gb/s. L’installazione è stata battezzata Usti, acronimo di “Ultrafast Storage, Totally Integrated”, e in effetti velocità e integrazione sono le due principali caratteristiche di questa infrastruttura. Per il block storage è stata utilizzata la tecnologia NVMesh di Excelero, un’architettura di storage definito dal software che permette di aggregare efficientemente le risorse flash NVMe su più server, senza influire sulla Cpu di destinazione e dunque senza sottrarre risorse computazionali alle

altre applicazioni. L’unità Ssd scelta è la Digital Ultrastar DC SN640 di Western Digital, modello mainstream adatto per attività di caching o storage primario. Il terzo ingrediente di Usti sono le schede di rete Infiniband di Mellanox, che hanno il duplice scopo di ridurre la latenza e di aumentare l’efficienza delle applicazioni. Questa soluzione può essere implementata e usata all’interno dell’architettura prescelta in formato “nativo”, cioè erogando funzionalità di block storage, oppure in combinazione con i principali file systems paralleli. “Il Green Data Center dell’Università di Pisa sta implementando una architettura innovativa di calcolo e storage a supporto dei nuovi workload di calcolo scientifico”, spiega Maurizio Davini, chief technology officer dell’Università di Pisa. “Usti ci ha permesso di completare al meglio l’infrastruttura di Gpu Computing e si è dimostrata una soluzione ideale per la facilità di implementazione e per le eccezionali performance”.


ECCELLENZE.IT | Linea Light Group

NUOVA “LUCE” SUL BUSINESS GRAZIE AL GIUSTO ERP L’azienda trevigiana, specializzata in illuminazione Led, con il software di Infor ha ottenuto vantaggi di standardizzazione dei processi, integrazione e semplificazione.

N

ei progetti di trasformazione digitale, l’Erp è spesso un protagonista. Perché per quanto tradizionali, quasi immancabili in qualsiasi azienda, questi software non sono tutti uguali e a seconda delle loro caratteristiche possono fare la differenza, regalando agilità (o, viceversa, rallentando) il business. Così dimostra il caso di Linea Light Group, azienda trevigiana nata nel 1976 e rappresentativa del made in Italy nel campo dell’illuminazione Led professionale e di design. Vi lavorano oltre 550 dipendenti, suddivisi fra le due sedi operative e gli stabilimenti italiani e le filiali e agenzie commerciali sparse in Europa e in Asia. A questa frammentazione geografica corrispondeva una scomoda frammentazione tecnologica: l’Erp utilizzato in Italia, basato su Ibm AS/400, era slegato dai vari sistemi in uso nelle varie filiali e agenzie del gruppo. L’azienda aveva bisogno di armonizzare le attività operative in tutti i Paesi esteri, semplificare l’accesso ai dati e di dotarsi di strumenti con cui poter automatizzare, snellire e sostenere le attività del gruppo. Esigenze a cui ha saputo rispondere Infor: il suo Erp specifico per il settore manifatturiero, Infor LN, ha attratto Linea Light Group per le sue caratteristiche di usabilità, per la gestione multilingua, per la capacità di offrire visibilità su dati altamente profilati e funzioni di ricerca della informazioni. In fase decisionale e nella realizzazione del progetto (che è tuttora in corso) l’azienda è stata supportata da 2WS, un partner di Infor. Per ogni tipologia di filiale e agenzia

del gruppo sono stati definiti dei modelli “core” e dei modelli di gestione, tutti poi implementati in Infor LN. Si è partiti dal modello della filiale commerciale britannica, per proseguire con il modello agenzia, e con la sede di Singapore, arrivando poi nel 2019 allo sviluppo del modello filiale (nel quale sono state integrate le funzionalità LA SOLUZIONE Infor LN è un Erp con funzionalità specifiche per il settore manifatturiero, come il controllo completo della linea di assemblaggio e la visibilità sulla supply chain (produzione, spedizione, assistenza, garanzia e ricondizionamento). È disponibile in 21 lingue e offre conformità alle normative locali per 49 Paesi.

per le attività di warehouse management per le sedi in Francia e Polonia. Ultime tappe, l’estensione alla filiale tedesca e il completamento dell’area Finance a Singapore e nel Regno Unito. Per poter integrare e automatizzazione i flussi di dati delle filiali e agenzie da e verso la corporate, è stata sviluppata un’interfaccia per far comunicare Infor LN con il sistema basato su AS/400 di Linea Light Italia. Nel corso della primavera del 2020 Infor LN è stato integrato con la soluzione di Business Intelligence aziendale, così da consentire l’analisi completa di sell-out e sell-in per tutte le filiali che utilizzano l’Erp. La tecnologia Infor ION, impiegata per integrare LN con il sistema in uso dalla Corporate, ha permesso di automatizzare i flussi intra-company relativi a listini, articoli, offerte di vendita, ordini di acquisto, fatture passive. Standardizzazione dei processi, integrazione e semplificazione dei flussi di dati, migliore visibilità sulle informazioni interne sono alcuni dei risultati raggiunti. “Infor LN rappresenta un’importante opportunità per il gruppo”, ha dichiarato Manuel Minute, group IT manager di Linea Light Group, “consentendoci di affrontare la digital transformation necessaria per gestire al meglio il business delle filiali worldwide, garantendo la visibilità completa delle informazioni e rinforzando controllo e supporto da parte degli headquarter”. Per il futuro, l’azienda trevigiana prevede di ottimizzare il modello generale e valutare l’estensione di Infor LN ad altre filiali e agenzie estere di Dubai, Russia e Spagna e alle agenzie commerciali italiane. MARZO 2021 |

49


APPUNTAMENTI 2021

DIGITAL HUMAN INTERFACE - IL VOLTO UMANO DELL’INTELLIGENZA ARTIFICIALE dove: https://www.assintel.it/eventi/digital-human-interface/ quando: 13 aprile perché partecipare: Durante il webinar organizzato da Assintel (Associazione Nazionale Imprese Ict) si discuterà di chatbot, software di analisi dei dati e nuove tecnologie di intelligenza artificiale “empatica”.

SMART MOBILITY, TRANSPORT & LOGISTICS SUMMIT dove: https://www.theinnovationgroup.it/events/smart-mobility-transport-logisticssummit/?lang=it quando: 21 aprile perché partecipare: L’evento di The Innovation Group, a partecipazione gratuita (previa iscrizione), aiuta a capire come stanno cambiando i servizi e le modalità di trasporto urbano, ma anche la logistica dell’e-commerce. I partecipanti all’evento riceveranno un ebook del professor Carlos Moreno, “Urban life and proximity at the time of covid-19”.

TRASFORMAZIONE DIGITALE & INNOVAZIONE 2021 dove: https://www.worldclassbusinessleaders.com/events/TDI21I#agenda quando: 21 aprile perché partecipare: L’evento racchiude casi studio, tavole rotonde, workshop e un’area per il networking con gli altri partecipanti e le aziende presenti come relatori o sponsor (Amplifon, Aws, Bayer, Bennet, Generali e altre).

IT’S ALL BANKIN& INSURANCE dove: NH Milano Congress Centre e online quando: 18 maggio perché partecipare: La mostra convegno mette a confronto banche e assicurazioni sulle nuove frontiere dell’innovazione tecnologica e di processo e sulle nuove sfide da affrontare per restare competitivi.

50 |

MARZO 2021

ADOBE SUMMIT dove: https://summit.adobe.com/na/ quando: 27-29 aprile perché partecipare: L’evento virtuale gratuito (per tutti i titolari di account Adobe) riunisce keynote e 200 fra sessioni tecniche e workshop, e dà la possibilità di interagire con gli esperti.

RED HAT SUMMIT dove: https://www.redhat.com/en/ summit quando: 27-28 aprile perché partecipare: Tra sessioni plenarie, aree demo, testimonianze dei clienti, si farà il punto sulle ultime novità e sul futuro dell’open source.

RSA CONFERENCE dove: https://www.rsaconference. com/usa quando: 17-20 maggio perché partecipare: Uno dei più importanti appuntamenti annuali di cybersicurezza in questa edizione digitale esplorerà i trend del 2021 e il tema della resilienza.

In vista di possibili variazioni di data, suggeriamo ai lettori di consultare i siti Web degli organizzatori.


#TIGCYBERSEC

The Innovation Group Innovating business and organizations through ICT

MAIN PARTNER

PARTNER

ISCRIVITI ORA! www.theinnovationgroup.it segreteria.generale@theinnovationgroup.it

SPONSOR


Tutta la tecnologia che conosciamo

E QUELLA CHE IMMAGINIAMO PER IL FUTURO

DIGITAL POWERED ENTERPRISE MOBILE WEB SOCIAL MEDIA SMART CITY CLOUD SOFTWARE info@posytron.com • posytron.com

INTERNET OF THINGS


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.