Technopolis 40

Page 1

www.technopolismagazine.it

NUMERO 40 | OTTOBRE 2019

STORIE DI ECCELLENZA E INNOVAZIONE

STORIE DI ECCELLENZA E INNOVAZIONE

Modernizzare l'Italia con le tecnologie digitali. L’intento del nuovo esecutivo è esplicito, ma le sfide da vincere sono tante: dalla PA alle aziende fino all'ecosistema delle startup

OBIETTIVO SMART NATION OTTOBRE 2019

LE NUOVE BANCHE

21

L'entrata in vigore della normativa Psd2 cambia le regole del gioco. Ecco come sta procedendo il viaggio verso il digitale.

LE ANIME DELL’AI

52

Gli algoritmi dell'intelligenza artificiale trovano applicazione ovunque. Ma l'essere umano gioca un ruolo irrinunciabile.

EXECUTIVE ANALYS Il tema delle applicazioni "critiche" rimane sempre di stretta attualità. La nostra indagine nelle aziende italiane.


Come telefonavi prima?

M70

M80

M90

Con i cordless IP DECT di Snom il “prima” é acqua passata! Innovativi Display a colori e funzionalità avanzate per tutti i collaboratori

Interoperabili Compatibili con le più note piattaforme IP-PBX

Eleganti Design elegante per ambienti di lavoro più gradevoli

Garanzia di 3 anni Ideali per progetti della durata di 24 o 36 mesi

Siamo a tua disposizione! office.it@snom.com


SOMMARIO 4 STORIA DI COPERTINA STORIE DI ECCELLENZA E INNOVAZIONE

N° 40 - OTTOBRE 2019 Periodico mensile registrato presso il Tribunale di Milano al n° 378 del 09/10/2012 Direttore responsabile: Emilio Mango Coordinamento: Gianni Rusconi Hanno collaborato: Piero Aprile, Valentina Bernocco, Gabriele Catania, Fabio Bolognini, Roberto Bonino, Andrea di Pretoro, Carlo Fontana, Roberto Masiero, Ezio Viola Progetto grafico: Inventium Srl Foto e illustrazioni: Istockphoto, Adobe Stock Images, Shutterstock

Obiettivo smart nation

Un territorio pronto per l’innovazione

11 IN EVIDENZA

Ricerca, governance, risorse: l’Italia digitale è in cammino

Il prossimo passo? Il cloud automation

“Il nostro futuro è l’AI computing”

È cognitivo il futuro della “nuova” Ibm

21 BANKING & FINTECH

È tempo per una banca post-digitale?

Via alla Psd2, ecco le conseguenze

29 SMART MANUFACTURING

Oggetti e fabbriche 4.0, ma solo con gli skill

34 STARTUP & PMI INNOVATIVE

Con meno burocrazia il venture capital vola

40 DIGITAL TRANSFORMATION Editore e redazione: Indigo Communication Srl Via Palermo, 5 - 20121 Milano tel: 02 87285220 www.indigocom.it

Non c’è trasformazione senza il cloud

44 EXECUTIVE ANALYSIS

Applicazioni critiche: come le proteggiamo?

49 DIGITAL RETAIL

Pubblicità: The Innovation Group Srl tel: 02 87285500

Stampa: Ciscra SpA - Arcore (MB)

© Copyright 2019 Indigo Communication Srl Tutti i diritti di proprietà letteraria e artistica riservati.

57 CYBERSECURITY

Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto.

Bper - RedHat

Coopservice - Microsoft

Iper - Huawei

Pubblicazione ceduta gratuitamente.

Istituto di Oncologia Molecolare (Ifom) - Darktrace

Logistica, l’altra faccia dell’e-commerce

52 INTELLIGENZA ARTIFICIALE

Tante “intelligenze” nella storia dell’uomo

I rischi nascosti e le ambiguità del cloud

63 ECCELLENZE


STORIA DI COPERTINA

OBIETTIVO SMART NATION Modernizzare l'Italia con l’aiuto delle tecnologie digitali. L’intento del premier Giuseppe Conte è esplicito, ma le sfide da vincere per l’esecutivo sono tante: rilanciare la PA, supportare l’innovazione delle aziende e le startup, ridare priorità ai progetti per Scuola e Sanità.

“C

ostruire un’Italia innovativa, un’Italia smart, un’Italia amica dei cittadini e votata allo sviluppo continuo della creatività è la priorità a cui dobbiamo lavorare tutti insieme per un futuro migliore”. Eravamo a metà luglio, il ribaltone a Palazzo Chigi non era ancora nell’aria e il premier Giuseppe Conte, dal palco del Forum dell’Economia digitale di Milano, non perdeva l’occasione di mettere l’accento sul ruolo chiave delle tecnologie per il rilancio del sistema Paese. Passati tre mesi e cambiati i colori dell’esecutivo, la sostanza (almeno a parole) non è cambiata e come tale la registriamo: modernizzare l’Italia è un imperativo, il digitale è la chiave per sbloccarlo. Concetti chiari, semplici se vogliamo, che il presidente del Consiglio 4

| OTTOBRE 2019

ha riproposto nel discorso di fiducia alle Camere per il varo del nuovo Governo, motivando le ragioni che hanno portato a istituire un ministero dedicato all’Innovazione tecnologica (affidato a Paola Pisano, ex assessore all’Innovazione della Città di Torino) e rimarcando i capisaldi necessari a trasformare l’Italia in una vera e propria “smart nation”, ovvero digitalizzazione, robotizzazione, intelligenza artificiale e impresa 4.0. Dalla banda larga alla Web tax

Da dove vuole partire il capo dell’esecutivo? Sulla carta gli intenti non sono troppo diversi, anzi, da quelli di chi l’ha preceduto negli ultimi sei anni. “L’innovazione dev’essere il motore che imprime una nuova spinta a tutti i settori dell’economia e della società. La Pubblica

EUROPA DIGITALE, IL TIMBRO DEL MISE Ha posto la firma anche il Sottosegretario allo Sviluppo Economico, Mirella Liuzzi, sul Memorandum d’Intesa sul futuro dell’ecosistema digitale del Sud Europa e per la condivisione delle migliori esperienze relative alla tecnologia blockchain. Le soluzioni basate sui registri distribuiti sono considerate dal Mise “un volano per promuovere le specificità dei nostri territori e una grande opportunità di tutelare i prodotti del made in Italy da frodi e contraffazioni”. L’Italia, ha detto Liuzzi, si candida a essere “un paese leader nell’adozione di queste tecnologie”.


Amministrazione dovrà essere alla testa di questo processo, realizzando le infrastrutture materiali e immateriali necessarie”, ha ribadito ufficialmente Conte, senza sottrarsi a dare concretezza a questi proclami elencando le (tante) cose da fare. Si va dall’identità digitale (di cui dovranno essere dotati tutti i cittadini italiani nell’arco di dodici mesi) alla rete a banda larga (da completare entro i prossimi anni), dal rafforzamento degli investimenti per il venture capital (a cui dovrà pensare il neonato Fondo Nazionale per l’Innovazione ) all’estensione delle misure a suo tempo inserite nel Piano Industria 4.0 e previste nella nuova legge Finanziaria. C’è tanta carne al fuoco, quindi, e accanto ai temi più noti non mancano riflessioni e appunti anche su questioni certamente implicate nel processo di trasformazione digitale che l’Italia ha solo in parte iniziato a fare proprio: ci riferiamo alla portabilità dei dati, alla cittadinanza digitale e ai diritti dei lavoratori digitali, al commercio elettronico, alle piattaforme che erogano servizi online. Se guardiamo a quest’ultimo ambito, par di vedere un cambiamento con le sembianze della Web Tax che sarà applicata da inizio 2020 sui ricavi delle grandi società che traggono ricavi dai servizi digitali, come Google, Facebook, Amazon e Netflix. Tutte le sfide di Conte

La partita da giocare sul fronte della PA digitale e dell’innovazione delle imprese è complessa, e se n’era accorto anni fa anche Mario Monti, quando nell’ottobre del 2012 diede il via libera alla creazione di un organismo (l’Agid) che potesse tradurre in azioni concrete le misure teoriche dell’Agenda Digitale. Le lungaggini e le mancanze che hanno contraddistinto l’execution dei tanti punti elencati in agenda ormai sono storia. Come sempre torna di moda una questione, quella della governance, e quindi del “come” si debba accelerare l’adozione delle nuove tec-

nologie sia nell’ambito della PA sia per quanto riguarda l’industria privata. Maggiore chiarezza, almeno in fatto di risorse finanziarie disponibili, l’avremo con il varo della Legge di Bilancio 2020 (in fase di discussione nel momento in cui scriviamo). Spesso le buone intenzioni non hanno trovato il supporto dei decreti attuativi e la disponibilità dei fondi necessari a finanziare i progetti, e viste le premesse avanzate dal nuovo Governo alcuni addetti ai lavori si aspettano (giustamente) che completare la razionalizzazione della governance sia una priorità. L’opera dovrà passare da un’interazione più forte con aziende e Regioni, cioè con gli attori di riferimento per lo sviluppo dell’economia sul territorio. La PA digitale rimane uno dei crocevia principali, perché alla trasformazione della macchina pubblica è in qualche modo legata la competitività del sistema Paese: gli ambiti per cui serve un’accelerazione poderosa, Sanità e Scuola, sono anche i più critici, inoltre nel frattempo Conte dovrà assolutamente dare reale sostanza ai progetti per cui si è speso in promesse probabilmente troppo ottimistiche, come l’identità digitale e PagoPa. L’altra grande scommessa, quella dell’innovazione delle imprese, è per certi versi ancora più difficile da vincere. Sul tavolo i dossier in evidenza ci sono sicuramente quello l’ecosistema delle startup (chiamato alla prova di maturità dopo un 2018 molto positivo), il lancio del Fondo Nazionale (che dovrà dare benzina ai venture capital), il nuovo corso di Industria 4.0, il piano sulla cybersecurity e quello per la banda ultralarga. Per portare avanti i progetti di ampio respiro sull’intelligenza artificiale e sulla blockchain può esserci anche più tempo. Andare veloci e fino in fondo con i cambiamenti alla base del processo di trasformazione è, invece, un compito che il premier Conte non può rimandare, se davvero vuole portare l’Italia allo status di “nazione smart”. Gianni Rusconi

5G: “DIFENDEREMO LA SICUREZZA” “Qualunque provenienza e composizione societaria abbiano le aziende che chiedono di avere accesso al mercato italiano, adopererò tutti gli strumenti di cui ci siamo dotati per difendere gli interessi nazionali”. Parole dettate lo scorso fine settembre dal presidente del consiglio, Giuseppe Conte, a Sky TG24, riferendosi indirettamente al possibile (e quantomai discusso) ingresso di Huawei nella partita italiana del 5G. Il cuore della questione è il decreto legge sul perimetro di sicurezza nazionale cibernetica, per cui il Consiglio dei ministri aveva dato il via libera una settimana prima definendo le nuove disposizioni in materia di tutela delle reti, dei sistemi informatici e dei dati. In virtù del cosiddetto “golden power” applicato alle telecomunicazioni, a svolgere le attività di ispezione e verifica del rispetto della sicurezza da parte dei soggetti pubblici sarà la Presidenza del Consiglio e non più l’Agenzia per l’Italia digitale, l’Agid, mentre al Mise (attraverso l’opera del Centro di valutazione e certificazione nazionale) va la responsabilità di verifica per i soggetti privati. Per quanto riguarda la messa in sicurezza delle reti 5G, il provvedimento ammette la possibilità di modificare o integrare le misure anche in caso contratti già approvati e prescrive la sostituzione o il blocco di apparati e prodotti “che risultano gravemente inadeguati sul piano della sicurezza”.

5


STORIA DI COPERTINA

QUATTRO MINISTERI, UNA SOLA SFIDA Collaborare in nome di un’Italia sempre più digitale: ecco il “patto” stretto dai responsabili di Finanze, Innovazione, Pubblica Amministrazione e Sviluppo Economico.

F

abiana Dadone (35 anni), Paola Pisano (42), Stefano Patuanelli (45) e Roberto Gualtieri (53) sono, nell’ordine, i titolari dei ministeri della Pubblica Amministrazione, dell’Innovazione tecnologica e Digitalizzazione, dello Sviluppo Economico e dell’Economia e delle Finanze. E sono loro i “quattro moschettieri” che dovranno avviare il circolo virtuoso attraverso il quale il Paese, secondo le intenzioni del Premier Giuseppe Conte, dovrà raggiungere lo status di “smart nation”. Come la letteratura impone, dovranno lavorare di concerto e in sinergia e, stando alle dichiarazioni fatte sui social media da alcuni di loro, sembra che la strada intrapresa sia effettivamente questa. Dai due ministri donna, in particolare, è arrivata già tempo fa la conferma che i rispettivi dipartimenti si coordineranno spesso, per accelerare i progetti di semplificazione della Pubblica Amministrazione e in modo particolare per completare nei tempi più brevi possibili il percorso verso la cittadinanza digitale. Il che significa, come spiegava Dadone in un recente post di Facebook, “avvicinare davvero la macchina dello Stato ai cittadini, alzando la qualità dei servizi con immenso risparmio di tempo e una reale semplicità di fruizione. L’Agenda Digitale italiana ha precisi obiettivi di efficienza e semplificazione da perseguire

6

e in tal senso ciascuna amministrazione ha responsabilità chiare rispetto alla transizione digitale, individuando al suo interno un responsabile di questo processo”. Le priorità sul tavolo di Paola Pisano sono ovviamente tante e fra queste c’è anche la delicata questione delle funzioni in carico all’Agid (l’Agenzia per l’Italia Digitale), che dovrebbero scivolare per l’appunto sotto il cappello del nuovo ministero in linea con quanto stabilito nel programma di governo 5Stelle-PD. Il piano prevede, infatti, di accentrare le funzioni relative al digitale in un’unica struttura, nella quale dovrebbe confluire (nel neonato Dipartimento per la Trasformazione digitale) anche il Team Digitale voluto a suo tempo da Diego Paicentini e ora guidato da Luca Attias. Con la riorganizzazione in oggetto, che porta il piano di digitalizzazione della PA in mani (e teste) diverse da quelle della Funziona Pubblica, l’auspicio è quello di una governance più lineare, ma soprattutto quello di una collaborazione che si sviluppi non solo a parole bensì nei fatti, attraverso progetti, esecuzione, strategie.

Due priorità per l’economia

Far ripartire gli investimenti con un focus sulle spese destinate ai nuovi progetti fortemente innovativo è, invece, il primo obiettivo di Roberto Gualtieri. Il ministro dell’Economia e delle finanze ha parlato di “priorità assoluta” riferendosi a infrastrutture e sostenibilità ambientale e sociale, due voci segnate in rosso anche nell’agenda della Commissione Ue guidata da Ursula Von der Leyen. L’idea dell’esecutivo, secondo i bene informati, sarebbe quella di scorporare gli investimenti pubblici destinati alle nuove tecnologie e alla tutela ambientale dal computo del patto di Stabilità, e quindi dal calcolo del deficit strutturale. Dare continuità al piano di sviluppo digitale del comparto industriale, spalmando gli incentivi del piano Impresa 4.0 su ulteriori tre anni e con l’idea di renderli strutturali è, infine, il compito che si è dato Stefano Patuanelli, il quale ha spiegato come le misure a sostegno della crescita debbano essere rimodulate in un ottica di “green economy” e, soprattutto, valutate di concerto con il Mef. Collaborazione sinergica, per l’appunto. P.A.


STORIA DI COPERTINA

Imprese, Pubblica Amministrazione e terzo settore: al “Digital Italy Summit” di The Innovation Group si parlerà delle esperienze di successo nate dalle tecnologie digitali, e si farà il punto sulle politiche di sviluppo del nuovo Governo. Ecco qualche anticipazione.

UN TERRITORIO PRONTO PER L’INNOVAZIONE

C

he cosa significa, oggi, essere cittadini di una società divenuta sempre più interconnessa e complessa per via della grande diffusione di tecnologie digitali e servizi Internet? In che modo imprese, lavoratori e parti sociali (i sindacati) possono affrontare in modo costruttivo le sfide dell’intelligenza artificiale? Come i dati possono realmente sostenere il passaggio da un’economia lineare (basata sull’estrazione di materie prime, sulla produzione, sul consumo di massa e sullo smaltimento degli scarti) a un’economia circolare (caratterizzata dalla condivisione delle risorse, dal riciclo e

dall’impiego di fonti energetiche rinnovabili) e innescare un modo di produrre e consumare più responsabile? Sono alcuni dei grandi temi che scandiranno le tre giornate del “Digital Italy Summit 2019”, evento-convegno organizzato da The Innovation Group in cui si confronteranno gli stakeholder dell’innovazione italiana. AI, machine learning e blockchain per cambiare modello?

L’evento cade in un momento critico per la nostra economia, in cui la crescita del Pil è tendente a zero, e di profonda discontinuità del nostro sistema politico.

Il tema delle politiche pubbliche non a caso sarà al centro di molti dei tavoli di lavoro; in altri verrà invece approfondita l’indicazione del gruppo di esperti sull’intelligenza artificiale, intesa a focalizzare la strategia nazionale non su singoli settori economici definiti a priori, bensì a promuovere un’AI distribuita e integrata nei processi industriali. Da una parte, governare un’economia e una società sempre più decentralizzate nell’era del digitale potrebbe consentire di non basarsi più su autorità e istituzioni centralizzate (per esempio grazie alla blockchain). Dall’altra, machine learning e supercomputing potrebbeOTTOBRE 2019 |

7


STORIA DI COPERTINA

ro però rendere i sistemi centralizzati molto più efficienti. Dovremmo quindi orientare le politiche pubbliche verso un’ulteriore decentralizzazione o verso un nuovo centralismo? E ancora, in che modo si dovrebbero bilanciare i vantaggi di servizi gratuiti che gli utenti ottengono dalle grandi Internet company, come Google e Facebook, in cambio dei propri dati con le esigenze di tutela della privacy e con i rischi di monopolio in mano a queste piattaforme? E come, infine, possiamo introdurre in modo sistematico l’analisi dei dati nei processi della macchina pubblica e migliorare l’efficienza delle politiche industriali, per aumentare sostanzialmente la competitività del nostro sistema produttivo? Proviamo a dare qualche anticipazione delle possibili risposte. L’esempio (da non imitare) degli Usa

Da una parte vanno senz’altro riconosciuti i grandi meriti del Piano “Industria 4.0 e l’intenzione del governo di renderne strutturali i benefici per i prossimi tre anni. Dall’altra, le metriche per misurare il successo del programma de-

vono però andare oltre il livello dell’acquisto di nuovi macchinari da parte delle imprese, se si vuole favorire forme di progettazione congiunta di organizzazione, lavoro e tecnologia che portino il sistema produttivo a esaltare le sue proverbiali capacità di innovazione diffusa. Con la nomina di Paola Pisano a ministro dell’Innovazione tecnologica e della Digitalizzazione, la dicotomia “analogico versus digitale” del precedente esecutivo gialloverde sembra finalmente in via di superamento, ma non potrà dirsi definitivamente risolta se le priorità della politica per l’innovazione digitale non verranno incardinate nell’agenda del premier. L’Italia ha bisogno di un vero e proprio “czar digitale”, cioè una realtà unificata e centrale, per eliminare i silos e le barriere interne che hanno rappresentato finora un ostacolo insuperabile. Così si potrà ottenere un’accelerazione decisa dei processi d’innovazione delle imprese, della Pubblica Amministrazione e del terzo settore. Di sicuro non sarà facile. Alcuni hanno già ricordato l’improvvida figura di Vivek Kundra, il primo chief information

L’EVASIONE SI COMBATTE CON LA BLOCKCHAIN “Abbiamo ideato con l’Inps un software contro l’evasione dei contributi che ci permetterà di recuperare tra i 4 e i 5 miliardi di euro”. Il proclama pronunciato in settembre dal ministro degli Esteri, Luigi Di Maio, è un tassello ulteriore e discretamente rilevante nel percorso di innovazione digitale della macchina pubblica. Del software in questione, realizzato in collaborazione con il Mef e l’Agenzia delle Entrate, non si conoscono né i dettagli tecnici e né i tempi di even-

8

| OTTOBRE 2019

tuale lancio, ma è nota la destinazione d’suo: contrastare l’evasione dei contributi da versare all’Istituto Nazionale di Previdenza Sociale. Quale dato in più sul progetto l’ha fornito il presidente dell’Inps, Pasquale Tridico, anch’egli convinto di sottrarre qualche miliardo all’evasione attraverso una piattaforma multilivello basata su tecnologia blockchain, che dovrà certificare crediti e debiti condividendo i dati residenti nei sistemi di Inps, Inail e Agenzia delle Entrate.

officer incaricato da Barack Obama di trasformare l’amministrazione degli Stati Uniti attraverso la digitalizzazione: restò vittima della reazione corporativa delle amministrazioni federali, che mal sopportavano il tentativo di imporre regole comuni in vista di un processo di integrazione che le avrebbe necessariamente costrette a soffocare molte delle proprie autonomie. Se guardiamo al nostro Paese, crediamo che vadano garantite alcune condizioni affinché il processo di innovazione digitale possa registrare progressi significativi: semplificare l’organizzazione interna, avviare subito a radicale soluzione il dualismo irrisolto fra il Team per la Trasformazione Digitale e l’Agenzia per l’Italia digitale (Agid), un dualismo frutto di retaggi passati e fonte di difficoltà oggettive che limitano l’efficienza potenziale di queste risorse. Inoltre, è necessario condividere in modo esteso l’obiettivo di costruire una “nazione smart”, enunciato dal presidente del Consiglio. Parola d’ordine: collaborazione

Un ultimo punto merita una sottolineatura: la digitalizzazione della PA è senz’altro un elemento importante, ma non può prescindere da una visione sistemica dei processi di trasformazione digitale del Paese, estesa alle imprese, al terzo settore, alle infrastrutture, alle competenze e alle politiche industriali. Da qui il ruolo chiave di un ministero dell’Innovazione, che dovrà essere in grado di rapportarsi agilmente con gli altri ministeri competenti, limitando quanto più possibile la paralizzante proliferazione di comitati che rappresentano le sabbie mobili in cui rischiano di sprofondare anche le più ardite strategie di innovazione. Appuntamento dunque al Digital Italy Summit 2019, dal 26 al 28 novembre, a Palazzo Montecitorio. Roberto Masiero


IL 5G VALE 80 MILIARDI DI PIL: “NON VA RIDIMENSIONATO”

U

n contesto in cui principali operatori, lasciati alle spalle i progetti trial degli ultimi due anni, sono impegnati a pianificare e a realizzare le reti della nuova generazione di servizi mobili. È la sintesi dello studio condotto tra giugno e settembre 2019 da EY per conto di Huawei, allo scopo di analizzare lo stato dell’arte delle reti 5G in Italia. Balza subito all’occhio il dato relativo al bilancio previsto entro fine anno: considerando i piani già annunciati da Tim e Vodafone, i servizi di quinta generazione saranno attivati in nove grandi città, 28 comuni dell’area metropolitana milanese, 30 destinazioni turistiche e una cinquantina di distretti industriali. Saranno, inoltre, una trentina i progetti dedicati a settori verticali, a conferma del fatto che la nuova tecnologia sembri essere “già concretamente identificata come una piattaforma a supporto del business delle aziende, oltre che indirizzata al mercato consumer”, si legge nel report. Secondo tutti i soggetti intervistati, l’impatto del 5G sarà “rilevante” per un ventaglio molto ampio ed eterogeneo di applicazioni, sia in ambito privato sia pubblico. E una parte di queste applicazioni si sta gradualmente consolidando: gli esempi in tal senso riguardano le smart city, la fabbrica intelligente, la telemedicina e la guida assistita. Al netto di rallentamenti del processo di sviluppo, che non sono certo da escludere, EY stima che le reti 5G avranno coperto il 30% circa della popolazione italiana entro il 2020, per superare poi l’85% entro il 2023, anno nel quale si registreranno

almeno 12 milioni di utenti. L’obiettivo è sicuramente ambizioso e lo sforzo che attende gli operatori per raggiungerlo è altrettanto importante: tra costi delle licenze e implementazione delle nuove reti mobili (e di quelle fisse in fibra, funzionali al potenziamento dei collegamenti terrestri delle infrastrutture 5G), le risorse richieste da qui al 2025 sono stimate in circa 25 miliardi di euro. Una cifra ritenuta dagli analisti molto significativa, considerando che le telco nel frattempo non potranno smettere di mantenere e modernizzare i propri network esistenti. I risultati attesi

I ritorni sugli investimenti nel 5G sono comunque molto sostanziosi in termini di customer experience e di accesso a nuove tipologie di applicazioni, e lo sono soprattutto a livello di impatti economici. Il calcolo elaborato da EY indica che la disponibilità di reti e servizi 5G potrebbe generare annualmente un aumento medio del Pil dello 0,3%

a partire dal 2020 e per 15 anni, il che significherebbe tra i 5 e i 6 miliardi di euro aggiuntivi all’anno di valore di produzione (per un totale di 80 miliardi nel periodo considerato). Lo scenario descritto va però letto in funzione della ventilata applicazione del Golden Power, e quindi del possibile “taglio” di alcuni fornitori di tecnologie 5G non Ue (come Huawei) per ragioni di sicurezza nazionale. Se tale restrizione dovesse concretizzarsi, dicono gli intervistati, si genererebbero impatti negativi ad ampio spettro, dal ritardo nell’installazione delle nuove reti agli “extra costi” a cui sarebbero tenuti gli operatori per la sostituzione di alcune componenti delle loro infrastrutture di rete, e proseguendo con il possibile incremento dei prezzi del 5G conseguente alla ridotta competizione tra vendor. In soldoni, si parla di almeno 12-18 mesi di allungamento dei tempi per la posa delle reti 5G, di extra-investimenti per gli operatori quantificabili in circa 4-5 miliardi di euro e della conseguente perdita di una quota inclusa tra 2,9 e 4,3 miliardi sul previsto incremento del Pil. Da tali numeri deriva la conclusione di EY: se non si vuole pregiudicare uno sviluppo rapido del 5G in Italia, perdere una parte considerevole delle ricadute positive sull’economia e compromettere il ruolo delle piattaforme di rete come motore della trasformazione digitale del sistema produttivo italiano, allora è bene che i vendor in gioco rimangano al loro posto. Troppo grande è il rischio che i costi extra risultino insopportabili per il sistema. Piero Aprile

9


PRODUTTIVITÀ, EFFICIENZA E RISPARMIO SUI COSTI: LE AZIENDE CHIEDONO, LA STAMPA GESTITA RISPONDE. Sempre più aziende nel mondo stanno adottando soluzioni di MPS (Managed Print Services)

COSA SIGNIFICA PER UN’AZIENDA RICORRERE A SOLUZIONI MPS?

PERCHÉ NASCONO I SERVIZI MPS? Per monitorare e gestire tutte le risorse di printing in azienda (le pagine stampate, i materiali di consumo, la reportistica) seguendo un modello in cui tutti i processi risultano ottimizzati sulle esigenze produttive.

OBIETTIVI PIÙ IMPORTANTI DA RAGGIUNGERE In termini di parco stampa e gestione documentale, le PMI italiane si prefiggono:

RIDUZIONE DEI COSTI Hardware e consumabili

FATTORI CHIAVE DI SUCCESSO NEL PERSEGUIMENTO DEGLI OBIETTIVI Sono 5 i fattori di soddisfazione che determinano il successo dei servizi di stampa gestita:

Garantirsi il raggiungimento di determinati obiettivi, fondamentali per il successo nel business!

AUMENTO DELLA SICUREZZA Di documenti e stampanti

RIDUZIONE:

- del carico di lavoro sullo staff IT - dell’impatto ambientale

MIGLIORE QUALITÀ E AFFIDABILITÀ DEI SERVIZI

MIGLIORAMENTO: - dei flussi di lavoro - dei costi predittivi - del reporting/analytics

LA SOLUZIONE? BROTHER PAGINE+ È un servizio flessibile ideato da Brother per le PMI: una soluzione di stampa completa che semplifica la gestione del parco stampa e abbatte i costi.

COSTO COPIA CERTO E COMPETITIVO • Report dettagliato di stampa • Tool web incluso per monitoraggio completo

GARANZIA PREMIUM E CONSEGNA AUTOMATICA DEI TONER ORIGINALI • Parco tecnologico di ultima generazione • Funzionamento e ripristino garantiti per tutta la durata del contratto

CONSULENZA STRATEGICA • Per identificare i costi e le criticità dei processi di stampa • Soluzione personalizzata sulle esigenze reali del cliente

• Consegna automatica dei toner nella sede del cliente

Scopri di più: www.brother.it


IN EVIDENZA

l’analisi RICERCA, GOVERNANCE, RISORSE: L’ITALIA DIGITALE È IN CAMMINO Smart Nation Italia è un obiettivo, un punto di arrivo. Alcuni passi sono stati compiuti negli scorsi anni, altri più di recente, vedi l’istituzione del ministero per l’Innovazione e la Digitalizzazione (senza portafoglio) e il varo del Fondo Nazionale per le startup e i venture capital. In questo numero di Technopolis parliamo in modo approfondito di questo argomento con l’auspicio, come sempre, che alle buone intenzioni seguano azioni concrete. Paola Pisano, nel corso della sua audizione alla Camera di metà ottobre, ha illustrato i capisaldi di quello che sarà il suo operato, invitando senza troppi giri di parole tutte le componenti della macchina amministrativa “a fare sistema”. C’è in gioco, a suo dire, il successo del processo di trasformazione digitale della PA e quello di più ampio respiro del sistema Paese. Serve una politica di visione congiunta e serve collaborazione anche con i soggetti privati (aziende, fondi, venture capital), dice convinta la ministra, enfatizzando l’importanza di una nuova governance dell’innovazione, “che rende ordinario quello che prima era straordinario”. Le sue priorità, in ordine sparso, sono Anpr (l’anagrafe nazionale della popolazione residente, che riguarda al momento 30 milioni di italiani ma che dovrà coinvolgere tutti i Comuni italiani e creare una base dati unica per i cittadini), Pago Pa e Spid, i cui numeri attuali sono 4,9 milioni di utenti, nove “identity provider” attivi e circa quattromila servizi integrati. Per

come assicura la ministra, “non sono sufficienti per la trasformazione digitale che ci attende”.

La ministra Paola Pisano ha esposto alla Camera le linee programmatiche per l’innovazione della PA puntando su Spid e Anpr. La relazione 2019 del Cnr ci dice che siamo ancora indietro rispetto all’Europa. dare corso al progetto dell’identità digitale univoca, secondo Pisano, “bisogna ridisegnarne il sistema di attribuzione e di gestione, e questa attività la faremo in collaborazione con il Mef, settore bancario e quello postale”. Tutto perfetto? Ovviamente no, perché c’è un problema di risorse: se per l’Agid è prossimo il rinnovo della direzione e la razionalizzazione di funzioni e competenze, il team che lavora nel ministero dell’Innovazione è di 40 persone e,

Una nuova Agenzia per la ricerca Nonostante una leggera progressione dei dati relativi alla spesa in ricerca e sviluppo in rapporto al Pil (si è passati dall’1% del 2000 all’1,4% del 2016, ancora sotto a una media europea del 2%) e il quadro positivo della produzione scientifica in fatto di brevetti (ambito in cui pesiamo solo per il 2,52% sul totale mondiale) e pubblicazioni, l’Italia si ritrova all’ultimo posto in fatto di fondi pubblici a disposizione dei ricercatori. Non mancano, anzi abbondano, i segnali di miglioramento, ma sono segnali minimi e non tali da poter togliere al Paese la maglia nera che indossa da tempo. Prendiamo per esempio il saldo commerciale nell’alta tecnologia: nell’ultimo decennio il deficit italiano è diventato meno rilevante, ma nel 2018 ammontava ancora a circa 4 miliardi di dollari. Come invertire la tendenza? La ricetta enunciata dal premier Giuseppe Conte non si è fatta attendere: incrementare il finanziamento pubblico per le attività di R&D e istituire una nuova Agenzia Nazionale per la ricerca, che avrà una funzione di coordinamento fra università, enti pubblici e istituti privati. Fare rete: l’innovazione del nuovo governo sembra aver trovato il suo slogan. Gianni Rusconi

OTTOBRE 2019 |

11


IN EVIDENZA

IL PROSSIMO PASSO? IL CLOUD AUTOMATION “Siamo solo all’inizio di quella che possiamo definire digital age”, dice Adrian McDonald, presidente Emea di Dell Technologies, e abbiamo davanti ancora almeno dieci anni di crescita a doppia cifra. Le aziende di ogni mercato e dimensione hanno capito che i due maggiori fattori di successo sono la customer experience che saranno in grado di erogare e il livello di digitalizzazione che riusciranno a raggiungere”. La trasformazione di Dell, prima e dopo l’acquisizione di Emc, ha anticipato (insieme agli altri protagonisti del digitale) la strada che stava percorrendo il mercato: infrastrutture tradizionali e iperconvergenti, sicurezza, intelligent workplace, Big Data, cloud e multicloud sono state le direttrici di uno sviluppo sempre ispirato dalla vicinanza al cliente. “Sono tanti i trend in atto in questo momento”, spiega McDonald. “La trasformazione digitale è un processo complicato e richiede, secondo me, una drastica riduzione del numero di partner a cui affidarsi. Ogni relazione richiede tempo e lavoro, e i manager non si possono permettere di dialogare con troppi soggetti”.

Adrian McDonald

Meno partner e più automazione: questa, per Adrian McDonald, presidente Emea di Dell Technologies, la strada per rimanere competitivi. Secondo McDonald, la fotografia del fenomeno cloud a tre anni sarà composta da un 15% di aziende che avrà scelto una soluzione di public cloud, un 25% ancorato ad architetture legacy e il restante 60% orientato verso l’ibrido e il multicloud. “Anche se nessuno è in grado di prevedere dove andrà il mercato dopo tre anni”, ammette McDonald,

“è abbastanza facile pensare che il multicloud rappresenterà una fetta sempre più grande, il che pone la nostra societò, grazie anche a Vmware e Pivotal, in prima fila tra i partner delle aziende di successo. Inoltre, Michael Dell sostiene che il prossimo passaggio sarà quello del cloud automation, un segmento in cui abbiamo già le migliori competenze sul mercato”. “Nuovi clienti e nuovi partner stanno entrando nel nostro ecosistema” gli fa eco Marco Fanizzi, vice president e general manager enterprise sales di Dell Technologies Italia, “ma soprattutto notiamo un cambio di interlocutori e di relazioni. Prima della digital transformation parlavamo con i Cio, ora anche con i Ceo e i manager del business. In ogni caso, le aziende italiane devono affrontare una sfida ulteriore rispetto a quelle provenienti da aree geografiche più dinamiche: competere con realtà internazionali che facilmente, grazie all’agilità offerta dalle nuove tecnologie, entrano nei nostri mercati. Per vincere, devono investire continuamente in innovazione e non perdere mai il contatto con le Università e, in generale, con le scuole”. E.M.

PER ORACLE ITALIA È IL MOMENTO DI FESTEGGIARE Oracle è arrivata alla fine dell’anno fiscale 2019 superando le aspettative degli analisti, con un fatturato di circa 40 miliardi di dollari a livello mondiale, in crescita dello 3% (a valuta costante) rispetto all’anno precedente, e con un utile netto tra i più alti mai registrati, di oltre 11 miliardi. “Al di là dei risultati, già ampiamente commentati”, ha detto

12 |

OTTOBRE 2019

Fabio Spoletini, country manager di Oracle Italia e senior vice president della regione Sud-Europa, Russia e Cis, “mi preme evidenziare almeno due trend significativi: la crescita del 32% dell’Erp in cloud e il successo di Autonomous Database, con oltre cinquemila progetti trial solo nell’ultimo trimestre”. Tornando ai risultati di Oracle Italia, Spoletini

ha dichiarato che “per la filiale italiana è stato l’anno migliore di sempre”, lasciando intendere che le performance siano state superiori alla media registrata dalla multinazionale californiana. “In Italia abbiamo molti casi di utilizzo dell’Autonomous Database”, ha spiegato Spoletini, “con nomi importanti come Cnp Vita, Sisal e Coca Cola Hbc”.


“IL NOSTRO FUTURO È L’AI COMPUTING” Secondo il Deputy Chairman di Huawei, Ken Hu, la nuova era dell’informatica sarà nel segno dell’ubiquità e dell’intelligenza artificiale. L’intenzione di cedere i brevetti delle tecnologie 5G, prospettata e successivamente ribadita dal fondatore di Huawei, Ren Zhengfei, ha trovato la pubblica approvazione di Ken Hu, deputy chairman del colosso cinese e gran cerimoniere del “Connect 2019” di Shanghai. Al centro dell’evento c’era però l’altra Huawei, quella che guarda al mercato enterprise e che due anni fa ha varato una strategia mirtata alla creazione di un mondo completamente connesso e intelligente, partendo dalla convinzione che reti e computing siano tecnologie inseparabili. L’accento di Hu è caduto in modo mirato su un aspetto: Huawei negli ultimi trent’anni ha investito tanto sulle reti e sui dispositivi, ma il suo orizzonte non si ferma alla connettività. Guarda all’informatica a tutto tondo e alla disponibilità di risorse con elevate capacità computazionali, come trampolino di lancio per aumentare le capacità umane. “Ovunque ci sia una connessione c’è un computer”,

ha detto Hu. “I computer sono sempre più piccoli e potenti e sono già oggi un’estensione di noi stessi.” Il futuro prossimo, nella visione di Huawei, sarà quindi segnato dall’AI computing, e cioè dall’informatica statistica pilotata dagli algoritmi, che tra cinque anni rappresenterà oltre l’80% della potenza di calcolo utilizzata nel mondo. L’intelligenza sarà ubiqua e il computing dovrà essere collaborativo, distribuitto sui device, nel cloud e alla periferia della rete. Sviluppando un business enorme. Secondo Gartner, come ha ricordato Hu, il mercato dell’informatica varrà più di duemila miliardi di dollari nel 2023 e l’azienda di Shenzhen vuole giocarsi questa partita facendo un passo in avanti trasversale: in termini di

architettura di processori, di software (in una logica di ecosistema aperto a cui contribuisce oggi una comunità di 1,3 milioni di sviluppatori, che diventeranno 5 milioni grazie a 1,5 miliardi di dollari di investimenti annunciati) e di sistemi hardware, di cui Atlas 900 è la nuova punta di diamante. Huawei lo ha presentato con il titolo di cluster di autoapprendimento degli algoritmi di AI più veloce al mondo: un supercomputer fatto di 1.024 processori, che renderà l’intelligenza artificiale più fruibile dentro le infrastrutture informatiche delle aziende e in diversi campi della ricerca scientifica, compresa l’esplorazione astronomica, elaborando dati su scala petabyte. Gianni Rusconi

IL SAN RAFFAELE DIVENTA SMART Huawei Italia da una parte e l’Ospedale San Raffaele dall’altra: in mezzo un memorandum d’intesa, siglato a fine settembre, che sancisce l’avvio di una collaborazione finalizzata allo sviluppo di progetti di ricerca del Centro per le tecnologie avanzate per la salute e il benessere dell’istituto milanese. Un

sodalizio a tutto tondo, nel segno delle smart city e dello smart healthcare in particolare, che nel concreto punta a dar vita a un vero e proprio ecosistema digitale cittadino in cui convergeranno tecnologie come l’Internet of Things, la robotica e la connettività pervasiva. Il fine ultimo è promuovere l’adozione di

servizi innovativi per una vita più sana ed ecosostenibile, a livello sia individuale sia collettivo. Nell’ambito della partnership, Hauwei contribuirà anche alla creazione e al consolidamento di una rete di ricerca europea e internazionale e allo sviluppo di competenze locali attraverso il modello del partenariato pubblico-privato.

13


IN EVIDENZA

INSURTECH A PASSO DI CARICA Le startup tecnologiche del comparto assicurativo hanno raccolto negli ultimi tre anni oltre 11 miliardi di dollari. Ed è inziata la sfida fra le "big tech". L’ecosistema delle startup innovative che operano nel mondo assicurativo, su scala globale, ha ottenuto nel corso del triennio 2016-2018 finanziamenti complessivi per 11,2 miliardi di dollari, più del doppio rispetto ai 5,5 miliardi raccolti nel periodo compreso fra il 2010 e il 2015. Lo dice uno studio di Everis e Ntt Data, “Insurtech Outlook 2019”, che conferma di fatto una tendenza decisamente positiva per un settore cresciuto finora nell’ombra del più celebrato fintech. Il ruolo giocato dalle startup tecnologiche rispetto alle compagnie tradizionali (al loro fianco o in alternativa alle stesse) sta dunque diventando sempre più rilevante per ciò che concerne lo sviluppo e la disponibilità soluzioni che possono aumentare la fidelizzazione

del cliente attraverso offerte personalizzate, individuare nuove fonti di ricavo e ottenere maggiore efficienza operativa. Gli investimenti, stando al rapporto di cui sopra, si concentrano principalmente su startup specializzate in servizi cloud e in applicazioni mobili, e a seguire in Big Data, intelligenza artificiale, Internet of Things e blockchain. A correre più velocemente di tutte sono le nuove imprese innovative dell’AI, la cui raccolta fondi è cresciuta del 650% tra i due periodi di riferimento, arrivando a un totale di 1,8 miliardi di dollari di finanziamenti. C’è, più in generale, una seconda tendenza in atto sul fronte degli investitori, dove si sta consolidando la competizione fra le “big tech”: Amazon, Alibaba, Apple, Baidu, Facebook, Google e altri colossi stanno già collaborando con diverse startup con l’idea di farsi spazio nel comparto delle polizze sanitarie o delle piccole imprese, collegando i nuovi prodotti alle rispettive piattaforme e trasformando l’attuale modello di distribuzione.

VELASCA DA EXPORT Si definisce un marchio “nativo digitale” di calzature artigianali made in Italy di qualità. Velasca fine settembre ha chiuso un nuovo aumento di capitale (il terzo dalla fondazione, avvenuta nel 2013) da 4,5 milioni di euro guidato dal venture capital P101 e dal fondo Milano Investment Partners. Nel mirino della società milanese c’è ora il mercato internazionale, con l’obiettivo di inaugurare venti nuovi punti vendita entro il 2022 (Londra e New York le aperture in programma entro gennaio 2020). I fondi raccolti verranno inoltre impiegati per ampliare l’organico, portandolo dalle attuali 35 persone alle previste 120 entro tre anni, e per ottimizzare i processi in chiave digitale e omnicanale.

INTESA SANPAOLO A TUTTO FINTECH L’ingresso nel capitale di MatiPay, startup tecnologica nata all’interno della divisione IoT (Gruppo Angel), con un investimento di sette milioni di euro erogati tramite il Neva Finventures, è un’operazione che certifica la grande attenzione di Intesa Sanpaolo alle nuove realtà della finanza. La banca avrà, infatti, la possibilità di accedere a un nuovo sistema di pagamento che permette ai clienti di fare acquisti

14 |

OTTOBRE 2019

online di prodotti e servizi utilizzando la rete fisica dei lettori di banconote e le gettoniere delle vending machine. Un’operazione in continuità con la strategia di trasformazione digitale del Gruppo, che punta in particolare a sviluppare importanti sinergie in campo mobile e nell’integrazione dei servizi di pagamento via smartphone e ad allargare la propria offerta di strumenti per la gestione del rispar-

mio. Il punto di forza di MatiPay, invece, è una soluzione che consente di sostituire la classica chiavetta “fisica” con un wallet digitale installato sul cellulare, ricaricabile sia attraverso denaro contante (da inserire nei distributori automatici) sia tramite carta di credito. Con la nuova iniezione di capitale, la startup punta ora alla crescita nei mercati di riferimento extra confine, cioè Europa, Giappone e Stati Uniti.


-

l’intervista

È COGNITIVO IL FUTURO DELLA “NUOVA” IBM Enrico Cereda, presidente e amministratore delegato di Ibm Italia, spiega il nuovo corso dell’azienda dopo l’acquisizione di Red Hat.

Sarà la trasformazione digitale, e dunque non il semplice acquisto di hardware, software o servizi destinati a un generico “aggiornamento tecnologico”, a garantire il successo delle aziende negli anni a venire. Un attore storico dell’informatica sta scommettendo su questa visione, accelerando la sua stessa trasformazione per agevolare anche quella dei clienti. Parliamo di Ibm, che in estate ha perfezionato l’acquisizione più importante della propria storia, quella di Red Hat, il più grande vendor al mondo di soluzioni open source con un fatturato di circa tre miliardi di dollari. Un’operazione che, letta in chiave prospettica, può giustificare il nuovo obiettivo strategico del colosso americano da 80 miliardi di dollari di fatturato: sfondare nell’area delle applicazioni missioncritical per alimentare lo sviluppo del computing cognitivo, un business da considerare strategico nel futuro prossimo di Big Blue. Quale sarà il nuovo corso dell’azienda ora che Red Hat fa parte della “famiglia”? Lo abbiamo chiesto a Enrico Cereda, presidente e amministratore delegato di Ibm Italia. Quali saranno gli impatti dell’operazione a livello globale? E in Italia?

L’acquisizione di Red Hat deve essere contestualizzata. Finora il modo in cui le imprese hanno affrontato il digitale è stato principalmente “crearsi una vetrina”, fatta eccezione per poche che si sono invece riorganizzate interna-

mente sfruttando il digitale: tuttavia ci sono ancora molte aziende che pur avendo un portale Internet di rilevanza non hanno cambiato i processi interni. Secondo noi il “capitolo due” dell’evoluzione digitale va oltre l’organizzarsi online per ricevere gli ordini o incrementare l’interazione con il cliente.

Enrico Cereda

E quindi?

Ciò che vedremo nei prossimi anni sarà il cosiddetto “inside-out”: le aziende dovranno cambiare i loro processi interni per adeguarsi a quello che è il mondo del digitale. Questo significa, naturalmente, cambiare anche l’infrastruttura tecnologica e le risorse applicative dell’azienda e portarle in un’ottica cloud, di hybrid cloud, ambiti in cui vediamo un grandissimo potenziale. Da qui l’acquisizione di Red Hat. Come pensate di fronteggiare il rischio di “soffocare il bambino nella culla”?

Questa problematica è stata affrontata acquisendo negli ultimi anni circa un centinaio di aziende. Quando ero nella divisione software negli Usa, avendo seguito l’acquisizione di alcune aziende, si parlava del “blue wash”, un processo di integrazione che veniva utilizzato fino a poco fa. Oggi con Red Hat la parola “integrazione” è vietata: si parla piuttosto di sinergie, perché abbiamo deciso di lasciare che rimanesse una società indipendente, con il proprio brand, con cui ci saranno senz’altro ampie opportunità di collaborazione.

Perché i clienti dovrebbero affidarsi a una Red Hat di Ibm?

Perché noi siamo l’incumbent per molti clienti e quindi, naturalmente, per la sinergia che si può creare con Red Hat, a sua volta il leader del mercato open source. Noi vediamo OpenShift come il middleware nell’ambiente hybrid cloud, poi sotto ci sarà il cloud di Ibm o quello di Amazon, Azure o Google. L’importante è che sopra ci sia uno “strato” di OpenShift. Possiamo parlare di transizione verso una nuova generazione di servizi basati sul cognitive computing?

L’intelligenza artificiale e il cognitive computing sono settori in cui stiamo riportando progressi significativi, soprattutto nell’ambito della augmented intelligence, e lo conferma il fatto che l’unità Cloud & Cognitive sia stata quella con il maggior tasso di crescita nel secondo trimestre. R.M.

15


IN EVIDENZA

SANITÀ NEL MIRINO E PHISHING IN GRAN SPOLVERO NEL 2019

SURFACE SI APRE AD ANDROID C’è sempre una prima volta, anche per i Surface di Microsoft: la linea di portatili ibridi, un po’ tablet e un po’ Pc, si apre al sistema operativo Android. Oltre ai Surface Laptop 3 (da 13 e 15 pollici), Surface Pro 7 (12,3”) e Surface Pro X (12” e supersottile, solo 5,3 millimetri), l’azienda di Redmond ha presentato anche una coppia di dispositivi a doppio schermo, Surface Neo e Surface Duo. Il primo è un tablet abbinabile via Bluetooth a una tastiera e composto da due pannelli da 9 pollici che ruotano su se stessi e in modalità aperta formano un’unica area da 13”. Il secondo è un phablet utilizzabile anche come telefono, racchiuso in due display da 5,6 pollici che insieme ne formano uno da 8,3”. Microsoft lo descrive come “il primo Surface che entra in tasca” e in effetti forse è saggio evitare la definizione di smartphone, dopo l’avventura fallita dei (pur ottimi) telefoni Windows Phone. Di certo i nuovi Surface dimostrano l’eclettismo dei dispositivi mobili che fungono sia da telefono sia da supporto per l’uso dell’email e di altre applicazioni di produttività. Questa volta, anche quelle del mondo Android.

16 |

OTTOBRE 2019

Gli attacchi di cybercrimine, tesi all’estorsione di denaro o al furto di dati, catalogabili come “gravi” nel primo semestre del 2019 sono stati 757, pochi di più (l’incremento si limita all’1,3%) di quelli osservati un anno prima nell’analogo periodo e considerando, naturalmente, solo i casi di cui si ha notizia: questo ha detto l’annuale relazione del Clusit, l’Associazione Italiana per la Sicurezza Informatica. Ma il lieve incremento non deve ingannare: il fenomeno cybercriminale diventa sempre più pericoloso perché si indirizza verso bersagli che dovrebbero essere tutelati nell’interesse di tutti. Nei sei mesi sono stati rilevati 97 attacchi rivolti al settore sanitario, numero che segna un’asscesa del 31% sui livelli della prima metà dei 2018 e che è il più alto degli ultimi otto anni. In generale, è significativo che le

tecniche di attacco più classiche sommate tra loro rappresentino il 63% dei casi osservati: Sql injection, DDoS (assalti che inondano di traffico dei server per metterli fuori uso), vulnerabilità note, account cracking, malware “semplice”, phishing e social engineering. Queste ultime due categorie, in parte sovrapponibili, sembrano essere in grande spolvero: fra il 2018 e il 2019 gli episodi osservati sono sono più che raddoppiati (+104,8%). “Dal 2016”, spiega Andrea Zapparoli Manzoni, membro del comitato direttivo del Clusit e uno degli autori del report, “assistiamo anche alla diffusione di attività cybercriminali spicciole, quali le quotidiane campagne mirate a compiere truffe ed estorsioni realizzate tramite phishing e ransomware, che hanno colpito anche moltissime organizzazioni e cittadini italiani”. V.B.

NOVE ITALIANE FRA LE AZIENDE “TOP” DI DELOITTE Il software fa crescere il giro d’affari. Nell’ultima (edizione 2018) annuale classifica “Technology Fast 500” di Deloitte, un elenco delle aziende tecnologiche che più hanno visto crescere i ricavi nel giro di un quadriennio, spiccano decisamente le software house. La classifica relativa alla regione Emea include anche cinque società italiane che trattano software, ovvero Virali-

ze (Toscana), Eurostep (Veneto), MailUp (Lombardia), Amped (Friuli Venezia Giulia) e BeGear (Campania), mentre quattro si occupano di comunicazione, cioè FiloBlu (Veneto), Across (Piemonte), Young Digitals (Veneto) e Digital Angels (Lazio). Al primo posto in Emea la svedese Strossle International, azienda che vende servizi digitali agli editori online.


MOBILE BANKING SÌ, MA SELETTIVO

TREMA LA MONETA DI FACEBOOK Era partita in pompa magna, con l’annuncio di una rivoluzione nei pagamenti digitali e con una fitta rete di alleanze a sostegno del progetto. Libra, la criptovaluta di Facebook, era stata presentata come una moneta globale che potrà “reinventare il denaro” e “trasformare l’economia mondiale”. Considerando anche Calibra, la controllata della società di Menlo Park creata per gestire Libra, avrebbero dovuto partecipare al progetto una trentina di partner, tra cui aziende che dettano legge nel campo dei circuiti di pagamento (Visa e Mastercard), dei servizi di digital paymant (PayPal) e della sharing economy (Uber). Peccato che in ottobre PayPal abbia fatto marcia indietro, citando presunte “priorità” aziendali a cui dar spazio. A ruota, si sono sfilate dalla lista anche Booking Holdings, eBay, Mastercard, Mercado Pago, Stripe e Visa, mentre tra i 21 rimasti in pista ci sono Uber, Lift, Vodafone, Iliad, Spotify, Coinbase e alcune società di venture capital. Le alleanze traballano e la ragione è intuibile: fin dal suo annuncio Libra è stata travolta da critiche provenienti dal mondo politico, dalle banche e dalle associazioni di tutela del consumatore.

Ancor prima delle defezioni degli alleati, Bertrand Perez, direttore generale di Libra Association, aveva ammesso la possibilità di un ritardo di qualche mese sui tempi di lancio inizialmente previsti (intorno alla metà del 2020). Oltreoceano parlamentari del Congresso hanno preteso chiarimenti sulle regole di trattamento dei dati e avanzato l’improbabile richiesta che Facebook venda Whatsapp e Instagram per ridimensionare la propria portata. Per il ministro delle Finanze francese, Bruno Le Maire, nelle attuali condizioni “non possiamo autorizzare lo sviluppo di Libra sul territorio europeo”, mentre per la Banca Centrale Europea la criptovaluta potrebbe ridurre il controllo della Bce sull’euro, condizionare la liquidità delle banche e addirittura minacciare il ruolo internazionale della moneta unica. Nonostante tutto, in estate lo statuto della moneta digitale è stato depositato a Ginevra, dove ha anche sede la società no-profit Libra Association. In ottobre, poi, nella città svizzera i partner superstiti del consorzio hanno firmato l’atto costituitivo del Libra Council, che avrà responsabilità di governance sull’associazione. Valentina Bernocco

Nel 2014 solo il 37% degli italiani si fidava o era abbastanza aggiornato da usare lo smartphone per accedere a servizi bancari, come il controllo dell’estratto conto e l’esecuzione di bonifici. Nel 2018, invece, quasi sei italiani su dieci (59%) hanno usufruito del mobile banking. Non siamo poi molto lontani dalla media europea (70%), stando a una ricerca condotta da Ing in 15 Paesi su 14.500 intervistati, ricerca che conferma un generale quadro di crescita del fenomeno pur con qualche resistenza. Tra le procedure di login, gli italiani prediligono l’autenticazione a due fattori (apprezzata nel 74% dei casi) e la lettura dell’impronta digitale (72%). C’è invece cautela sull’intelligenza artificiale usata per generare consigli (di investimento, per esempio): solo il 17% delle persone, in Italia, lascerebbe che un software prendesse decisioni al proprio posto.

L’ENERGIA SI PAGA IN BITCOIN Sorgenia è il primo operatore a includere tra i metodi di pagamento supportati la più nota fra le criptovalute: i clienti dotati di conto in bitcoin possono scegliere questa opzione per acquistare oggetti di domotica (smart meter, termostati wireless, rilevatori di Wi-fi) e mezzi di trasporto elettrici (hoverboard, monopattini, skateboard) sia dal sito Web sia dall’app di Sorgenia. La cifra addebitata corrisponde al valore della moneta virtuale al momento della transizione, senza commissioni. Per lanciare il servizio, Sorgenia si è rivolta alla startup romana Chainside.

17


IN EVIDENZA

PER VMWARE, IN ITALIA COLMARE LO SKILL GAP È UNA PRIORITÀ

SAS METTE UN MILIARDO NELL’AI

Secondo un sondaggio condotto da YouGov per Vmware, la tecnologia oggi è al centro della vita quotidiana per il 62% degli intervistati. Ma la ricerca ha evidenziato anche alcune note dolenti, soprattutto sul fronte culturale: il 39% delle persone ammette di possedere una scarsa conoscenza di nuove tecnologie come l’intelligenza artificiale, l’Internet of Things (IoT) o la blockchain. Il 30%, per esempio, crede che l’Intelligenza Artificiale si identifichi con la robotica. “Trasformazione digitale, AI e IoT sono le tre parole chiave che Vmware ha adottato ormai da tempo”, commenta Raffaele Gigantino, country manager di Vmware Italia, “ma non sono semplicemente parole. Pensiamo infatti all’acquisizione di Bitfusion, che possiede la tecnologia per virtualizzare le Gpu, usate in passato per i videogiochi e oggi per l’Intelligenza Artificiale”. Tornando al problema delle competenze, Gigantino ha impresso su questo fronte una decisa accelerazione all’attività della propria azienda. “La cultura digitale è per noi un punto focale della strategia”, spiega, “anche perché esiste un gap tra conoscenza e fiducia che rappresenta un forte potenziale di crescita. Mentre il 40% degli intervistati si dichiara scarsamente preparato, l’85%, ad esempio, ha fiducia nella tecnologia per il supporto alle persone anziane. Pensiamo agli sviluppi futuri della telemedicina, per esempio”. Colmare lo skill gap esistente è una delle priorità di Vmware in Europa, ma lo è ancora di più per la filiale italiana. “Da quando ho assunto il ruolo di country manager ho cercato di dare la massima importanza all’ambito dell’education”, prosegue Gigantino. “Ho fortemente voluto un team dedicato al comparto delle

“Per innovare bisogna disegnare il futuro” è il nuovo mantra di Sas. Non a caso, lo slogan dell’ultimo Sas Forum era “Shape the new”. Marco Icardi, che a giugno ha lasciato il testimone a Mirella Cerutti alla guida della filiale italiana della software house, prevedeva oltre 130 milioni di posti di lavoro creati in tre anni dai nuovi settori dell’It, come la data science. “L’ntelligenza artificiale”, ha dichiarato Cerutti, “è un comparto talmente strategico che Sas ha deciso di rinnovare l’investimento di un miliardo di dollari già realizzato negli scorsi anni”.

18 |

OTTOBRE 2019

Raffaele Gigantino

Guidata dal country manager Raffaele Gigantino, la filiale italiana accelera sulle attività di formazione e sulla collaborazione con scuole e università. Università e della scuola in generale, perché è da qui che arriveranno i leader del futuro, che tra l’altro opereranno in un ambiente completamente diverso da quello che conosciamo oggi”. Lo scorso luglio la multinazionale e la Conferenza dei Rettori delle Università Italiane (Crui) hanno siglato un memorandum d’intesa volto a identificare e realizzare iniziative di formazione congiunte sul territorio: incontri, seminari e lezioni che si terranno nelle principali Università e coinvolgeranno sia studenti sia docenti, spaziando tra le competenze digitali tipiche di Vmware. “Solo così”, conclude Gigantino, “riusciremo a preparare la nuova generazione di specialisti in tematiche difficili ma strategiche, come la data science, le architetture cloud, la sicurezza e l’Intelligenza Artificiale”. E.M.

IL COMPUTING È “INTUITIVO” L’architettura Unified Computing di Cisco compie dieci anni, e sarebbe l’occasione giusta per fare un bilancio di come si sia evoluto finora il mondo delle infrastrutture It. Ma Alberto Degradi, data center leader della multinazionale per il Sud Europa, preferisce guardare avanti: “Gartner stima che tra cinque anni il 75% dei software girerà fuori dai data center privati. È un trend che si affianca ad altri molto interessanti, come il multicloud e l’intuitive computing (cioè quello in cui le macchine gestiscono altre macchine), e che propone una sfida importante all’It moderno. Cioè quella di far da ponte tra il (relativamente) vecchio e il nuovo, ottimizzando le architetture multicloud ed edge”. Chaive, in questa sfida, è l’intelligenza artificiale, aiutata da apparati, come Cisco Ucs C480 Ml, progettati appositamente per far girare algoritmi di machine learning.


pionieri

LA NANOTECNOLOGIA COME FILOSOFIA DELL’ESSERE Sonia Antoranz Contera, docente di fisica biologica all’Università di Oxford, rivela le sfumature segrete della scienza alla base dell’innovazione di domani.

Nanorobot al Dna. Nanoparticelle per l’editing genetico. Materiali nanostrutturati. Non si tratta di paroloni da libro di fantascienza, ma del glossario in fieri della rivoluzione della nanotecnologia, una rivoluzione che permetterà sempre di più di interagire con la materia, manipolarla, addirittura crearla su scala nanometrica. Tra i pionieri di questa scienza, che potrebbe completamente trasformare settori come la medicina, la farmacologia e l’elettronica, c’è la spagnola Sonia Antoranz Contera, docente di fisica biologica all’Università di Oxford e autrice del saggio “Nano comes to life – How nanotechnology is transforming medicine and the future of biology” edito da Princeton University Press. A Technopolis spiega le opportunità offerte dalla nanotecnologia. Lei è una fisica. Che cosa l’ha portata alla nanotecnologia?

Quando studiavo all’università erano apparsi i primi “microscopi scanner”, che permettevano di vedere gli atomi uno per uno. Era l’alba della nanotecnologia. Nel corso della mia tesi di dottorato, in Giappone, mi potei dedicare moltissimo alla manipolazione della materia su scala nanoscopica e mi avvicinai alla biologia, dato che le proteine sono la nanotecnologia della natura. Ovviamente il mio era l’approccio di un fisico: che cosa possiamo imparare dalla biologia per fabbricare la tecnologia del futuro?

gio parlo anche di come pensiamo di creare degli organi artificiali. Certo, manca ancora molto per arrivare a questo punto ma saremo capaci di auto-ripararci meglio: la nanotecnologia combinata con la biologia, la fisica e la matematica ci permetterà di migliorare il sistema immunitario, di individuare prima le malattie e di iniziare a trattarle prima. Cambierà il futuro della medicina e, forse, della longevità. Il nanotech vede un fenomeno inedito: i fisici che si occupano di biologia.

Esatto, la nanotecnologia si può applicare alla produzione di cose inorganiche, ma è anche utile per conoscere la nanotecnologia naturale, per esempio il Dna. Le armi della nanotecnologia, in altre parole, si possono usare per comprendere la biologia su scala nanoscopica. Prima questo era impossibile. La tesi del mio saggio “Nano comes to life” è che i fisici e i nanotecnologi, dal momento in cui hanno cominciato a essere anche biologi, hanno iniziato a cambiare il modo in cui vediamo la materia. Perché da quel momento è stato possibile creare tecnologia a partire dai “trucchi” della biologia e poi utilizzarla in ambiti vari, come la medicina. Può fare qualche esempio della rivoluzione nanotecnologica in medicina?

Grazie alla nanotecnologia potremo costruire materiali che ci aiutino a riparare gli organi danneggiati. Nel sag-

Il suo ragionamento ha anche una dimensione filosofica, è corretto?

Possiamo usare la nanotecnologia per creare tecnologia ma anche per cercare di comprendere noi stessi come parte dell’universo. Non cambierà solo la medicina e altri settori, ma ci offrirà anche l’opportunità di ripensare l’essere umano come parte di un tutto e di cominciare a riflettere su come rapportarci con la natura in un modo che ci permetta di sopravvivere. Si dice che la biologia è un algoritmo biochimico: non è vero. Non siamo separati dalla natura, siamo parte di essa, e questo principio lo attesta la scienza. Perché lei insegna a Oxford?

Oxford e il sistema universitario inglese in generale offrono una cosa unica: se hai idee, anche se visionarie o completamente diverse da ciò che fanno tutti, e dimostri di avere competenze e capacità, ti appoggiano. E questo è meraviglioso. Gabriele Catania

19


TECHNOPOLIS PER WOLTERS KLUWER TAX & ACCOUNTING ITALIA DIGITAL TRANSFORMATION | Perpiciatis

…E ALLA FINE ARRIVÒ L’E-COMMERCE Da società commerciale a campione delle vendite sul Web: questa la straordinaria parabola di Soluzione Ufficio. Con l’Erp Arca EVOLUTION ha potuto gestire una crescita costante.

A volte i destini e le fortune di un’impresa sono legati a un episodio, ma la vera grande abilità sta nel costruire il successo su quell’episodio. Soluzione Ufficio è un’azienda di Sandrigo, nel vicentino, che offre in vendita o in noleggio operativo macchine multifunzione per ufficio, materiale informatico e di consumo, rivolgendosi alle piccole e medie imprese della provincia. Con l’espandersi dell’attività, i venditori entrano in contatto con enti pubblici, Asl, istituti scolastici delle regioni limitrofe e, soprattutto, con l’Università di Padova. Con l’ateneo patavino parte un progetto che sarà la svolta per la società vicentina: Soluzione Ufficio è invitata a costruire un piccolo “mercato digitale”, al quale i dipartimenti universitari potranno attingere per l’acquisto di materiale di consumo ed elettronico. Ecco l’embrione dell’e-commerce. Soluzione Ufficio sviluppa l’idea e affronta il Mepa, Mercato Elettronica Pubblica Amministrazione di Consip. E così Soluzione Ufficio si trasforma in una società “all digital”. Il mercato si amplia, il fatturato cresce e da realtà locale diventa un fornitore a livello nazionale. Oggi l’azienda conta 35 collaboratori, più di 3.000 clienti attivi nelle province di Vicenza e Padova e oltre 12.000 in tutta Italia (suddivisi equamente tra clientela pubblica e privata) e un fatturato che punta ai 60

20

milioni di euro. L’e-commerce è stato davvero un driver della crescita, ma la ricerca di un Erp adeguato alla gestione del successo è terminata solo quando Soluzione Ufficio ha incontrato Wolters Kluwer Tax & Accounting Italia e il suo gestionale Arca EVOLUTION. Arca EVOLUTION permette di alimentare la crescita e la competitività dell’azienda automatizzando tutte le operazioni, integrando e rendendo più efficaci ed efficienti tutte le aree e i processi, da quelli contabili a quelli commerciali, logistici, produttivi, documentali. Questo Erp è in grado di fornire una vasta possibilità di analisi e reportistica, così da avere sempre sotto controllo il business e contribuire al suo andamento sano e sostenibile. Il software è concepito per adattarsi alle esigenze del cliente in maniera flessibile, personalizzata e puntuale, così da non dover cambiare i processi e le abitudini aziendali. Soluzione Ufficio e Wolters Kluwer Tax & Accounting Italia analizzano le necessità operative e insieme discutono, studiano e sviluppano personalizzazioni adeguate sia al business sia all’azienda. Arca EVOLUTION è stato perfettamente adeguato all’e-commerce di Soluzione Ufficio. Il gestionale si è rivelato flessibile e personalizzabile sulla base dei processi aziendali e di esigenze che possono anche nascere e mutare nel corso del tempo. Per esempio, si è reso necessario avere velocemente delle estrapolazioni statistiche elaborabili, che permettono a Soluzione Ufficio il riposizionamento strategico commerciale. La facilità di interazione con il database MS SQL Server, su cui Arca EVOLUTION è costruito, è un elemento fondamentale per l’azienda vicentina, ad esempio per gestire le attività di import ed export di dati per variazioni massive basate sulla categorizzazione di clienti o di prodotti. L’impatto è sulla redditività e sulla marginalità, anziché sull’andamento del mercato. La velocità e la flessibilità dell’Erp risulta essere decisiva. Arca EVOLUTION si dimostra un Erp ideale per la “navigabilità”: il ciclo documentale è facilmente accessibile e si può ripercorrere l’intera storia del prodotto. Le personalizzazioni richieste e rapidamente ottenute da Soluzione Ufficio consentono un tracking preciso e documentato di un prodotto, di un ordine o di una consegna. Soluzione Ufficio è un cliente esigente e propositivo, ma Wolters Kluwer Tax & Accounting Italia è un partner digitale in grado di stare al suo passo con la proposta di soluzioni modulari, personalizzabili e decisamente flessibili.


BANKING & FINTECH

Dieci anni di crisi economica e le nuove direttive europee impongono un cambiamento che non tutte le aziende sono pronte a fare. Le tecnologie su cui puntare e l’opportunità offerte dalle “neobank” e dalle fintech.

È TEMPO PER UNA BANCA POST-DIGITALE?

L’

ultima edizione del Banking Summit di The Innovation Group, tenutasi a Milano il 10 e 11 ottobre scorsi, ha ospitato diversi protagonisti della comunità finanziaria e tecnologica italiana, delle neobanche digitali internazionali e delle fintech. Il contesto di riferimento condiviso è stato il seguente: dopo dieci anni di crisi pressoché ininterrotta, le banche italiane hanno visto ridursi pesantemente ricavi e utili, ampliando sempre di più il gap con gli altri Paesi europei. Il calo è legato a un mix di fattori, che vanno dalla riduzione dei tassi, comune a tutta l’Ue, alla contrazione delle commissioni sui prodotti transazionali (tradizionale fonte di entrate), mentre le difficoltà economiche delle piccole e media imprese, dal 2008 in avanti, hanno inciso negativamente sui volumi.

Sui ricavi transazionali, inoltre, pesano l’introduzione della direttiva sulla trasparenza Mifid 2, che impone alle banche di dettagliare i costi “veri” delle prestazioni dei servizi di investimento, e l’entrata in vigore della normativa Psd2, che genera maggiore competitività sui prezzi dei servizi offerti per via della concorrenza di operatori non bancari. Per le banche italiane è dunque vitale un cambio di passo: se vorranno raggiungere nei prossimi anni livelli di redditività in linea con la media europea, dovranno aumentare di oltre il 20% i propri ricavi o, in alternativa, ridurre del 18% i dipendenti, chiudendo altre filiali. Digitalizzazione: tappa obbligata

Il mercato bancario ha vissuto in anni recenti un cambiamento epocale, che però

è ancora lungi dall’essersi concluso. Serve ridefinire il modello di business, cercando nuove opportunità di crescita ed è probabile che il mercato si dividerà tra chi avrà la forza di rimanere grande e chi si sposterà sempre più sulle nicchie, offrendo diversi livelli di personalizzazione e cavalcando la trasformazione digitale in partnership con le “neobanche” o le aziende fintech. Tutti i piani industriali delle banche italiane indicano una significativa spinta a investire in strategie di digitalizzazione, focalizzandosi però ancora sull’aumento di efficienza: per contro, si sta iniziando con fatica a creare nuovi servizi a valore, a semplificare la relazione con una clientela sempre più esigente e meno fedele e ad adottare nuovi modelli di servizio nei diversi segmenti del mercato. Le banche sono quindi arrivate a un punto di svolta? OTTOBRE

21


BANKING & FINTECH

Alcune sì, altre non ancora. Chi è indietro deve comprendere che digitalizzare non è sinonimo di trasformazione (solo) digitale e che la trasformazione non deve essere l’obiettivo finale ma semplicemente il "prezzo da pagare” per continuare a essere competitivi con i nuovi attori emergenti. La metamorfosi dei comportamenti e delle abitudini dei clienti verrà ulteriormente accelerata dalla combinazione fra le tecnologie già diffuse e quelle emergenti, e cioè intelligenza artificiale, registri distribuiti (blockchain), realtà aumentata, edge computing e altre. L’utilizzo di queste soluzioni sta segnando la nascita di un contesto operativo che possiamo definire “post-digitale”, reso possibile da modelli di banking molto diversi da quelli attuali e in grado di aprire le porte a nuovi attori e a scenari tutti da concepire. La banca post-digitale sarà quindi una “data company” che farà leva sulle tecnologie innovative, che dovrà puntare sul fattore umano quale componente integrante in materia di trasparenza e fiducia e che creerà valore per i clienti attraverso servizi personalizzati, sicuri e on demand, facendo leva su ecosistemi digitali, finanziari e non. I nuovi pilastri del banking

Alla luce delle testimonianze raccolte nel corso del Summit, possiamo affermare come le banche abbiano, sì, intrapreso la strada della trasformazione ma in molti casi si siano focalizzate sulla digitalizzazione dei processi interni, in un’ottica di efficientamento e semplificazione del rapporto con la clientela. La revisione dei modelli distributivi, attraverso la riduzione della presenza fisica con la chiusura delle filiali e l’utilizzo di servizi digitali in una logica omnichannel, è comunque un obiettivo che tutte le banche tradizionali stanno perseguendo. In Italia vivono circa 20 milioni di utenti che si rivolgono anche ai canali digitali, cinque milioni di dei quali si servono ormai solo di servizi di22 |

OTTOBRE 2019

retti e stanno diventando un target per le nuove banche, come N26, Revolut, Penta e Illimity. La Psd2 è una delle priorità di intervento, più dal punto di vista della compliance che non rispetto alle possibilità che la direttiva offre per costruire, grazie alle Api, nuovi servizi basati su modelli di open banking. Servizi che rimangono ancora da esplorare per molte realtà. Un capitolo a parte, inoltre, riguarda le potenzialità di uno degli asset principali delle banche, i dati, da analizzare con avanzate tecnologie di analytics e algoritmi di machine learning. Alcune applicazioni si stanno orientando verso le aree di gestione del rischio e delle frodi, della customer relationship, mentre è sicuramente significativo lo sforzo profuso per utilizzare l'intelligenza artificiale “umano-centrica” sia all’interno della banca sia verso i clienti, per esempio nell'ambito del risparmio gestito. Aggregatore di valore

Trasformazione, infine, significa anche far evolvere l’infrastruttura It. Le piattaforme tecnologiche stanno andando verso il cloud, di pari passo con architetture aperte, modelli operativi agili per lo sviluppo e DevOps per le operations. La banca del futuro post-digitale sarà quindi un aggregatore di valore per costruire soluzioni, un fornitore di consulenza e un facilitatore per l’accesso ai servizi. I suoi pilastri saranno i dati, le Api, l’intelligenza artificiale e il machine learning, le piattaforme cloud-based, la cybersecurity e le capacità di controllo del rischio e della compliance. L’era post-digitale rimodellerà interamente l’ecosistema del banking ma anche aziende, infrastrutture economiche e finanziarie alla base dei rapporti sociali tra i Paesi. Porterà nuove opportunità ma, se regolata in modo non adeguato, anche nuovi rischi. Il caso di Facebook Libra ne è un esempio. Ezio Viola, Amministratore Delegato di The Innovation Group

ILLIMITY VOLA NEL CLOUD È interamente digitale, è realizzata in collaborazione con Fabrick (laboratorio di open banking lanciato da Gruppo Sella) ed è la terza anima di Illimity, società guidato da Corrado Passera già attiva sul fronte dei crediti alle Pmi ad alto potenziale e dell’acquisto dei crediti deteriorati. Illimity Bank opera come aggregatore di servizi e prodotti di terze parti e offre conti correnti e di deposito (con tassi lordi fino al 3,25% per i depositi a 5 anni), pagamenti, carte di credito e di debito sviluppate con Nexi e abilitate ai pagamenti via smartphone, assicurazioni e prestiti personali. “La banca è stata disegnata sulle esigenze reali delle persone e cocreata insieme a loro grazie alla community”, ha spiegato in sede di presentazione Carlo Panella, chief digital operations officer del Gruppo Illimity, sottolineando che saranno messe a disposizione dei clienti “tutte le potenzialità della normativa Psd2”. Alla base opera una piattaforma tecnologica aperta, in cloud, realizzata insieme a Reply e con la consulenza di  Accenture.

Corrado Passera


IN VIAGGIO VERSO IL FINTECH 2.0: OBIETTIVO INTEGRAZIONE Nel Regno Unito la collaborazione tra banche e startup innovative ha raggiunto un livello avanzato, in Italia siamo ancora un passo indietro. Ma la "Sandbox" normativa approvata a giugno e la PSD2 possono imprimere un’importante accelerazione.

P

er il fintech oggi è l’era della collaborazione. La sintesi dell’analisi condotta dall’ufficio studi di BorsadelCredito.it, uno dei principali operatori italiani di peer-to-peer lending per le Pmi (25mila imprese clienti, 4mila prestatori e 65 milioni di euro erogati), è esplicita e rimanda a un concetto ribadito di recente anche da Chris Skinner, fra i più autorevoli esperti al mondo in materia. In un post pubblicato sul proprio blog (The Finanser), Skinner individua e descrive cinque fasi di sviluppo ed evoluzione del fenomeno. Gli esperti della fintech italiana le hanno ripercorse cercando di capire a che punto siamo in Italia, ricordando la vera missione del fintech coniata dall’esperto, e cioè quella di “sfruttare open finance tramite applicazioni, Api e strumenti di analisi”. Si parte dalla fase di disruption, che nel Regno Unito è iniziata nel 2005, anno della fondazione di Zopa, e si è conclusa nel 2014, quando le impresse innovative della finanza hanno capito di dover lavorare con le banche e non sostituirle. Al contempo le banche hanno comprso a loro volta che le fin-

tech stavano facendo cose interessanti e che si poteva lvorare con loro e investire su di loro. Nel nostro Paese, invece, i primi esperimenti di portali nati per disintermediare gli operatori della finanza tradizionale sono del 2015, a conferma della nostra natura di “follower” in campo digitale. La fase due, secondo Skinner, è quella della discussione ed è durata tre anni, dal 2014 al 2017. Un triennio durante il quale sono state create le basi per forme più strette di alleanze tra fintech e banche, sebbene la maggior parte di queste ultime abbia preferito costruire l’innovazione in-house piuttosto che collaborare con soggetti terzi. Oggi, scrive ancora l’esperto, grazie a dedicate misure regolamentari e alla crescita degli investimenti seed, le banche stanno realizzando che le startup non sono una minaccia e la maggior parte delle fintech si sta rendendo conto che non tutte le banche sono stupide. L’Italia, dicono da BorsadelCredito, è proprio in questa fase, grazie anche al Decreto Crescita estivo che ha introdotto il concetto della "sandbox", cioè di uno spazio di azione sperimentale per le nuove imprese. Un vero ecosistema aperto

Nel Regno Unito la terza fase, quella della collaborazione e della cooperazione volta a creare vere e proprie partnership, è invece già partita nel 2017 e si protrarrà, secondo Skinner, fino al 2022. E dopo? Poi scatterà e andrà avanti fino al 2027 la fase di integrazione, caratterizzata dalla completa fusione delle soluzioni fintech all'interno

del sistema bancario, attraverso piattaforme di open banking e open Api. È il cambiamento dettato dalla Psd2, osservano da BorsadelCredito, direttiva che seppur recepita praticamente da ogni legislazione nazionale in Europa (in Italia dallo scorso 14 settembre) vede ancora molte banche impreparate a farne propri i requisiti e gli obiettivi. Dal 2027 in avanti, infine, si entrerà nella quinta ed ultima fase. Una fase che Skinner definisce del rinnovo, perché darà vita al fintech 2.0. Il presupposto è la creazione di un vero ecosistema open banking, fatto di piattaforme e marketplace realmente aperti grazie a Api, app e strumenti di analytics, in cui sarà possibile integrare completamente le attività bancarie, quelle delle imprese della tecnofinanza e le soluzioni delle grandi compagnie tech. Un mondo in cui, osserva Skinner, “la finanza scorrerà sulla rete poiché completamente integrata come un sistema semplice, globale, senza interruzioni, abilitato a Internet e in tempo reale”. Anche in Italia. P.A.

23


BANKING & FINTECH

VIA ALLA PSD2, ECCO LE CONSEGUENZE La nuova direttiva europea è entrata in vigore a metà settembre, aprendo le porte a nuovi servizi digitali integrati con quelli finanziari. Quali sono gli impatti per le banche e gli utenti?

P

ayment Services Directive 2, la nuova direttiva europea volta a creare un mercato unico e integrato dei servizi di pagamento, sarà per le banche una spina nel fianco o un’opportunità? La Psds2, entrata ufficialmente in vigore anche in Italia il 14 settembre, secondo diversi addetti ai lavori stimolerà

24 |

OTTOBRE 2019

le banche tradizionali a modernizzarsi dal punto di vista digitale, portandole a essere più competitive e ad arginare la concorrenza delle fintech oppure a creare con queste ultime delle mirate alleanze. In parallelo, la Psd2 imporrà agli operatori del banking anche nuove responsabilità di tutela dei dati (e indirettamente del denaro) dei clienti, oltre

a una sorta di “apertura forzata” che condurrà gradualmente verso il modello dell’open banking di cui tanto si parla. La direttiva, per il momento, chiede alle banche di aprire le proprie interfacce di programmazione delle applicazioni, le cosiddette Api (Application Programming Interface) alle società terze autorizzate, e quindi anche alle fintech, per


le quali si dischiudono nuove possibilità di accesso a dati di pagamento, nel rispetto però della privacy e dei consensi esplicitati dagli utenti. Questi ultimi, nelle intenzioni dei legislatori, dovranno poter godere via via di una maggiore libertà di scelta, attingendo a servizi di fornitori differenti per trasferire denaro, fare acquisti online, effettuare degli investimenti o richiedere prestiti. Le cosiddette “terze parti autorizzate” potranno usare le Api delle banche per interconnettere le proprie applicazioni o marketplace, creando un ambiente digitale integrato e offrendo nuove e più agevoli user experience. Le banche potranno, a loro volta, adottare servizi “white label” o integrare applicazioni di terze parti all’interno delle proprie piattaforme.

Basta chiavette fisiche, arriva la Sca

Fra i doveri introdotti dalla normativa spicca quello di garantire procedure di verifica antifrode più solide di quelle attuali, sia nelle operazioni di pagamento o di banking effettuate tramite computer sia per quelle che transitano dallo smartphone. In sostanza le banche devono attivarsi per adottare tecnologie Sca, acronimo di Strong Customer Authentication, nei pagamenti effettuati da utenti che accedono da remoto. La Sca, così come intesa dalla direttiva, non potrà più basarsi sulle “chiavette” generatrici di token, uno strumento non soltanto scomodo ma rischioso, poiché la procedura di verifica viene legata a un dispositivo fisico, facilmente smarribile. Bisognerà invece adottare metodi differenti, come l’invio di una “one-time password” all’interno di

un Sms, procedura già da anni sfruttata da molte piattaforme di pagamento. Lo smarrimento dello smartphone potrebbe comunque rappresentare un rischio di login abusivi, dai quali autorizzare operazioni attingendo a una carta di credito o prepagata, ma il problema è risolvibile impostando un codice Pin di blocco del dispositivo. Per completare la truffa, inoltre, un malintenzionato dovrebbe mettere gli occhi su una password “usa e getta” ancora non usata. Che cosa cambia, in buona sostanza, per il consumatore finale a valle dell’introduzione della Psd2? Molto, a cominciare dal debutto di nuove procedure di autenticazione, non necessariamente più macchinose di quelle passate, ma presumibilmente più sicure. Valentina Bernocco

PORTE APERTE A NUOVI RISCHI E TRUFFE Attenzione ai rischi legati alle operazioni di online banking, agli acquisti sui siti di e-commerce e ai trasferimenti di denaro via app: con l’adozione della direttiva europea sui pagamenti e con l’ingresso nell’era dell’open banking potremmo trovarci ancor più esposti a potenziali attacchi informatici e truffe di quanto non siamo stati fino a ieri. Questo, almeno, è l’allarme lanciato dagli esperti di Trend Micro in uno studio che evidenzia i rischi connessi a una cornice normativa destinata a produrre effetti positivi sul mercato. La Psd2, infatti, nasce per promuovere l’innovazione e la sicurezza nelle transazioni via computer e smartphone (vedi l’obbligo delle verifiche di strong authentication a due fattori nelle procedure di login) e incoraggia la competizione e la cooperazione fra banche e società fin-

tech, che potranno accedere alle Api delle banche per connettervi i propri servizi digitali. Per l’utente si stanno dunque prospettando user experience più fluide e interconnesse? Sì, ma a detta di Trend Micro non siamo del tutto preparati a tale ondata di cambiamenti. Le infrastrutture, i software, i metodi di scambio e protezione dei dati presentano infatti delle debolezze. L’open banking allarga la potenziale superficie di attacco, mettendo i dati degli utenti nelle mani di società terze che non sono soggette ai medesimi regolamenti e alle misure di controllo a cui si prestano le banche. E solitamente, si legge nella nota che accompagna lo studio, si tratta di piccole software house, a volte sprovviste di personale interno dedicato alla sicurezza. Altri rischi derivano dalla libertà di accesso alle Api

di banche e delle fintech, dalle applicazioni mobili delle stesse fintech, da sistemi di condivisione dei dati ormai obsoleti eppure ancora in uso e, infine, da componenti software intrinsecamente non sicuri. Un ultimo pericolo, infine, è il phishing: i pirati informatici potrebbero usare le applicazioni di open banking per "agganciare all’amo" le proprie vittime attraverso la casella di posta elettronica. La buona notizia, per i consumatori, è che soltanto una parte delle applicazioni in questione potranno veicolare pagamenti ed essere quindi usate per sottrarre denaro senza passaggi intermedi. Per contro, anche le app che non gestiscono transazioni potranno risultare utili ai criminali per raccogliere informazioni sulle abitudini, sugli interessi e sulla disponibilità economica di potenziali vittime. V.B.

25


BANKING & FINTECH

FINTECH CONTRO CREDIT CRUNCH, LA SFIDA È SOLO ALL'INIZIO Il sistema bancario tradizionale continua a ridurre i prestiti alle aziende, la finanza alternativa le può salvare: la partita si gioca sul tavolo dei rendimenti e della sostenibilità. Ma il vero cambiamento passa attraverso le partnership.

L

e imprevedibili giravolte della nostra politica oscurano al momento importanti quesiti economici della “macchina” Italia. Lo scenario è quello di un sistema bancario che continua a contrarre i prestiti alle imprese: 45 miliardi di euro in meno negli ultimi 12 mesi, 84 miliardi se partiamo da gennaio 2018, una riduzione complessiva del 26% se la calcoliamo dal 2011. È vero che una parte dei capitali non corrisposti erano prestiti in sofferenza cancellati formalmente dai bilanci delle banche, ma il credito buono non ha rimpiazzato, concretamente, quello cattivo. E così sembra si debba continuare per i prossimi anni. Se le banche mostrano sempre minore interesse verso la concessione di credito, può la finanza alternativa accollarsi il peso di sostenere le imprese? La domanda è attuale, per due motivi. Il primo viene dall’estero: nel Regno Unito, dove sono decollate anni prima, le piattaforme fintech riforniscono circa un quarto del fabbisogno delle Pmi locali e hanno campo libero perché le principali banche, nella maggior parte dei casi, si sono dichiarate pronte a formalizzare con

26 |

OTTOBRE 2019

loro partnership strategiche. Il secondo motivo riguarda l’Italia: i “nuovi” attori che hanno avviato piattaforme di lending con il supporto di venture capital e altri investitori in equity non sono più un oggetto misterioso dopo qualche anno di sperimentazione, anche se devono ancora dimostrare buoni risultati su orizzonti statistici significativi e, soprattutto, iniziare a preoccuparsi della sostenibilità dei loro conti. Perché produrre perdite e rifinanziarsi sul mercato italiano non è garantito in eterno. Fra tassi di interesse e tech

Il secondo propulsore del fintech, la tecnologia, resterà un fattore di vantaggio rispetto al sistema bancario tradizionale, che non ha il coraggio (o la possibilità) di disfarsi di infrastrutture informatiche talmente rigide da rallentare l’introduzione dei progetti di digitalizzazione. Le banche, inoltre, lottano anche contro spinte interne che orientano l’adozione degli strumenti digitali molto più verso la riduzione dei costi che non verso la ricerca di soluzioni innovative per i clienti. Un terzo fattore in grado di cambiare equilibri e destini di questo settore è la possibile virata nella politica di prezzi praticata dalle banche, condizionata, semestre dopo semestre, da cali di volumi e di redditività. Prestare denaro alle imprese sane ma con tassi troppo bassi (spesso siamo nell’ordine dell’1%) è scelta discutibile sia per l’effettivo costo del rischio/capitale sia per la salute del bilancio. Le banche potrebbero abbandonare questa illusione e rinunciare a una con-

correnza autolesionistica e, se così succedesse, si aprirebbero maggiori spazi di manovra per la finanza alternativa. Se però le banche si limiteranno a sfiorare con diffidenza i piccoli droni della finanza alternativa, allora faranno pochi progressi verso quella ridefinizione dei loro modelli di business sollecitata persino dalla Banca d’Italia. Dovrebbero, invece, optare per vere partnership per aumentare la velocità di cambiamento e, alla fine del percorso, servire meglio i clienti. Il ritardo nel cambiamento non fa che creare spazi per le cosiddette “neobanche”, soprattutto estere, convinte che tecnologia avanzata e modelli ibridi specializzati in poche attività producano i ritorni sul capitale che le banche tradizionali si sono dimenticate. L’impressione è che, a differenza del passato, l’intero settore finanziario presenti oggi più punti di domanda che certezze. Fabio Bolognini, co-founder di Workinvoice


LA TRASFORMAZIONE DI NEXI PASSA DALL’INNOVAZIONE Il fattore umano e la sicurezza sono le chiavi per l’Ict della società, che è organizzata per supportare le tre business unit ma anche per studiare e applicare le tecnologie di frontiera. Senza sbavature.

I

numeri di Nexi parlano chiaro: la società, insieme alle banche partner, serve 890mila merchant, gestisce oltre 41 milioni di carte, 420mila postazioni di corporate banking e oltre 6 miliardi di transazioni all’anno. La tecnologia digitale, quindi, non è solo un elemento abilitante del business ma anche uno strumento strategico competitivo. È particolarmente interessante capire come la società affronti i temi della digital transformation: lo facciamo con Alberto Tavani, It strategy & governance director di Nexi.

Quali sono le priorità della strategia di innovazione di Nexi?

L’azienda nel suo complesso si sta muovendo lungo quattro direttrici: people and capabilities, qualità e sicurezza, innovazione e delivery e, infine, piattaforme di lead generation. Per quanto riguarda le persone, nell'Ict possiamo contare su circa 350 specialisti che supportano tre distinte business unit. In tema di qualità e sicurezza, abbiamo lavorato sodo per “fissare” i fondamentali della tecnologia. Oggi abbiamo raggiunto quasi il 100% di disponibilità dei servizi “core” e digitali, operiamo 24/7 e gestiamo oltre 150 banche italiane e non abbiamo mai subìto un data breach. Il terzo pilastro è il delivery. In questo momento i servizi Ict supportano le tre business unit (merchant services, cards & digital payments e digital corporate banking) oltre a Mercury Payment Services, che opera soprattut-

Alberto Tavani

to per Intesa Sanpaolo. L’organizzazione della componente tecnologica è tale da assicurare il mirroring delle varie strutture. Negli ultimi anni abbiamo quadruplicato la nostra capacità di innovazione, passando da 500 a 2.200 nuovi rilasci al mese e gestiamo più di 50 progetti strategici di innovazione. L’ultimo è la piattaforma di lead generation, dove conta la logica scalare: siamo guidati da una visione chiara e dal pieno controllo della tecnologia. La governance è quindi di Nexi e combiniamo le best practice di mercato con competenze sviluppate in casa. A quali tecnologie emergenti guardate?

Ci siamo organizzati per centri di eccellenza, sperimentando le metodologie Agile e DevOps, l’intelligenza artificiale, i microservizi. Abbiamo creato all’interno delle strutture delle vere e proprie “fabbriche digitali virtuali”, mettendo insieme persone della tecnologia e persone dal business. Osserviamo con par-

ticolare attenzione il mondo dei canali digitali (mobile, app, e-commerce), le infrastrutture di rete e la sicurezza. Fino a qualche anno fa i data center erano esternalizzati, ora li abbiamo portati in casa: NexiBlue è il nuovo data center di ultima generazione. Gestiamo oltre 4,5 petabyte di storage e abbiamo portato da 2.800 a 8.000 il numero di server in meno di tre anni. Stiamo innestando, infine, servizi di AI nelle attività di contact center ma anche strumenti basati su analytics per il marketing e la manutenzione predittiva degli Atm. Quanto investite in innovazione?

Negli ultimi due anni abbiamo speso oltre 325 milioni di euro in tecnologia. Il digital transformation Capex è pari al 7%, la stessa percentuale della spesa in sicurezza. E il costo della tecnologia sui ricavi è passato dal 19 al 17%. Che cosa fate per proteggere i dati degli utenti e delle transazioni?

Tutto quel che riguarda la cybersecurity è per noi un’esigenza massima: in tutti i settori (compreso il canale di contatto con i clienti finali) abbiamo politiche molto stringenti. Ci occupiamo di presidiare sia l’ambiente esterno sia quello interno, basandoci anche su Soc (Security Operation Center) di nuova generazione. Ma il lavoro più importante che facciamo è migliorare la cultura aziendale, attraverso un osservatorio costante, campagne interne e formazione continua. E.M.

27


TECHNOPOLIS PER SB ITALIA DIGITAL TRANSFORMATION | Perpiciatis

AGEVOLE: LA TRASFORMAZIONE DIGITALE RESA SEMPLICE E per questo che è nato Agevole? Per la verità Agevole è il frutto di quattro anni di lavoro. Per realizzarlo ho messo insieme due team di ricerca e sviluppo: quello dedicato al software gestionale e quello che in azienda si occupa di trasformazione digitale. L’idea era di realizzare qualcosa che fosse dieci anni avanti rispetto agli strumenti a disposizione quando siamo partiti.

Massimo Missaglia, amministratore delegato di SB Italia

SB Italia inaugura la nuova era dell’Erp con un gestionale poggiato al 100% sul Web e utilizzabile da qualsiasi dispositivo. SB Italia arriva da una lunga storia di software Erp, realizzati su architetture client/server Microsoft. Quattro anni fa la decisione di voltare pagina, o meglio di affiancare all’offerta tradizionale qualcosa che fosse in linea con la crescente richiesta di strumenti atti ad accompagnare la Digital Transformation, che le aziende italiane iniziavano ad approcciare. Ne parliamo con Massimo Missaglia, amministratore delegato di SB Italia. Qual è la situazione di mercato nel segmento Erp in Italia? Il giro d’affari prodotto dalle licenze (non dai progetti) del mercato Erp italiano vale un miliardo di euro. L’intero settore è ripartito ma la cosa non stupisce, perché è un comparto che è sempre stato un passo indietro rispetto ad altri più dinamici. Molto ha fatto l’obbligo di fatturazione elettronica ma ancora di più, secondo il mio parere, sta facendo l’esigenza ormai irrinunciabile di procedere nel percorso di trasformazione digitale. Più prosaicamente, infine, molte aziende si sono poi rese conto che continuare a lavorare con le vecchie tecnologie, cercando di realizzare programmi gestionali efficienti, era diventata un’impresa impossibile. 28

E ci siete riusciti? Abbiamo realizzato un software che funziona totalmente in cloud in modalità Saas (Software as-a-Service), una caratteristica che in altri ambiti verrebbe probabilmente data per scontata ma che nel settore dell’Erp è una rarità. Agevole può essere utilizzato facilmente da qualsiasi personal computer o altro dispositivo digitale (tablet e smartphone) via browser oppure attraverso una'app: insomma, è completamente multi-device. Senza falsa modestia penso che la nostra azienda sia riuscita a concretizzare in un prodotto software il concetto di smart working, sfruttando appieno le potenzialità del mobile e del Web. Quali altre caratteristiche ha il software? È estremamente facile da configurare, in modo da ridurre i costi di startup e di gestione. Inoltre nasce come Erp orizzontale, ed è quindi personalizzabile rapidamente ed efficacemente, adattandosi alle esigenze della singola azienda e accompagnandola nel lungo e delicato processo di trasformazione digitale. Gli aggiornamenti periodici non vanno a intaccare le funzionalità sviluppate ad hoc, facendo calare drasticamente i tempi e i costi di manutenzione. Infine, sfruttando il Web, si interconnette facilmente e in totale sicurezza con altre applicazioni. Che risposta vi aspettate dal mercato? Abbiamo già un ottimo riscontro dai clienti. L’area Erp dell’azienda sta crescendo rapidamente ma abbiamo davanti un lavoro enorme, a partire dalla migrazione degli attuali sistemi gestionali. Ci aspettiamo un tasso di adozione molto alto, perché la personalizzazione non prevede la scrittura di codice e sfrutta funzionalità sviluppate in più di vent’anni di esperienza e di lavoro a fianco delle imprese italiane.


SMART MANUFACTURING

OGGETTI E FABBRICHE 4.0, MA SOLO CON GLI SKILL Le ricerche mostrano come il gap di competenze sia il maggior freno alla diffusione di soluzioni "smart" per l’industria. La scarsità di conoscenze fa più paura del costo dell’energia e dell’apparato legislativo e regolatorio.

L

a fabbrica intelligente, intesa non solo come luogo fisico ma come processo allargato che parte dal concepimento del prodotto e arriva al suo smaltimento passando per la manutenzione, è sicuramente uno dei trend chiave del 2019. Anche in questo caso, come per altri fenomeni tecnologici, molti ostacoli alla diffusione delle soluzioni sono stati abbattuti grazie all’arrivo sul mercato di paradigmi e architetture sempre più diffusi, come il cloud, l’intelligenza artificiale, l’Iot (anche nella sua versione industriale Iiot), la realtà aumentata e tra poco anche il 5G. Il progresso in questo ambito è andato così veloce che perfino la definizione di Industry 4.0 ora va stretta in molti contesti, dove si preferisce parlare generica-

mente di Smart Manufacturing o addirittura di Smart Connected Products, cioè oggetti in continuo dialogo con gli esseri umani, con le macchine e con altri oggetti. Uno scenario che ha attirato l’uno verso l’altro due comparti da sempre limitrofi ma anche poco permeabili tra loro, come l’Information Technology (It) e l’Operation Technology (Ot), con i principali protagonisti del primo mercato che nel corso del 2019 hanno fatto annunci a raffica in ambito manufactoring (parliamo di Oracle, Sap, Microsoft, Lenovo, Dell Technologies tra i tanti e in ordine sparso). Si dà talmente per scontato che l’incrocio tra It e Ot rivoluzionerà sia le fabbriche sia la società stessa in cui viviamo,

che il focus negli ultimi mesi si è spostato sul fattore umano, cioè sulla valutazione dell’impatto di queste tecnologie sul tessuto sociale, e in particolar modo sulla risposta di scuole e imprese alle nuove richieste di skill, talmente dinamica da risultare ormai difficile da prevedere anche nel medio periodo. La sfida degli skill è stata il tema dell’ultimo World Manufacturing Forum, che ha avuto luogo a Cernobbio e che ha evidenziato, tra le tante cose, come proprio lo skill gap sia visto come il maggior impedimento agli investimenti in automazione (da oltre il 70% degli intervistati in una ricerca di European Investment Bank), più di fattori come la burocrazia, le leggi sul lavoro e il costo dell’energia. Emilio Mango OTTOBRE 2019 |

29


SMART MANUFACTURING

ENTRIAMO NELL'ERA DEI PRODOTTI "INTELLIGENTI" E CONNESSI

I BONUS DI INDUSTRIA 4.0

Classe 1964, Jim Heppelmann è un appassionato tecnologo. È alla guida di Parametric Technology Corporation (Ptc), una multinazionale che conta circa seimila dipendenti e che si trova oggi in una posizione privilegiata, vale a dire al centro dell’incrocio tra i mondi It e Ot. Heppelmann ha tenuto un interessante keynote allo Smart Manufacturing Forum, tenutosi quest’anno a Cernobbio, centrato sulle prospettive di crescita ed evoluzione delle aziende manifatturiere grazie alla trasformazione digitale. Lo abbiamo incontrato ai margini dell'evento per capire meglio che cosa aspettarci dal futuro dell’industria.

L’impegno è stato ufficializzato a fine settembre a mezzo stampa, direttamente dal ministro dello Sviluppo Economico, Stefano Patuanelli, che si è dichiarato pronto a spalmare gli sgravi fiscali previsti dal piano Industria 4.0 su ulteriori tre anni. Nel momento in cui scriviamo la nuova legge di Bilancio è in discussione in Consiglio di Ministri e quindi non sappiamo se le buone intenzioni di prolungare la vita agli strumenti che incentivano gli investimenti in tecnologia delle aziende manifatturiere troveranno effettiva concretezza. Ci atteniamo quindi all’idea professata dal neo-ministro, quella di rimodulare le misure esistenti anche in chiave “Green New Deal”. L’industria, o per meglio dire la trasformazione digitale dell’industria, dovrebbe essere al centro della nuova Manovra perché il Mise la ritiene (come è giusto che sia) la spina dorsale del Paese. L’idea a tendere di Patuanelli è quella di rendere strutturali i provvedimenti o, nella peggiore delle ipotesi, di estenderli per almeno tre anni. Nel dettaglio, il ministero vorrebbe coniugare i bonus in una logica di maggiore sostegno alle piccole imprese attraverso alcune premialità legate all’innovazione nelle filiere, così da raggiungere tutto il tessuto produttivo, anche quello maggiormente periferico dal punto di vista geografico e non solo. L’altro aspetto prioritario, per altro già previsto dal piano originario, è la formazione necessaria per accompagnare nella trasformazione tecnologica chi lavora nelle fabbriche.

Che scenario abbiamo di fronte se parliamo di smart manufacturing?

Siamo nell’era degli smart connected products, un’era in cui persone e cose saranno connesse senza distinzione. Per questo ci vogliono fabbriche intelligenti, macchinari intelligenti e lavoratori intelligenti. Molti associano a questa nuova rivoluzione a rischiose ricadute sull'occupazione...

Al contrario, le tecnologie aiutano e aiuteranno i lavoratori, rendendo sempre più disponibili le informazioni necessarie per svolgere con efficacia ed efficienza i loro compiti. Le società come la nostra aiutano le aziende a mettere in connessione le persone e le cose, favorendo al contempo la trasformazione digitale e la relativa cultu-

30 |

OTTOBRE 2019

ra, indispensabile per dare ai dipendenti gli skill necessari. La diversità dei linguaggi usati dall'It e dall'Ot può essere di ostacolo?

Questa sicuramente è una sfida da vincere, perché molte aziende si sentono da una parte o dall’altra della barricata. Per noi è facile, perché nel tempo abbiamo acquisito molte aziende del mondo Ot, e anche la partnership con Rockwell rientra in questa strategia di dialogo tra i due mondi. Quale tecnologia farà fare il prossimo salto al manufacturing?

Sicuramente l’applicazione delle tecnologie di intelligenza artificiale all’Internet of Things e alla realtà aumentata sono i due fenomeni che al momento mi sembrano più interessanti. L'Ar, in particolare, esploderà sicuramente e avrà un impatto enorme quando, fra non molto, gli smart glass saranno più comodi da indossare e gradevoli da vedere. Come percepisce la realtà industriale italiana?

Le aziende con cui sono entrato in contatto mi sono parse decisamente interessanti nelle loro strategie di trasformazione digitale, a tratti perfino aggressive nel modo in cui usano la tecnologia. Mi sembra di poter dire che le imprese italiane, soprattutto di dimensioni medie cioè quelle più significative nel vostro tessuto, stiano cercando di differenziare i prodotti e servizi ma anche di aumentare la competitività grazie alle nuove tecnologie.


A BOSTON VANNO IN SCENA LE MERAVIGLIE DELLA REALTÀ AUMENTATA Le tecnologie smart già esistono e stupiscono. In Italia, secondo Ptc, qualcosa si muove, ma anche nel manufacturing rimane dell'individualismo. Il principale limite della nostra imprenditoria.

Jim Heppelmann

9

.500 partecipanti da 74 Paesi. Basterebbero questi due numeri a descrivere l’interesse per un settore, quello dello smart manufacturing, in cui stanno convergendo tecnologie e soluzioni da diverse aree dell’hitech. Sono i numeri di "Live Worx 2019", l’evento annuale organizzato da Ptc a Boston, che raccoglie il gotha di vendor It, Ot, partner e clienti. A parte le novità di prodotto annunciate “in diretta” da Ptc - tra cui la soluzione Thing Worx Industrial IoT, l’estensione della piattaforma Plm Windchill e la rinnovata spinta per Vuforia, la soluzione di realtà aumentata della multinazionale -, le cose più interessanti viste a Boston sono state il grande coinvolgimento di società di consulenza come Deloitte e Accenture e i casi di successo di aziende come Beneteau e Volvo, che hanno mostra applicazioni concrete di “trasformazione digitale” in ambito manufatturiero, in particolare con le tecnologie si realtà aumentata (Ar). “Il momento è topico”, ha detto Jim Heppelmann, Ceo di Ptc, dal palco di Live Worx, “perché oggi si incontrano macchine e digitale (nell'IoT), digitale e umano (nell'Ar) e processi connessi e smart. Insomma, una specie di tem-

pesta perfetta, dove uomini connessi (e si suppone intelligenti) dialogano con oggetti intelligenti e con processi intelligenti”. Il risultato, come testimoniano i numerosi casi presentati a Boston, è un grande recupero di efficacia ed efficienza non solo nelle attività di produzione e di logistica, ma lungo tutto

il ciclo di vita del prodotto, compresa l’ormai onnipresente manutenzione predittiva. “Il segmento Ar di Ptc cresce del 60% anno su anno, l’Iot del 40%”, ha dichiarato Paolo Delnevo, vice presidente per il Sud Europa di Ptc, anch’egli presente a Boston. “Sono numeri significativi, anche se parliamo di fenomeni relativamente giovani. Quello che si nota è una decisa ripresa dell’interesse per lo studio dell’evoluzione delle interfacce uomo-macchina, che per qualche anno era stato ingiustamente messo da parte: l’essere umano, in particolare, è di nuovo al centro della strategia che considera l’individuo, il prodotto e il processo. In Italia siamo passati dai proof-of-concept ai progetti reali, anche se i numeri sono ancora bassi. Forse anche a causa della solita cattiva abitudine, tutta nostrana, di considerare solo il proprio orticello sia a livello di aziende sia di centri di competenza, invece di fare squadra come succede ad esempio in Germania”. Emilio Mango

31


SMART MANUFACTURING

La realtà aumentata, o meglio ancora la sua variante denominata “realtà mista”, si candida a essere una fra le tecnologie che avranno nel prossimo futuro il maggiore impatto non solo sul business, ma anche sul tessuto sociale dei Paesi più sviluppati.

MIXED REALITY, UNA SCOSSA PER LA MANUTENZIONE

S

econdo Research and Markets, il comparto che fa riferimento alla realtà aumentata crescerà del 65% all’anno fino al 2024. Le previsioni più ottimistiche si spingono a ipotizzare che nel 2022 il giro d’affari sfiorerà i 210 miliardi, tenendo conto non solo delle vendite di hardware e software ma anche di tutte le applicazioni correlate a queste tecnologie. Sono numeri importanti, che motivano l’impegno dei big in un settore, quello dei visori di realtà virtuale e aumentata (VR e AR), che fino a oggi ha vissuto tra luci e ombre, con prodotti annunciati e mai arrivati sul mercato e con vendite deludenti: Microsoft con HoloLens, Google con Google Glass e Facebook con Oculus Quest (ma limitato alla VR) sono a pieno titolo già sul mercato, mentre voci 32 |

OTTOBRE 2019

di corridoio danno Apple in recupero. Ma le implicazioni più importanti per il business e per la società arrivano dalle prospettive di crescita della realtà mista, che grazie alla potenza di calcolo oggi disponibile e alle prime applicazioni di intelligenza artificiale lascia intravedere scenari di grande impatto. Prendiamo ad esempio la manutenzione di impianti e apparecchiature. Grazie alla realtà mista (che, ricordiamo, consente di interagire con un ambiente formato sia da oggetti reali sia virtuali, che si relazionano seguendo le leggi della fisica) infatti, un individuo dotato di buona manualità potrebbe riparare un motore di un camion (è un caso concreto, già in fase avanzata di sperimentazione e abilitato dalla tecnologia Ptc Vuforia) semplicemente seguendo le istruzioni che appaiono sul

proprio visore, inviate da remoto da un operatore specializzato che sta dall’altra parte del mondo. In una fase successiva, le istruzioni potrebbero arrivare da un sistema esperto, in grado di dialogare direttamente con il motore. Sono evidenti sia le implicazioni di business, vale a dire i vantaggi derivanti dalla manutenzione predittiva e dalle semplificazioni logistiche (non c’è necessità di prevedere lo spostamento dei tecnici), ma lo sono anche le implicazioni sul mondo della formazione e del lavoro: probabilmente in un futuro non troppo lontano non ci sarà più bisogno di tecnici specializzati, perché la maggioranza delle attività di manutenzione potrà essere realizzata contando sull’auto-diagnosi delle macchine (connesse in rete) e sull’intervento di sistemi esperti. E.M.


TECHNOPOLIS PER TREND MICRO

LA PROTEZIONE DEI DATI? CON LA SECURITY BY DESIGN Lo scenario delle infrastrutture e delle minacce si evolve velocemente. Trend Micro propone una soluzione sempre valida: la sicurezza incorporata nei sistemi. Gastone Nencini, country manager di Trend Micro Italia

se fatta male può essere pericolosa. Il dubbio che abbiamo da anni è che tutte queste tecnologie vengano utilizzate più che altro su piattaforme mobili, che mostrano ancora seri problemi di sicurezza. Continuiamo a scoprire negli store migliaia di app potenzialmente dannose, soprattutto per la scarsa conoscenza e attenzione degli utenti: spesso siamo noi stessi che autorizziamo app che non conosciamo bene ad accedere ai nostri contatti. Un domani potranno andare a leggere i nostri dati bancari. Come si distingue l’approccio di Trend Micro? Il concetto su cui puntiamo è quello della “security by design”, un principio molto difficile da realizzare quando il business guida le scelte e in qualche modo fagocita le tecnologie. La sicurezza, infatti, porta via tempo e aumenta i costi iniziali di progetto, quindi non è quasi mai nelle corde di chi sta per presentare al mercato un nuovo dispositivo.

La direttiva europea PSD2 è solo l’ultimo dei tanti cambiamenti che tracciano il profilo via via più liquido del nuovo mondo digitale. Le nuove regole concretizzano il concetto di open banking grazie all’apertura delle API bancarie a soggetti terzi autorizzati, che possono così proporre ai clienti finali nuovi servizi e prodotti. Ma qual è il punto di vista di chi è impegnato quotidianamente sul fronte della sicurezza dei dati e delle infrastrutture? Lo scopriamo con Gastone Nencini, country manager di Trend Micro Italia. Qual è il vostro parere sulle nuove normative PSD2? La richiesta da parte del legislatore di un livello di sicurezza ancora più elevato a seguito dell’introduzione della PSD2 è positiva. Anche nel caso dei pagamenti elettronici, come già successo in passato in altri momenti di discontinuità, è però importante capire come questa sicurezza venga implementata. Nel nostro settore, infatti, spesso le innovazioni tecnologiche rincorrono quello che il business e le normative impongono, e non si ha mai tempo di analizzare in modo approfondito i rischi dell’immissione sul mercato di strumenti nuovi. La nostra analisi sul fenomeno PSD2 ci ha consentito di capire, ad esempio, che il doppio sistema di autenticazione è un’idea valida, ma una cosa è progettarla sulla carta un’altra è portarla sul mercato. Nel caso dei programmi di interfacciamento (API) messi a disposizione di terzi (servizi, provider, e-commerce) va tenuta costantemente sotto controllo l’integrazione, perché

Può fare un esempio? Se, al lancio di un nuovo processore, si riuscisse a inserire nel firmware una soluzione che possa crittografare il dato in modo nativo, avremmo aumentato la sicurezza. Ecco, penso che si debba andare a ridurre le superfici di attacco in questo modo e chiudere le porte all’origine. Come dicevo, però, “security by design” è un concetto affascinante, ma i tempi di sviluppo sono molto lunghi. Trend Micro già tre anni fa ha realizzato uno spin-off che ha come missione il finanziamento di progetti di “security by design”, soprattutto nel settore IoT ma senza dimenticare le vulnerabilità che tecnologie nuove come container e cloud aprono nel perimetro di difesa delle aziende. Insomma, Trend Micro c’è e cerca di aiutare gli utilizzatori con una serie di prodotti studiati ad hoc per questi nuovi mondi. In attesa della sicurezza “by design”, come si possono difendere le aziende? Per quanto riguarda le infrastrutture già esistenti, esistono strumenti di difesa molto efficienti come la tecnologia Trend Micro XDR, uno strumento di “cross detection and response” che utilizza anche algoritmi di Intelligenza Artificiale e di analisi dei big data per sconfiggere le minacce più insidiose, quelle ad esempio che ricadono della categoria “Zero Day”. Noi facciamo tutti questo in un ambiente integrato, che comprende anche i mondi cloud e mobile.

33


STARTUP & PMI INNOVATIVE

CON MENO BUROCRAZIA IL VENTURE CAPITAL VOLA Lo stato dell’arte e il futuro prossimo del capitale di rischio in Italia secondo Alessio Conforti del Fei, il più importante finanziatore dell’ecosistema europeo dell’innovazione.

“L’

Italia sconta un ritardo strutturale nel venture capital, e per questo ha accumulato uno svantaggio sia dal punto di vista dimensionale sia da quello normativo. Almeno sul primo fronte, però, stiamo però recuperando terreno mentre si procede lentamente sul secondo, anche se qualcosa si muove all’orizzonte”. Parole di Alessio Conforti, head of institutional client relationships del Fondo Europeo per gli Investimenti (Fei). Parole raccolte a fine estate da P101, 34 |

OTTOBRE 2019

fondo di venture capital che ha investito in alcune delle startup tecnologiche italiane più note, come BorsadelCredito.it, Cortilia, Milkman, Musement, Tannico e Vitaminic. L’analisi del manager è quanto mai importante perché arriva da un osservatorio privilegiato, cioè quello di un organismo (il Fei per l’appunto) che negli ultimi vent’anni è stato il maggior erogatore di capitale di rischio alle nuove imprese innovative, incidendo nella misura del 41% sulle attività complessive di investimento nel Vecchio Continente.

La fotografia che Conforti ha scattato dell’Italia è sicuramente a tinte positive e riflette quel cambio di passo qualitativo e quantitativo che, anche a suo dire, l’ecosistema dell’innovazione nostrano ha compiuto nel 2018: l'anno scorso il valore dei finanziamenti distribuiti alle startup è arrivato a 600 milioni di euro, contro i 130 milioni della media dei precedenti sei anni. “Il Fei”, ha spiegato, “lavora con tutti i Paesi ma non segue una logica di quote: va alla ricerca delle migliori opportunità ovunque esse siano, e questo perché i fondi che gestisce hanno natura pubblica, essendo di provenienza della Banca Europea per gli Investimenti o della Commissione Europea. Se le best practice sono in Italia ci andiamo, come andiamo ovunque ci sia valore nelle imprese”. La qualità delle nostre aziende, dunque, non è inferiore a quella di altre nazioni ma il nostro Paese parte svantaggiato per un altro motivo e cioè perché, puntalizza Conforti, sono mancati i “momenti di condivisione per trasferire e comunicare la conoscenza delle nostre startup. Pur non avendo ancora i volumi di Francia o Germania e soprattutto del Regno Unito, l’Italia esprime un potenziale di innovazione interessante, è una realtà rilevante e, dal punto di vista qualitativo, lo è sempre stata”. Un percorso ancora lungo

Da settembre 2017 il Fei ha aperto la raccolta degli investimenti anche a controparti private, come i fondi pensione


e le assicurazioni. La sua opera diventa supporto concreto per lo sviluppo delle nuove imprese attraverso l’intermediazione di banche e altri soggetti, come i fondi di venture capital scelti attraverso un processo di due diligence. L’accuratezza degli interventi sul mercato italiano è quindi “certificata” a doppia via e si specchia nel giudizio positivo che Conforti dispensa sull’ecosistema nazionale: “Vediamo miglioramenti che ci fanno ben sperare: dobbiamo supportare l’Italia perché il percorso non si interrompa e diventi, anzi, uno strumento di crescita del Paese. Proviamo a far capire che l’analisi di due diligence da noi richiest ai fondi non è un’indagine, ma uno strumento utile per apportare migliorie al business case ed essenziale affinché il venture capital cresca in termini di base. Il percorso è tuttavia molto lungo, perché passare ai numeri di Francia, Germania e Inghilterra implica un cambiamento di paradigma”, ha osservato ancora il manager. Le misure, soprattutto di natura fiscale, introdotte nella Legge di Bilancio 2019 invece non lo scaldano più di tanto. E per una ragione ben precisa. “Al di là delle misure mirate che possono essere anche efficaci nell’immediato, in Italia esistono zavorre burocratiche che impattano negativamente sull’effettiva crescita dell’ecosistema, e mi riferisco per esempio ai canali di accesso al capitale e alle regole di vigilanza. Anche creare fondi con una capienza enorme, che poi avranno difficoltà di assorbimento sul mercato, può rivelarsi un boomerang: se la capienza del mercato delle startup è di 600 milioni, pensare a un progetto ambizioso da quattro miliardi può essere un controsenso”. La priorità, secondo Conforti, è dunque un’altra, probabilmente non facile da soddisfare: “facilitare prima la parte normativa, per stimolare il mercato e gli investitori anche internazionali a investirvi sempre di più”. Piero Aprile

SBLOCCATO IL FONDO DEI FONDI Dopo circa sei mesi dall’annuncio di Luigi Di Maio dello scorso marzo, il Fondo Nazionale per I’Innovazione è finalmente diventato realtà. Lo si aspettava per giugno, è stato materialmente costituito in agosto (con la cessione da parte di Invitalia a Cassa Depositi e Prestiti della partecipazione del 70% del capitale di risparmio Invitalia Ventures Sgr) e da settembre è ufficialmente in vigore. Il suo fine è noto: essere una delle leve strategiche per far diventare l’Italia una nazione “smart”, favorendo lo sviluppo dell’ecosistema delle startup e delle Pmi innovative attraverso investimenti diretti in minoranze qualificate del loro capitale. La gestione del fondo è dunque affidata a Cdp, che si occuperà di coordinare tutti gli aspetti finanziari attraverso un “fondo di fondi”, gestito da Banca d’Italia o da società autorizzate. La dotazione iniziale è di un miliardo di euro, somma dei 90 milioni di euro direttamente stanziati nella manovra

di Bilancio 2019, dei 440 milioni garantiti da Invitalia Ventures e dei circa 470 milioni di investimenti in venture capital che Cdp verserà nel nuovo veicolo. Lo strumento operativo di intervento del Fondo è soprattutto il venture capital (Vc), che negli ultimi dodici mesi (dopo un 2017 di “riflessione”) ha trovato una sua traiettoria di crescita, ma che deve ancora raggiungere i livelli del contesto internazionale. Sarà in ogni caso Cdp a muoversi in cabina di regia, con “l’obiettivo di riunire e moltiplicare risorse pubbliche e private dedicate al tema strategico dell’innovazione”. Il punto focale sono, manco a dirsi, le risorse che verranno erogate e rese disponibili nel Fondo: fra i dividendi delle partecipate dal Mef (il cui contributo sugli utili è stato ridotto dal 15% al 10%), i Pir (Piani individuali di risparmio) e i capitali raccolti da Cdp, si arriverà a garantire la dotazione prevista per aiutare i Vc a fare il passo in avanti decisivo?

MEZZO MILIARDO PER IL CROWDINVESTING Equity crowdfunding e p2p lending al raddoppio: a fine giugno di quest’anno i finanziamenti in quote di capitale raccolti online hanno superato la soglia degli 82 milioni di euro (un anno prima erano meno della metà), mentre i prestiti erogati a imprese e persone fisiche sono arrivati a quota 435 milioni, circa due volte la cifra distribuita a metà 2018. Nel complesso parliamo di 517 milioni di euro, valore che dimostra come il fenomeno

del crowdinvesting italiano goda di tassi di crescita relativi che non sfigurano al cospetto di altri Stati europei. Fermo restando, però, una differenza sui volumi continui ancora importante. Lo dice l’ultimo rapporto in materia dell’Osservatorio della School of Management del Politecnico, secondo cui i portali autorizzati a operare nell’equity crowdfunding a fine giugno erano 35 e una quindicina invece le piattaforme per il lending.

35


TECHNOPOLIS PER CRIF DIGITAL TRANSFORMATION | Perpiciatis

DISASTER RECOVERY AL SERVIZIO DELLE IMPRESE CRIF, società leader nelle informazioni per il credito, propone una soluzione as-a-Service per le piccole e medie imprese.

Da oltre trent’anni CRIF è tra i player più importanti a livello globale nei servizi e soluzioni destinate al mondo bancario e finanziario, per il quale gestisce grandi volumi di informazioni. Garantire un servizio business critical con elevati livelli di affidabilità, con rischi minimi di interruzioni di servizio non programmate rappresenta un prerequisito. Nell’ambito dei propri costanti investimenti in innovazione, CRIF Global Technologies (la divisione IT di CRIF) ha implementato internamente per tutte le società del gruppo un servizio di Disaster Recovery as-a-Service. “Le informazioni per il credito sono un’area critica per la gestione dei dati”, spiega Carlo Romagnoli, senior director IT infrastructure & operations di CRIF. “Un’eventuale interruzione dei nostri servizi può produrre blocchi parziali o totali nell’erogazione del credito da parte delle banche e società finanziarie nostri clienti, per i quali rappresentiamo un fornitore critico”. Ben consapevole di questa responsabilità, CRIF ha sempre dedicato una grande attenzione alla continuità del servizio in tutte le sue forme e, in particolare, una cura estrema alla gestione del dato. Strutturata per hub geograficamente dislocati nei vari continenti in cui la società opera, la divisione CRIF Global Technologies ha realizzato un servizio interno di Disaster Recovery as-a-Service che mette a fattor comune e capitalizza competenze e investimenti importanti. In qualsiasi settore, la perdita parziale o totale dei dati può compromettere

36

seriamente l’operatività di un’azienda e generare una crisi fino a causare la perdita totale del fatturato o un danno reputazionale, in cui si logora la fiducia dei clienti. Non sono rari purtroppo i casi di aziende che, non avendo predisposto un sistema di Disaster Recovery, una volta colpite da eventi disastrosi non sono state in grado di ripartire. “Per una Pmi”, prosegue Romagnoli, “realizzare un servizio così complesso è difficile sia per le limitate disponibilità di budget sia per le necessarie competenze IT da internalizzare. Tenendo conto di queste esigenze, CRIF ha deciso di offrire anche alle imprese la propria soluzione di Disaster Recovery as-a-Service, forte delle competenze tecnologiche e manageriali acquisite in questi anni e della solida infrastruttura realizzata”. La soluzione di Disaster Recovery as-a-Service sviluppata da CRIF si basa su un data center certificato Uptime Institute Tier IV in altissima affidabilità. Oltre al data center, CRIF mette a disposizione l’infrastruttura di base: network, firewall, bilanciatori, connettività, server e storage, mentre al cliente rimane la responsabilità dei test di funzionalità delle proprie applicazioni. La soluzione CRIF si basa su più elementi caratteristici: iperconvergenza, software-defined network, avanzate tecnologie di allineamento dei dati, adeguate qualità e quantità di banda. Ciascun ambiente di Disaster Recovery è isolato per poter garantire la necessaria segregazione. L’efficacia di un completo Disaster Recovery impone inoltre di avere un Disaster Recovery Plan. Per fronteggiare una situazione di crisi è opportuno infatti definire la Governance e le procedure per attivare il Disaster Recovery. Le competenze manageriali e procedurali sono quanto mai imprescindibili. Per maggiori informazioni: infoglobaltechnologies@crif.com - www.crif.it

Carlo Romagnoli, senior director IT infrastructure & operations di CRIF


STARTUP & PMI INNOVATIVE

Gli investimenti in startup crescono, pur restando lontani dai livelli europei e statunitensi. Paolo Anselmo, presidente di Italian Business Angels Network, spiega perché le cose stanno cambiando. Per davvero.

“LA STRADA È GIUSTA”

I

l 2018 è stato l’anno di svolta per l’ecosistema dell’innovazione italiana, in virtù di investimenti che sembrano aver raggiunto lo stato di maturità. Ne sono convinti diversi addetti ai lavori e lo ha confermato anche Paolo Anselmo, presidente dell’associazione Italian Business Angels Network (Iban), in un intervento a propria firma pubblicato a luglio su Corcom: “Siamo lontani dalle cifre europee e transoceaniche ma neanche lillipuziani come fino a poco tempo fa”, osservava innanzitutto Anselmo, ricordando il ruolo che potrà giocare il Fondo Nazionale per l’Innovazione (di cui parliamo a pag. 35). Quali sono i motivi e i dati che spingono a un certo ottimismo? Diversi. Uno studio realizzato dall’Osservatorio Venture Capital Monitor della Business School di Liuc - Università Cattaneo insieme ad Aifi (Associazione Italiana del Private Equity, Venture Capital e Private Debt), per esempio, ha certificato come lo scorso anno siano stati investiti nelle startup italiane 521 milioni di euro, più del doppio dei 208 milioni di euro di capitali distribuiti nel 2017. Un secondo

indizio positivo, a detta del presidente di Iban, arriva dalla ricerca condotta dalla Sda Bocconi sugli investimenti operati dai business angel: sono cresciuti del 75% rispetto al 2017, per un totale di 46,5 milioni di euro. L’ultimo indicatore che fa ben sperare Anselmo riguarda l’equity crowdfunding, settore che secondo il portale crowdfundingbuzz.it ha sviluppato nei primi sei mesi del 2019 una raccolta di 25,4 milioni di euro attraverso 65 campagne. Dove sta il punto di svolta? Il manager non ha dubbi: “Bisognerebbe incentivare gli investimenti, soprattutto quelli in equity, per arrivare a un volume d’affari che possa davvero generare un circolo virtuoso nel Paese”. Qualcosa sta cambiando La sensazione emersa è dunque quella di una svolta che finalmente si è concretizzata, e ne sono prova anche le oltre diecimila startup e le mille Pmi iscritte nel Registro delle imprese innovative del Mise (ne parliamo a pag. 38) e la maggiore consapevolezza dimostrata da questi soggetti nel voler accedere ai benefici e incentivi fiscali disponibili. I

dati dell’Osservatorio Venture Capital Monitor, ha ricordato inoltre Anselmo, confermano come per il 12% i progetti finanziati siano spin-off universitari e come anche questa sia “un’altra annosa questione che potrebbe essere un punto di svolta per il Paese”, poiché tendenzialmente il sistema universitario italiano non ha visto di buon occhio “la trasformazione in impresa di idee nate nell’alveo accademico”. Se in fatto di trasferimento tecnologico dobbiamo migliorare, così come dobbiamo aumentare i ritorni legati ai nuovi brevetti tecnologici depositati da aziende “made in Italy”, gli indizi e i segnali puntati nella giusta direzione non sembrano mancare. Rimane, come fa chiaramente intendere il presidente di Iban, un ulteriore passo in avanti da compiere: “In un Paese dove anche la penetrazione dell’e-commerce è molto distante dagli altri Paesi Nord europei, bisogna dare una vera e più ampia spinta all’agenda digitale, non solo nel pubblico ma anche nel privato, vincendo resistenze a innovare che sono troppo spesso di natura culturale”. G.R. OTTOBRE 2019 |

37


STARTUP & PMI INNOVATIVE

MILANO CULLA DELL’INNOVAZIONE Il capoluogo lombardo ospita poco meno di un quinto delle oltre 10.400 imprese iscritte nel registro del Mise. Il Trentino Alto Adige è primo per densità di startup tecnologiche.

L’

esercito delle startup italiane si mantiene ormai stabilmente sopra quota diecimila. Al 30 giugno 2019, infatti, il numero di nuove imprese innovative iscritte nell’apposito Registro istituito nel 2012 era pari a 10.426, cifra superiore del 3,5% rispetto al dato di fine marzo e corrispondente al 2,8% del totale delle società di capitali di recente costituzione. Il primo dato che balza all’occhio osservando il rapporto trimestrale curato dal Mise e da InfoCamere è di carattere geografico: la Lombardia ospita poco più di un quarto di tutte le startup italiane (il 25,5% per la precisione) e nella sola provincia di Milano trovano sede 1.860 realtà, un numero pari al 17,8% dell’intera popolazione nazionale e superiore a quello di qualsiasi altra regione. Solo il Lazio, infatti, supera quota mille startup, la maggior parte delle quali localizzate a Roma (1.012), mentre sul terzo gradino del podio c’è l’Emilia-Romagna con 903 realtà (l’8,7% del totale). Il TrentinoAlto Adige, invece, si conferma la regione con la maggiore densità di imprese innovative, che rappresentano il 5,5% di tutte le società costituite negli ultimi cinque anni. Altra tendenza consolidata è quella relativa alla distribuzione per settori di attività: il 73,1% delle startup innovative appartiene alla categoria dei servizi

38 |

OTTOBRE 2019

per le imprese (in più di un caso su tre, si tratta di produttori di software o società di consulenza informatica), mentre il 18,1% opera a vari livelli nel settore manifatturiero. Interessante è anche lo spaccato sulla forza lavoro dell’ecosistema: l’organico complessivo delle startup iscritte nel Registro sfiora quota 60mila persone, di cui poco meno di 15mila sono dipendenti e circa 45mila soci di capitale. Le imprese fondate da under-35 sono circa il 20% del totale, mentre la quota di realtà capitanate da una donna è appena il 13,5%. Fatturato ancora scarso

Guardando agli indicatori finanziari più significativi, il rapporto evidenzia che il capitale sociale sottoscritto complessivamente dalle startup è in aumento rispetto al trimestre precedente (di 19,3 milioni di euro in valore e del 3,7% in termini percentuali) attestandosi ora a quota 546,4

milioni di euro. Il capitale medio è di 52.411 euro a impresa, in linea con il precedente dato trimestrale. Le dolenti note, ancora una volta, arrivano dalla voce fatturato (calcolata sui bilanci relativi al 2017 e sulla metà delle startup iscritte al 1° luglio 2019): il valore della produzione medio non raggiunge i 150mila euro, un dato inferiore di seimila euro rispetto a quello del trimestre precedente. Nel complesso, il fatturato generato dalle imprese iscritte (delle quali sono noti i bilanci) ammonta a 817 milioni di euro, 62 milioni in meno (il 7,1%) rispetto a quello registrato a fine marzo. Come si spiegano questi numeri? La risposta contenuta nel rapporto del Mise si può così sintetizzare: turnover costante della popolazione. Escono dal registro le imprese mature e best performer ed entrano quelle di recente costituzione, che fisiologicamente presentano valori economici contenuti. G.R.


TECHNOPOLIS PER BROTHER

LA DEMATERIALIZZAZIONE PRENDE PIEDE IN AZIENDA Stampa e copia di documenti, ma anche scansione e archiviazione automatica: la digitalizzazione si integra nei flussi di lavoro. La parola d’ordine del Terzo Millennio è “digitale”. Conseguenza di questo processo di sviluppo in ambito digital, unito all’affermazione di tecnologie come cloud, Big Data e analytics, è la progressiva dematerializzazione dei documenti: le imprese sono in grado di gestire in tempo reale una mole crescente di contenuti informativi fondamentali per processi decisionali rapidi ed efficaci. Le aziende sanno di dover compiere tale passaggio e, per questo motivo, sta progressivamente aumentando la richiesta di soluzioni in grado di migliorare l’archiviazione e la condivisione dei documenti, non solo all’interno degli uffici ma anche in mobilità, grazie alla tecnologia Wi-Fi e alle app mobile dedicate alla scansione verso smartphone e tablet. Sul mercato oggi sono disponibili diverse tipologie di dispositivi per la dematerializzazione: alcuni sono progettati per svolgere un’ampia varietà di compiti (stampa, copia, scansioni, invio dei fax), altri sono più specificatamente indirizzati a chi vuole acquisire, gestire, elaborare e condividere i documenti attraverso funzionalità avanzate, capaci di indirizzare le scansioni su specifici flussi operativi e di restituire digitalizzazioni addirittura migliori degli originali. L’offerta di Brother in questo ambito è ampia e risponde a qualsiasi esigenza specifica attraverso dispositivi portatili per la digitalizzazione e la condivisione dei documenti in mobilità, scanner compatti in grado di garantire la massima flessibilità con un ingombro estremamente ridotto e, infine, scanner desktop ad alta velocità per tutte le aziende con elevati volumi di scansione. A questi dispositivi si aggiungono servizi di scansione e archiviazione automatica che ottimizzano la gestione dei documenti e degli archivi elettronici, con soluzioni personalizzate e di semplice utilizzo che rendono il lavoro smart, facile e veloce.

Tra le proposte Brother troviamo Barcode Utility, la soluzione ideale per ottimizzare grandi volumi di scansione e per chi cerca una soluzione software semplice da usare e facilmente integrabile nel flusso di lavoro aziendale. Attraverso la lettura dei codici a barre contenuti nel documento, Barcode Utility permette di acquisire documenti con velocità e precisione, riducendo gli errori di archiviazione e creando un archivio strutturato, semplice da consultare. ll software riconosce il codice a barre e automaticamente processa i documenti nel disco locale, all'interno della cartella di destinazione prescelta. Grazie alla tecnologia avanzata di lettura dei codici a barre, i file acquisiti sono salvati secondo i propri processi di archiviazione: lo scanner legge il codice a barre di ciascun documento e lo salva nella cartella specifica sul disco locale. Tali operazioni vengono processate direttamente dagli scanner Brother, grazie ad un aggiornamento di software scaricabile, per i prodotti compatibili, dal Brother Solutions Center, la piattaforma globale di download. Questa tecnologia è indispensabile per le aziende che eseguono spesso la scansione di documenti contenenti codici a barre, come nei settori dei servizi assicurativi, nelle vendite online e nella logistica. 39


DIGITAL TRANSFORMATION

NON C’È TRASFORMAZIONE SENZA IL CLOUD Fra i Cio italiani è opinione diffusa che l’innovazione non possa fare o meno delle caratteristiche di flessibilità e velocità della nuvola. Non mancano però perplessità legate a prestazioni, aumento della complessità e sicurezza.

S

embra ormai un dato di fatto: la trasformazione digitale delle aziende deve far leva su un’adozione spinta del cloud. Il business ha bisogno di maggiore velocità nel rilascio di servizi per poter sostenere la competizione sul mercato, mentre i clienti sono sempre più attratti da chi sa offrire esperienze personalizzate e coinvolgenti. Le tradizionali logiche di sviluppo, legate a doppia mandata alla presenza di infrastrutture legacy, non sono in grado di reggere il peso di un’economia digitale che avanza, ed è per questo che i Cio sembrano aver individuato nel cloud la soluzione alle sfide che si trovano oggi a dover affrontare. La conferma arriva da un recente studio di Idc, che evidenzia come il nuovo paradigma 40 |

OTTOBRE 2019

infrastrutturale sia di natura inevitabilmente “ibrida”: architetture in cui onpremise e off-premise convivono fianco a fianco. Allo stesso tempo, la fruizione multicloud sta diventando la nuova normalità come modello di delivery. Un dato su tutti appare illuminante: il 31% dei Cio italiani considera il cloud indispensabile per raggiungere i propri obiettivi di trasformazione digitale. Nel biennio 2019-2020, due delle tre aree di maggior focalizzazione per gli investimenti tecnologici delle aziende riguardano proprio questo ambito, nella sua accezione infrastrutturale (35%) o applicativa (32%). La terza area è quella di Big Data & analytics (35%), che proprio nella possibilità di far leva su risorse elaborative esterne sta trovando

la propria chiave di affermazione. Idc fa notare come le attuali logiche socioeconomiche si stiano spostando dal modello “company-to-company” a quello dell’ecosistema, e come il cloud giochi il doppio ruolo di elemento di connessione e fattore abilitante. Tendenze in via di affermazione o in rampa di lancio, come le architetture data-driven, l’IoT, l’intelligenza artificiale e la blockchain, vanno a contribuire a una sorta di unico tessuto organizzativo. Quindi, la stessa missione delle aziende va riletta in un quadro più sistemico. Complessità e performance al centro delle preoccupazioni

Se il percorso appare segnato, tuttavia restano sul terreno elementi di preoccupa-


zione che agitano soprattutto i sonni dei Cio e di altre figure designate a governare i processi di innovazione in ottica digitale. Prima fra tutte le preoccupazioni, il tema della complessità: appare difficile far convivere e interagire piattaforme ibride, mantenendo il controllo sull’erogazione dei servizi It e contenendo i costi complessivi (garantendo, quantomeno, che non diventino più pesanti di quanto già non siano). La sicurezza resta un altro punto critico, sul quale però divergono i punti di vista. Una parte dei Cio è convinta che i provider, perlomeno quelli più importanti, siano quasi più affidabili delle infrastrutture presenti in azienda, mentre per altri il fattore sicurezza è un freno alla migrazione massiva sul cloud. Il digital divide rappresenta un ulteriore problema, specie in alcune aree d’Italia, così come lo sono il controllo dei costi e la governance, soprattutto in ambito multicloud. Quest’ultimo è il tema che sta dominando l’attuale fase di svilup-

po delle piattaforme aziendali, tant’è vero che Idc misura già oggi nel 66% la percentuale del tasso di adozione spinto dalla trasformazione digitale e prevede che il prossimo anno si arrivi al 95%. Soprattutto nelle realtà di dimensioni significative, è un dato di fatto che esistano applicazioni o componenti infrastrutturali affidati in gestione a provider differenti, scelti in base alla classica filosofia best-of-breed. La governance di un ambiente composito diventa così una delle principali sfide da affrontare, ma entrano in gioco anche elementi più tecnici, come la necessità di dover segmentare la rete in funzioni sempre più specializzate, rendendo pertanto consigliabile un approccio in di tipo software-defined (in cui il software automatizza alcune procedure e l’utilizzo delle risorse di rete, calcolo o storage). Più si va in direzione della migrazione in cloud di parti essenziali del parco infrastrutturale e applicativo,

più si concretizza l’evoluzione verso il software-defined data center, che porta con sé intuibili vantaggi in termini di costi fissi, risorse da gestire e flessibilità nell’utilizzo dei sistemi solo quando servono. Questo approccio però non abbassa il livello di attenzione richiesto sul controllo e sulla sicurezza dei processi. Più in generale, la complessità del cloud aziendale sembra rendere particolarmente difficile gestire le prestazioni dell’It. Questo elemento spicca da un’indagine che, su commissione di Dynatrace, Vanson Bourne ha condotto su un campione di 800 grandi società del mondo. Per il 44% dei Cio interpellati, l’incapacità di occuparsi efficacemente di tale aspetto potrebbe addirittura minacciare l’esistenza della propria attività. Per dare un’idea della complessità in gioco, basti pensare che la transazione media per applicazioni mobile o Web attraversa 37 diversi sistemi o componenti tecnologiche. Questo

FINANZA E TELECOMUNICAZIONI, I “CAMPIONI” DEL DIGITALE Quali tipologia di aziende vincono sulle altre dal punto di vista digitale? Ce lo dice il “Digital Acceleration Index”, l’indice con cui Boston Consulting Group ogni anno misura i livelli di maturità digitale delle aziende sotto vari aspetti, con una scala che va da uno a quattro: per raggiungere l’Olimpo dei “campioni” occorre un punteggio complessivo superiore a 67, mentre sotto il 43 si viene classificati come “ritardatari”. Le valutazioni vengono fatte sulla base di quanto autodichiarato dalle aziende. Ciò che emerge dall’edizione 2019 è innanzitutto il fatto che quasi tutti i settori di mercato debbano ancora compiere passi importanti per potersi definire “cam-

pioni”: esistono singole aziende che hanno ottenuto altissimi punteggi, ma nessun comparto merceologico ha complessivamente già raggiunto l’eccellenza. Gli ambiti meglio collocati, (su un campione composto da 1.800 imprese asiatiche, europee e statunitensi) risultano essere il finance soprattutto in Asia e le telecomunicazioni in Europa e Usa. Il settore pubblico, invece, appare il più arretrato. Le realtà più performanti e più vicine a un alto livello di maturità destinano oltre il 5% delle proprie spese Opex a progetti digitali, dedicano a queste attività oltre il 10% dei dipendenti e mostrano un’attitudine più spiccata a passare dalla fase pi-

lota a quella di produzione. Sulla base di tali criteri, le imprese asiatiche sembrano essere le più avanzate, soprattutto per ciò che concerne le risorse umane impiegate in ruoli digitali: la percentuale di aziende dell'Estremo Oriente virtuose sono il 54% del totale, quelle europee solo il 44%. Gli Stati Uniti, invece, primeggiano per quota di spese Opex (il 90%) investita in progetti tecnologici dai propri digital champion, una percentuale maggiore di quella dei “campioni” asiatici (75%) ed europei (65%). Chi ha già intrapreso un cammino deciso proseguirà con una crescita superiore al 20% della forza lavoro digitale, mentre solo il 43% dei ritardatari mostra una propensione a investire in questo campo.

41


DIGITAL TRANSFORMATION

serve a capire come la trasformazione in atto non consista semplicemente nel prelevare e spostare applicazioni nel cloud, ma rappresenti un cambiamento fondamentale nel modo in cui esse vengono create, distribuite e gestite. Ne è riprova il fatto che, in base alla ricerca di Vanson Bourne, i team It al momento dedichino circa un terzo del propri tempo ad affrontare problemi di performance e il 76% dichiari di non avere una visibilità completa sulle prestazioni delle applicazioni nelle architetture cloud-native. Una soluzione però sembra essere stata individuata: l'88% dei Cio, infatti, ritiene che l'intelligenza artificiale sarà fondamentale per la capacità dell'It di far fronte alla crescente complessità. Piccole e medie imprese schierate su due fronti

All’appello della trasformazione digitale rispondono ormai anche le piccole e medie imprese. L’osservatorio europeo Bpi rileva che il 53% ha avviato un’evoluzione in questa direzione, perlopiù concentrandosi sull’organizzazione aziendale (82%), attraverso strumenti tecnologici che favoriscano il lavoro collaborativo, l’ottimizzazione della produzione e la relazione con la clientela. Il cloud è stato adottato dal 66% delle realtà impegnate sulla strada dell’evoluzione, mentre ancora poco esplorati appaiono i Big Data (19%) e l’intelligenza artificiale (14%). Chi ha intrapreso la via digitale prevede, per i cinque anni a venire, un impatto positivo sul volume d’affari, sulla profittabilità e sugli investimenti, mentre c’è maggiore prudenza di giudizio sul fronte dell’occupazione. Tuttavia quasi la metà (il 47%) delle Pmi ancora non si è mossa verso la trasformazione digitale, o per presunte ragioni di mancanza di tempo o di attesa del momento propizio (nel 60% dei casi) o perché non si sente toccata dal tema (40%). Roberto Bonino 42 |

OTTOBRE 2019

CIO, I VIGILI DELLE STRATEGIE D'INNOVAZIONE L’introduzione delle tecnologie digitali in azienda è sempre più determinata da piani aziendali di ampio respiro, che sono nella maggioranza dei casi emanazione di comitati composti da figure di responsabilità tanto del business quanto dell’Ict. Il dato emerge dall’ultima edizione della Cio Survey, realizzata da NetConsulting Cube. La trasformazione digitale, dice il rapporto, nelle grandi aziende italiane sembra essere più o meno avviata, mediamente da almeno tre anni, e in oltre la metà del campione (51,4%) viene portata avanti attraverso la collaborazione tra i dipartimenti. Per il 2020 si prevedono investimenti in alcuni ambiti rilevanti: in cima alla lista, indicati dal 66,7% dei partecipanti, vi sono gli advanced analytics, rivolti all’implementazione di sistemi di Rpa (Robotic Process Automation), all’introduzione di algoritmi di machine learning e alla realizzazione di data lake propedeutici alla valorizzazione dei dati aziendali, strutturati e non. Infrastrutture It e cloud continuano a rivestire un ruolo fondamentale di abilitazione delle strategie di trasformazione digitale (sono indicati dal 54,2% come area di investimento), mentre vengono citati da circa la metà del campione anche la cybersecurity, la digital customer experience e la modernizzazione delle applicazioni. In questo contesto, le funzioni che esprimono una maggiore domanda di innovazione sono il marketing e le vendite (citati rispettivamente dal 68% e 58% delle aziende), a dimostrazione di come il baricentro della digi-

talizzazione risulti essere ancora il customer journey, il “viaggio” che definisce l’esperienza dell’utente. Produzione e logistica si confermano ambiti di forte domanda (42%), nonostante gli effetti di Impresa 4.0 inizino a risultare meno incisivi rispetto a quanto non siano stati nel 2018. Secondo i Cio intervistati, la trasformazione digitale porta i maggiori benefici nei rapporti con clienti e prospect (82% circa delle risposte) e nello sviluppo innovativo dell’offerta (65,3%). Nel primo caso, in particolare, viene riconosciuta l’efficacia nella gestione in un’ottica omnicanale di tutte le interazioni che legano l’azienda ai propri clienti. Introdurre soluzioni innovative significa però introdurre dei cambiamenti: se questi ultimi non vengono pienamente accettati, è facile che un progetto fallisca o generi risultati marginali (non a caso il change management viene indicato come ostacolo dal 49% del campione). Un notevole freno è anche la presenza di altre priorità in azienda (32%), relative soprattutto alla gestione operativa dell’esistente. Non sorprende quindi che, tra gli ingredienti fondamentali per supportare le iniziative di transformazione, i Cio abbiano indicato nel 61% dei casi il commitment. Il chief information officer, in generale, rappresenta un ruolo sempre più centrale nell’indirizzare e governare la trasformazione digitale. Il 51% di queste figure riporta direttamente al vertice aziendale (il Ceo) e il 56% si ritiene molto coinvolto nelle strategie evolutive. R.B.


TECHNOPOLIS PER GFT

UNA SOLIDA ALLEANZA PER AIUTARE LE COMPAGNIE ASSICURATIVE GFT e Guidewire consolidano e fanno evolvere la propria partneship pluriennale, per poter soddisfare le necessità digitali del settore delle assicurazioni. Spesso i sistemi informatici delle compagnie assicurative sono poco flessibili o difficili da modificare. La loro infrastruttura fatica ad adattarsi rapidamente alle circostanze, come sarebbe utile fare per poter aggiornare l’offerta, sviluppare interazioni complesse e dinamiche con la clientela o sfruttare nuovi canali distributivi. GFT collabora attivamente con le principali compagnie in qualità di fornitore di soluzioni e servizi, mirati a supportare il loro percorso di trasformazione digitale. Da molti anni, inoltre, GFT ha scelto di diventare partner di Guidewire, società leader nelle soluzioni per le assicurazioni contro i danni, e ha sviluppato una serie di competenze distintive, necessarie nel percorso di adozione di queste tecnologie e nella revisione dei processi di gestione. “Rispetto a qualche anno fa, la percezione del mercato delle soluzioni Guidewire oggi è molto cambiata”, afferma Umberto Zanchi, Insurance Client Unit Executive Director. “Se all’inizio ci siamo confrontati con lo scetticismo di interlocutori chiave, come Cio e Coo, che vedevano il prodotto come non pronto alle nostre realtà, oggi troviamo sempre un'attenzione particolare a questa suite da parte del mercato. Abbiamo fatto investimenti importanti in competenze e oggi i clienti stanno testimoniando la bontà della nostra e della loro scelta”. GFT è oggi gruppo internazionale che conta oltre 300 specialisti certificati (di cui più di 50 in nel nostro Paese) e Centri di Eccellenza in Italia, Polonia e Spagna, oltre al centro nevralgico in Canada. La società è capace di coprire l’intero ciclo di vita di un progetto Guidewire: l’analisi degli impatti e delle opportunità, l’organizzazione e la gestione del programma, il disegno architetturale complessivo, tutte le attività tecniche e funzionali di implementazione, la definizione dei prodotti e la migrazione di quelli già in uso. GFT vanta oltre venti progetti di successo nazionali e internazionali di sicura rilevanza, riconosciuti dalla stessa Guidewire con due award internazionali. In Italia, è il partner locale con maggior esperienza nei progetti. “Il percorso fatto da GFT negli anni è il risultato di una chiara e precisa visione strategica, perseguita con costanza e

Umberto Zanchi, Insurance Client Unit Executive Director di GFT

determinazione”, sottolinea Marco Burattino, Italy Sales Director di Guidewire Software. “GFT è stata in grado di conquistare una posizione di assoluto rilievo sui progetti basati su software Guidewire, vantando in Italia il maggior numero di esperienze tra i partner coinvolti”. La conoscenza del mercato locale ha permesso, inoltre, a GFT di sviluppare degli acceleratori che consentono di avere già disponibile una localizzazione di alcuni aspetti normativi, quali per esempio l’estensione della gestione sinistri di ClaimCenter, che risponde ai requisiti normativi in materia di gestione sinistri del ramo auto. Inoltre, la soluzione antifrode portata da GFT sul mercato è già integrata nel sistema ClaimCenter, permettendo uno scoring in tempo reale di ogni movimento di sinistri auto. La competenza dimostrata da GFT è uno dei fattori chiave che hanno permesso ad Aviva Italia di lanciare in tempi brevissimi un’offerta di prodotti innovativi. “Siamo soddisfatti di quanto fatto con GFT in questi mesi”, commenta Vittorio Giusti, Coo di Aviva in Italia. “Grazie a questa partnership abbiamo implementato la nuova offerta digitale con grande rapidità, lavorando insieme in modalità Agile. Il risultato è un’offerta più flessibile e modulare per i nostri clienti e, allo stesso tempo, una serie di strumenti più avanzati per i nostri partner distributivi”. GFT non ha intenzione di fermarsi: sta lavorando con i propri clienti e con Guideware per erogare i servizi di quest’ultima sia in modalità IaaS (gestita da GFT) sia in modalità SaaS (erogata direttamente da Guidewire). Una nuova sfida, necessaria per aiutare i clienti a essere più flessibili, veloci e concentrati sul core business. 43


EXECUTIVE ANALYSIS

Per le aziende, i malfunzionamenti di alcuni tipi di software possono causare perdite di denaro e di reputazione anche molto serie. L'attenzione dei Cio si focalizza sulla ricerca dell’efficienza, sulla migrazione al cloud, sulla sicurezza e sulla gestione dei privilegi d’accesso.

APPLICAZIONI CRITICHE: COME LE PROTEGGIAMO?

N

on tutte le applicazioni sono ugualmente importanti per un’azienda. Alcune sono fondamentali per il funzionamento ordinario dell’organizzazione: basti pensare a come l’impossibilità di accedere alla posta elettronica o a una parte rilevante dei sistemi amministrativi possa causare perdite di produttività, danni economici e reputazionali spesso gravi e, in alcuni casi, addirittura insostenibili. Erp, Cr, sistemi di gestione della produzione o della supply chain, e ancora alcune tipologie di soluzioni verticali sono percepiti come fondamentali per il funzionamento del business. L’attenzione dei Cio deve focalizzarsi sulla continuità operativa di tutto ciò che supporta il lavoro dei dipendenti e dei collaboratori, convenendo sull’idea che la 44 |

OTTOBRE 2019

“criticità” si misuri sul mancato funzionamento e, quindi, sulla necessità di evitare i temutissimi blocchi per problemi tecnici, intoppi nei processi o attacchi informatici. Metodi diversi di adozione del cloud

La ricerca qualitativa che Technopolis ha condotto su un campione di realtà italiane medio-grandi ha voluto approfondire proprio il tema della protezione delle applicazioni critiche, indagando quali interventi siano stati effettuati di recente o siano programmati per il futuro. La nostra ricerca ha anche cercato di capire se alcune delle applicazioni “core” siano ancora sotto il totale controllo dell’It, in quale misura sia in corso una migrazione verso il cloud e come sia stato affrontato il tema della sicurezza su questo fronte.

Nell’ambito di un campione composito dal punto di vista del settore industriale di appartenenza (manufacturing, finance, telecomunicazioni, servizi e trasporti), prevale, nelle realtà più complesse, una valutazione della criticità basata su una business impact analysis, necessaria per individuare dove sia più rilevante la continuità di funzionamento e quali siano le conseguenze misurabili in caso di blocco. Gli esiti di questo lavoro sono diversi e portano a giudicare critiche soprattutto le applicazioni che meglio connotano i processi di business fondamentali per ogni azienda, per esempio la produzione per le imprese manifatturiere, l’erogazione dei servizi o la vendita dei prodotti per altre categorie. I processi di rivisitazione delle infrastrutture ancora totalmente controllate dalle


sviluppi. L’evoluzione delle esigenze di alcune funzioni professionali, strettamente connesse alla componente operativa, e la crescita delle competenze tecnologiche stanno spingendo molte aziende verso una gestione maggiormente condivisa delle scelte sulle soluzioni da adottare, soprattutto in ambiti come il marketing, le vendite o l’automazione della produzione. La diffusione delle modalità di sviluppo Agile favorisce una maggior interazione fra le diverse figure, e anche in realtà molto complesse oggi si osserva una collaborazione attiva abbastanza consolidata. Una cultura ancora debole

aziende sono ispirati soprattutto da esigenze di rafforzamento della business continuity e di governance complessiva, tanto dei sistemi quanto dei dati. L’ottimizzazione dei costi, delle risorse e del controllo è al centro delle evoluzioni studiate negli anni più recenti. A dominare l’attenzione, inevitabilmente, troviamo il tema della migrazione al cloud, che è particolarmente delicata per le applicazioni aziendali nevralgiche. Il campione analizzato ha affrontato la questione in modo abbastanza differenziato. Le realtà più innovative, create con una connotazione digitale e/o nate da pochi anni, hanno compiuto con decisione la scelta di essere cloud-native. Nella medesima direzione si sono mosse le organizzazioni che hanno subito repentini processi di espansione e hanno dovuto affrontare sfide legate alla scalabilità della propria infrastruttura. La necessità di mantenere il controllo sulle applicazioni core e sui relativi dati, tuttavia, prevale sulla tentazione di spingersi troppo nella esternalizzazione. Il modello ibrido si applica, in questi casi, soprattutto se c'è la necessità di gestire di picchi nell’utilizzo delle risorse o di testare nuovi

Un elemento di preoccupazione ancora importante è rappresentato dalla gestione della sicurezza. Spesso i Cio e i security manager condividono le responsabilità e l’impostazione delle strategie. In linea di massima, prevale un’impostazione dei privilegi di accesso basata sui ruoli professionali, con criteri di differenziazione per posizione gerarchica (nel caso dei massimi livelli dirigenziali) o di responsabilità tecnica (nel contesto delle strutture It). Nei casi più virtuosi, è stato fatto un lavoro accurato di profilazione delle figure professionali presenti in azienda e sono stati attribuiti livelli di visibilità e accesso strettamente funzionali alle rispettive necessità e al potere decisionale. Solo in alcune aziende, tuttavia, esiste anche una chiara differenziazione fra le tipologie di applicazioni, mentre in altre i medesimi criteri legati a ruoli e competenze valgono per tutte le categorie di applicazione, a prescindere dal loro livello di criticità. Laddove permanga una presenza importante di applicazioni legacy, le procedure di difesa paiono meno raffinate. Fra le realtà che hanno fatto scelte importanti in direzione del cloud, la percezione che non siano sempre trasparenti le policy di gestione degli accessi definite dai provider viene solo in parte controbilancia-

ta dalla presenza di procedure definite in azienda e prevale una certa insoddisfazione sui livelli di visibilità dell’operato dei fornitori esterni. Sfide di oggi e di domani

Il fattore umano è il principale elemento su cui bisogna concentrare l’attenzione e gli investimenti per rafforzare o mantenere alta la protezione delle applicazioni business-critical. Gli sforzi per ottenere una corretta ed efficace valutazione del rischio non vengono ancora giudicati soddisfacenti, tant’è che quasi tutti hanno stanziato quote di budget per aumentare il livello di consapevolezza soprattutto dei top manager, oggi ritenuto buono ma non ancora ottimale. La costante evoluzione dei fronti di minaccia contribuisce a creare un clima di incertezza e rafforza la consapevolezza di non poter contare su strumenti di protezione efficaci al 100%: la possibilità che un attacco vada a buon fine, in altre parole, esiste. Per una parte rilevante delle aziende, la preoccupazione più sentita riguarda gli effetti negativi sulla reputazione, e questo è vero specialmente per chi eroga servizi al pubblico o agisce in mercati fortemente concorrenziali. Nell'industria, invece, prevalgono i timori legati al downtime dei sistemi, soprattutto per le ripercussioni sul ciclo di produzione. Variegate sono le direzioni di investimento a breve e medio termine sul fronte dello sviluppo e della protezione delle applicazioni business-critical. La continuità operativa è un tema caldo per molte aziende, mentre gli interventi su impianti e sistemi informativi sono un tratto comune ricorrente. Laddove non ci sia già stata, in diversi casi sarà avviata una progressiva migrazione verso il cloud almeno di alcune componenti dell’infrastruttura applicativa, mentre per le aziende produttive il tema dell’automazione riguarda anche le funzionalità e la protezione dei sistemi. Roberto Bonino 45


EXECUTIVE ANALYSIS

PAROLA ALLE AZIENDE Siamo una realtà molto articolata, con 140 sedi e oltre 5.000 terminali sparsi nel mondo. Negli ultimi anni abbiamo lavorato e stiamo tuttora lavorando per migliorare la governance e la prevenzione in tema di sicurezza, ma non è sempre facile quantificare la riduzione del rischio economico correlata a ogni investimento. Giovanni Daconto, head of group Ict di Ariston Thermo Group In un’azienda a forte impronta industriale, l’attenzione è particolarmente concentrata sui sistemi di gestione della produzione e della logistica. La loro protezione è un elemento critico e il Gdpr ha rappresentato un fattore di spinta verso la modernizzazione. Roberto Villa, It director di Artsana La continuità operativa è per noi fondamentale e i programmi di rinnovamento in corso vanno in questa direzione. La compatibilità tra le applicazioni in termini di sicurezza e resilienza è un fatto che anche i vendor devono garantire, già a partire dalla progettazione dei prodotti. Daniele Rizzo, Cio di Autogrill Non abbiamo più un’infrastruttura tradizionale e compriamo capacità elaborativa e di memorizzazione da diversi provider. Quelli più noti nel cloud pubblico hanno raggiunto livelli di sicurezza molto elevati, ma sugli accessi occorre comunque tenere alto il controllo, nel nostro caso anche con modalità di autenticazione forte e con una gestione accurata dei log. Alberto Ricchiari, Cio di Cattolica Assicurazioni Rendere cloud-ready determinate applicazioni non è di per sé troppo complesso, mentre gestirlo lo è molto di più. 46 |

OTTOBRE 2019

Noi offriamo ai clienti la possibilità di usufruire della nostra piattaforma privata e stiamo investendo in questa direzione, con una particolare attenzione alla sicurezza. Dario Bonavitacola, direttore infrastrutture & operations di Cedacri Le nostre applicazioni più critiche sono quelle legate al controllo del traffico aereo, sulle quali manteniamo un presidio costante. La certificazione ISO 27001 contribuisce a garantire standard di sicurezza elevati, ma occorre lavorare con attenzione anche sul fattore umano. Giovanni Mellini, responsabile It, reti e sicurezza di Enav La nostra realtà è piuttosto particolare, perché possiede sia una direzione centrale quanto sia una forte presenza territoriale e, quindi, ha una notevole articolazione dei ruoli e delle unità di governo. Ma la gestione delle applicazioni più critiche non può che rientrare in un framework ordinato e tenuto sotto controllo dall’It. Paolo Palmerini, responsabile sistemi informativi di Gruppo di Iccrea Banca

Fineco Bank è in una situazione di vantaggio rispetto ad altri istituti, semplicemente perché è nata su Internet e quindi non è arrivata al digitale partendo da una tradizione consolidata bensì integrando le logiche più innovative e orientate alla protezione dei dati. Questo significa che il concetto e l’importanza della sicurezza sono già ben radicati in gran parte dei dipendenti e in tutto il management. Gianluca Martinuz, Cio di Fineco Bank Progressivamente siamo diventati un sistema “network-centrico” e abbiamo, quindi, ottimizzato soprattutto i costi di quella che era l'infrastruttura distribuita per privilegiare gli aspetti di controllo del data center. Il Gdpr, poi, ha accelerato le attività di formazione in materia di sicurezza su tutta la popolazione aziendale. Lorenzo Anzola, Cio di Mapei La nostra è un'azienda che negli ultimi tre anni ha raddoppiato i volumi. Abbiamo potuto sostenere questa crescita dal punto di vista tecnologico da quando, circa quattro anni fa, abbiamo intrapreso la strada del cloud. Abbiamo concentra-


to molta attenzione soprattutto sulla cultura della sicurezza, anche perché ormai gli attacchi sono rivolti prevalentemente verso le persone e sono basati su elementi comportamentali. Max Panaro, Ict & system quality vice president di Maire Tecnimont Il fattore di maggior preoccupazione per noi, in termini di prevenzione dagli attacchi, riguarda il tempo di downtime. Il blocco dei sistemi, infatti, potrebbe portare con sé anche una perdita economica, legata alla mancata produzione, in genere irrecuperabile. Marco Campi, Cio di Marcegaglia Alla base dei limiti che possono incidere sugli investimenti in materia di sicurezza, troviamo sempre l'aspetto culturale e su questo stiamo lavorando anche in collaborazione con le Risorse Umane. Siamo però attenti anche sul lato applicativo, al punto da effettuare regolarmente controlli e monitoraggi per capire dove esistano potenziali situazioni di rischio dal punto di vista degli accessi. Luciano Guglielmi, Cio di Mondadori La nostra missione è portare la fibra in tutta Italia e intendiamo coprire oltre l’80% del territorio nei prossimi anni con la banda ultralarga. Abbiamo solo tre anni di storia, quindi abbiamo deciso fin dall’inizio di sposare la causa del cloud anche per tutti i sistemi critici. Per la loro protezione abbiamo una soluzione ibrida, che ci permette maggiore autonomia, elevata integrazione e automazione anche con le componenti dell’infrastruttura di rete che stiamo sviluppando. Paolo Perfetti, Cto di Open Fiber Gli aspetti di sicurezza sono presieduti da una struttura corporate dedicata e c'è stata molta collaborazione con chi conosce l'infrastruttura e gli applicativi per definire i profili degli utenti, così che

ognuno possa accedere al sistema e svolgere le attività di propria competenza. Chiara Manenti, It regional manager West Europe&Africa, e Roberto Provenzi, It operations & infrastructure management di Tenaris Fra le applicazioni critiche hanno una particolare rilevanza quelle che possono costituire elemento di forte differenziazione competitiva a supporto del business della banca. Tutto ciò che è digitale sta assumendo sempre maggiore rilevanza e su questo perimetro stiamo implementando soluzioni di data loss prevention ma anche analytics evoluti, utili per

intervenire in caso di comportamenti anomali negli accessi e nella gestione di dati sensibili. Enrico Ugoletti, responsabile governance, data & security di Ubi Banca Per poter lavorare efficacemente sul fronte della sicurezza, il punto di partenza resta la consapevolezza del top management sull'argomento. Il livello è aumentato negli ultimi anni, ma stiamo lavorando per fare in modo che ci sia una valutazione del rischio più completa possibile. Tiberio Strati, executive director Italy di Reale Ites/Reale Mutua

DATI AL SICURO CON UNA STRATEGIA FORTE In molti settori la trasformazione digitale è ormai un dato di fatto. Con il supporto di una tecnologia sempre più pervasiva, i processi sono cambiati e si sono evoluti, tanto che ormai il business di molte aziende dipende da applicazioni che non trovo esagerato definire critiche. Se tali applicazioni variano da settore a settore, anche in relazione al percorso di digitalizzazione delle singole realtà, quello che non cambia è il ruolo fondamentale che esse giocano nell’organizzazione. Parlo di sistemi che gestiscono le transazioni finanziarie, la supply chain, il customer service e così via. Sono solo alcuni esempi, ma la caratteristica che accomuna le applicazioni critiche è la loro pervasività, il fatto che siano profondamente inserite nel tessuto aziendale e che da esse dipendano altre soluzioni più specifiche. Critiche sono anche le applicazioni che gestiscono i dati sensibili, come quelli relativi a clienti, dipendenti o partner. Non

sempre però i manager aziendali hanno chiara l’importanza di queste applicazioni nell’economia della loro organizzazione. CyberArk ha condotto una ricerca sull'impatto della sicurezza It che evidenzia come ci sia ancora molto da fare in merito. Se il downtime delle applicazioni critiche viene percepito dal 61% degli intervistati come evento dal notevole impatto negativo, il 70% ammette di non avere ancora messo in campo una strategia che dia priorità alla protezione di queste applicazioni. Il compito dei Ciso in questo caso è molto chiaro, ossia adottare un approccio basato sull’importanza dei rischi e che abiliti sulle applicazioni business-critical le protezioni più rigorose, salvaguardando in particolare gli accessi privilegiati e garantendo che le applicazioni continuino a operare, indipendentemente dagli attacchi che possano essere loro destinati. Claudio Squinzi, country sales manager di CyberArk

47


The Innovation Group Innovating business and organizations through ICT

ROMA 26-28 NOVEMBRE 2019

DIGITAL ITALY

SUMMIT 2019

PER IL GOVERNO DELL’INNOVAZIONE DIGITALE NEL PAESE Centro Congressi Roma Eventi Fontana di Trevi - P.zza della Pilotta 4, Roma

Stato, Prospettive e Politiche per l’Innovazione digitale nelle Imprese, nella Pubblica Amministrazione e nel Terzo settore I TAVOLI DI LAVORO 27 novembre  INDUSTRIA 4.0, ROBOTICS E SMART MANUFACTURING  L’ECOSISTEMA 5G E LE INFRASTRUTTURE DIGITALI  THE NEW BIG THINGS: CLOUD, ECONOMIA DEI DATI, AI E BLOCKCHAIN  SICUREZZA DEL TERRITORIO E RESILIENZA DELLE INFRASTRUTTURE CRITICHE

Con la partecipazione dei Leader delle Aziende più avanzate e dell’Industria ICT, delle Autorità di Governo e della Pubblica Amministrazione, di prestigiosi esperti internazionali e di molte tra le migliori intelligenze digitali del nostro Paese  Per condividere i saperi e le esperienze  Per diffondere la conoscenza delle migliori pratiche e delle tecnologie più avanzate Per valorizzare le eccellenze dell’Industria ICT, delle Imprese e dell’Innovazione Digitale.

Il Digital Italy Summit, alla sua quarta edizione, è organizzato da The Innovation Group in collaborazione con:

 SMART MOBILITY: MOBILITÀ CONNESSA E SOSTENIBILE, TRASPORTI, INFRASTRUTTURE ABILITANTI E SERVIZI  LA PROTEZIONE DEI DATI PERSONALI FRA GEOPOLITICA, TECNOLOGIA E MERCATO  L’INNOVAZIONE NELLA SANITA’: RICERCA, INVESTIMENTI, DIGITALIZZAZIONE E GOVERNANCE

Ai primi 200 partecipanti all’evento verrà distribuito il rapporto

“Digital Italy 2019”

La partecipazione è gratuita previa registrazione

INFORMAZIONI ED ISCRIZIONI Tel. 0287285500 | www.theinnovationgroup.it | segreteria.generale@theinnovationgroup.it


DIGITAL RETAIL

LOGISTICA, L’ALTRA FACCIA DELL’E-COMMERCE Puntualità delle consegne e procedure di reso facili: i consumatori decidono dove acquistare anche in base a questo.

L’

e-commerce non è fatto solo di siti Web che fungono da vetrine digitali e lanciano offerte lampo, e nemmeno solo di app per smartphone e marketing personalizzato. Il “dietro le quinte” del commercio al dettaglio, la logistica, tradizionalmente ha sempre rivestito un ruolo cruciale per i retailer sia nella gestione dei costi sia nel servizio al cliente. E con l’e-commerce la criticità di questo elemento è cresciuta drammaticamente in virtù delle maggiori distanze da coprire, dell’esplosione degli inventari, della corsa ad arrivare prima nelle consegne (si pensi al servizio Prime di Amazon, un nuovo benchmark da

eguagliare per tutti i concorrenti). Anche in Italia l’impatto della logistica sulle vendite sta aumentando, come certificato da dati del consorzio Netcomm e della School of Management del Politecnico di Milano: il 72% dei consumatori dà molta importanza alla qualità e all’ampiezza dei servizi di consegna, il 70% si fa un’opinione sul retailer anche in base alla facilità del reso. Una spinta alla produttività

Quanto al pensiero dei retailer, quasi la metà di loro si aspetta che l’evoluzione della logistica si possa tradurre in un aumento di produttività. La crescita delle

vendite online “è spinta proprio dalla gestione della logistica sottostante, che crea il vero valore di tutte quelle aziende che dell’e-commerce hanno fatto la propria principale leva strategica”, sottolinea Federico Pozzi Chiesa, fondatore dell’incubatore di startup Supernova Hub. Nella sua culla nel 2014 è nata Sendabox: una piattaforma che offre servizi di logistica e supply chain per i commercianti, anche attraverso una rete di trentamila punti di ritiro e consegna sparsi in tutta Europa (quelli italiani sono circa duemila). Sorge dunque spontanea una domanda: la logistica, in Italia e altrove, sa reggere il livello di complessità e il ritmo frenetico OTTOBRE 2019 |

49


DIGITAL RETAIL

dell’e-commerce, sia negli acquisti sia nei resi? Un buon esempio è quello di Westwing, piattaforma (in precedenza nota come Dalani) che vende soprattutto arredamento e oggetti di design: per lei Sendabox ha creato un servizio di resi ad hoc, che garantisce una facile tracciabilità del pacco e che, a detta di Pozzi Chiesa, ha permesso di ridurre i costi. I clienti che cambiano idea possono gestire la richiesta di reso in autonomia, online, specificando la motivazione e prenotando il giorno di ritiro. Il difficile equilibrio nella politica dei resi

Restituire è un diritto per i consumatori, ma anche un grattacapo per chi vende. La logistica oggi è alle prese con la ricerca di un equilibrio fra il riconoscimento di questo diritto (funzionale alla customer satisfaction) e il tentativo di limitare i costi derivanti dalle mancate vendite e dai viaggi aggiuntivi dei corrieri. Un sondaggio realizzato nel 2017 da Narvar Consumer su 677 clienti di e-commerce statunitensi evidenza che il 95% delle persone soddisfatte delle procedure di reso probabilmente tornerà a comprare sulla stessa piattaforma. Una su cinque, al contrario, non intende acquistare da siti che non prevedono la possibilità di restituzione. Altri dati illuminanti sono quelli dell’associazione Ecommerce Europe: nei negozi fisici i resi sono pari a circa l’8-9% degli acquisti, mentre in quelli online vanno dal 15% al 40% a seconda del genere di articoli (la quota massima riguarda, prevedibilmente l’abbigliamento). “La policy sui termini e le condizioni di restituzione”, commenta Pozzi Chiesa, “genera molte preoccupazioni sui consumatori online: si può fare? Quanto costa? Quanto tempo ci vorrà? Dovrò richiudere il pacco come l’ho ricevuto? Non sono questioni da ignorare, anzi: rappresentano il cuore dell’evoluzione dell’e-commerce”. V.B. 50 |

OTTOBRE 2019

DIGITALE E BLOCKCHAIN PER VENDERE FOOD “L’e-commerce 4.0 inizia costruendo dapprima il negozio virtuale monomarca dell’azienda e prosegue nel portare i suoi prodotti nelle vetrine dei grandi marketplace internazionali”: la ricetta confezionata da Alessandro Giglio, presidente e amministratore delegato dell’omonimo Gruppo, ha accompagnato qualche settimana fa il debutto della piattaforma di e-commerce della società milanese nel mondo dell’agroalimentare. Tra fashion, lifestyle e design, sono circa un centinaio i marchi che hanno affidato a Gruppo Giglio la gestione delle proprio vendite online, e ora la nuova sfida della società milanese è quella di aiutare a imporsi sul mercato globale aziende come Riso Scotti, Fratelli Carli, Generale Conserve, Everton, Bosca, Cameo, Fabbri e (per la parte rewarding) Grandi Salumifici Italiani. Come? Attraverso le vetrine aperte sui principali marketplace di acquisti via Internet, una cinquantina nel complesso, attivi su scala internazionale. “Il settore alimentare”, ha spiegato Alessandro Santamaria, managing director, digital strategy di Giglio Group, “è oggi maturo per affrontare la rivoluzione del digitale, e lo è soprattutto a livello di canali distributivi”. Il salto evolutivo che l’azienda promette di far compiere ai partner è basato sue due pilastri, cioè tecnologia e logistica. Grazie a Big Data, cloud e intelligenza artificiale la piattaforma consente di “accendere” o “spegnere” un articolo in

Alessandro Giglio un determinato marketplace ed è quindi in grado di distribuire i prodotti in qualsiasi mercato in modo differenziato e “quasi chirurgico”, come dice Santamaria. Il secondo pilastro sono invece i quattro hub logistici (in Italia, Cina e Stati Uniti) deputati a smistare fisicamente nel mondo le merci a catalogo, sfruttando sistemi di etichettatura avanzati che rispondono alle normative dei vari Paesi e, a tendere, usando la tecnologia blockchain per la tracciabilità dei prodotti. L’ingresso nel food, conferma infine l’Ad, sarà graduale: decollerà da Europa e Nord America, ma guarda sin da ora alla Cina come mercato sul quale puntare molto. “Già oggi raggiungiamo circa 180 milioni di consumatori cinesi e contiamo di crescere questa penetrazione ulteriormente”, specifica Giglio. Per inciso, la Repubblica Popolare concentra circa la metà (855 miliardi di dollari) dei 1.900 miliardi di dollari a cui ammontano gli acquisti online realizzati nel 2018 in Asia-Pacifico. G.R.


L’OMNICANALITÀ SPINGE LE VENDITE, MA È IMPERFETTA

U

n’opportunità da 805 miliardi di dollari a livello mondiale, 53 miliardi dei quali riservati alla sola Italia: questo rappresentano le ormai famigerate “esperienza omnicanale” per gli operatori del retail. Da un nuovo studio, realizzato da 451 Research su commissione della piattaforma di pagamento Ayden, giungono nuove conferme sull’importanza di un approccio molto discusso negli ultimi anni, cioè l’omnicanalità. In sostanza, poter garantire ai clienti una coerenza di fondo e un’integrazione fra i diversi canali di contatto è per i commercianti al dettaglio (grandi o piccoli che siano) un punto di forza, che incrementa le vendite e si traduce, a livello aggregato, nelle cifre che citavamo. Si tratta chiaramente di stime, derivate dalle risposte di quasi seimila (5.950) consumatori maggiorenni di 12 Paesi tra Europa, America del Nord, America Latina e Asia Pacifico, ma numeri a parte la preferenza dei clienti verso le esperienze omnicanale emerge con chiarezza. Chi compra ricerca libertà e flessibilità, in diverse fasi del processo ma soprattutto in quelle finali: oltre la metà dei consumatori (il 53%) ha abbandonato almeno un acquisto online nei sei mesi precedenti all’intervista per la mancata disponibilità del proprio metodo di pagamento preferito. Lo studio stima che questa mancanza si traduca annualmente in 277 miliardi di vendite abbandonate a livello mondiale. Dunque non solo è importante offrire molte opzioni per le procedure di acquisto, ma strumenti come i por-

tafogli digitali e pagamenti contactless possono rappresentare per i retailer una leva di fidelizzazione. Strategica è anche l’offerta di molteplici opzioni di consegna o ritiro degli acquisti, per esempio il “click and collect”, che permette di sceglie gli articoli online e poi andare a recuperarli in negozio. Più che di omnicanalità si tratta, in questo caso, di crosscanalità, elemento che spinge il 46% dei consumatori a preferire un rivenditore a un altro. Attualmente già 308 miliardi di vendite vengano realizzate in questo modo ogni anno, ma pochi operatori sono già predisposti e il potenziale inespresso è ancora notevole: investendo di più sulla crosscanalità i retailer potrebbero aumentare di 560 miliardi di dollari il giro d’affari annuale. Un altro elemento di omnicanalità su cui puntare sono i social network, luoghi a cui va ormai stretto l'abito di sola

piattaforma pubblicitaria per prodotti venduti altrove: oggi un cliente digitale su cinque fa acquisti direttamente da Facebook, Instagram e piattaforme analoghe. Stando alle previsioni degli stessi retailer, da qui a tre anni transiteranno dall’e-commerce fino a un terzo delle vendite totali del commercio al dettaglio. Questo mondo crescerà ancora, favorito dalla comodità di un’esperienza d’acquisto più veloce, senza stress e senza code alle casse, ma favorito anche da un assortimento meno soggetto alle rotture di stock. L’atavico problema, a detta dell’indagine di Ayden, l’anno scorso è costato ai retailer di tutto il mondo circa 482 miliardi di dollari di mancate vendite. Ma perdite elevate (circa 370 miliardi) si sono registrate anche a causa di code e tempi d’attesa intollerabili, specie per gli acquirenti più giovani. V.B.

51


| Perpiciatis STARTUP & PMIARTIFICIALE INTELLIGENZA

TANTE “INTELLIGENZE” NELLA STORIA DELL’UOMO

L’AI ha trovato concretezza in diversi approcci tecnologici, cui corrispondono differenti “filosofie”. Un dato è chiaro: oggi ancora non siamo pronti a rinunciare al ruolo dell’essere umano.

52 |

OTTOBRE 2019

N

el corso dell’ultimo anno si è verificata una brusca inversione di tendenza: si è quasi smesso di parlare di intelligenza artificiale, per parlare sempre di più di “intelligenza aumentata”: ho assistito negli ultimi mesi a presentazioni da parte di Ibm, Microsoft, Cisco e Oracle e questo è ormai the name of the game. Ma che rapporto c’è tra intelligenza artificiale e aumentata? Siamo semplicemente di fronte a un nome meno “intimidatorio” o a un vero e proprio cambiamento di strategia per i maggiori vendor? Certo, il termine Artificial Intelligence è stato oggetto di ondate di resistenza tecnofobica nel corso degli ultimi anni, favo-

rita anche da approcci tipo “singularity”, che prevedono un mondo dominato dalle macchine e in cui nel 2045 l’intelligenza non umana potrebbe superare quella combinata di tutti gli abitanti del Pianeta. Tuttavia gli elementi costitutivi più critici (e per molti preoccupanti) dell’Artificial Intelligence vera e propria sono quelli che caratterizzano il ragionamento umano, al di là della conoscenza, e cioè l’etica e la morale. Una macchina dotata di intelligenza artificiale dovrebbe, quindi, essere in grado di decidere autonomamente in una frazione di tempo ciò che è giusto e ciò che è sbagliato, o meglio ciò che è preferibile in contesti di grande criticità


e incertezza. Il che implica una capacità tecnologica ancora di là da venire. Non stupisce quindi che l’Industria Ict abbia deciso di concentrarsi per il momento sul concetto di intelligenza aumentata, intesa come sistemi determinati dai feedback, capaci di imparare da soli e di trovare conferme in sé stessi, che emulano ed estendono le abilità cognitive nel software. In altre parole: c’è un umano che tiene sotto controllo dietro le quinte ogni possibile scenario su cui il programma AI può dover operare, o che dice al computer in che modo debba imparare. In altre parole, un software developer imputa parecchi scenari “if this, then that” e crea una serie di reazioni che la macchina è in grado di attivare. Il fattore caratterizzante dell’intelligenza aumentata è l’intervento manuale che può dettare come, se e quando la macchina debba reagire. Un cedimento, quindi, alle resistenze della tecnofobia? Forse, in parte. Ma più realisticamente un riconoscimento dei limiti attuali della tecnologia e dell’esigenza di mettere a frutto già ora le grandi potenzialità di business che la tecnologia presente è in grado di offrire. Benché se ne parli molto, il mercato dell’AI è ancora molto limitato. Tractica, una società di ricerca specializzata nel settore, stimava il mercato complessivo a 644 milioni di dollari nel 2016, ma prevedendo una crescita esponenziale fino a 15 miliardi di dollari nel 2022. Questi dati tuttavia hanno poco senso se non chiariamo bene di che tipo di AI stiamo parlando. Una segmentazione interessante è quella proposta da Anand Rao, che considera tre modalità principali in cui il business può utilizzare l’AI. La prima è l’Assisted Intelligence, già ampiamente disponibile, che consente di migliorare ciò che persone e organizzazioni stanno già facendo. Essa amplifica il valore delle attività in corso e si applica a compiti chiaramente definiti, ripetibili e basati su regole. Per questo essa viene

spesso usata in modelli computerizzati di realtà complesse, per permettere di testare decisioni con rischi minori. La Augmented Intelligence, oggi emergente, consente invece a persone e organizzazioni di fare cose che non si potrebbero fare altrimenti. A differenza dell’Assisted Intelligence, altera profondamente la natura dei task e i modelli di business cambiano di conseguenza. La terza tipologia è l’Autonomous Intelligence, oggi in fase di svilippo, che permetterà di creare e mettere in funzione macchine che agiscono autonomamente, senza diretto coinvolgimento o supervisione umana. Servirà un tempo considerevole per sviluppare le tecnologie necessarie, ma ogni business interessato a sviluppare strategie basate su tecnologie digitali avanzate dovrebbe pensare seriamente sin da ora all’Autonomous Intelligence. Da un lato, possiamo considerare lo spostamento di attenzione dal tema generale dell’Artificial Intelligence a quello più limitato e concreto dell’ Augmented Intelligence come una scelta pragmatica dell’industria, orientata a capitalizzare nel breve le grandi opportunità dell’AI quali espansione delle capacità umane, nonostante i limiti delle tecnologie oggi disponibili. Una scelta caratterizzata anche da una narrazione consolatoria e rassicurante, in cui l’uomo mantiene una centralità rispetto agli altri “organismi informazionali”, biologici o artefatti. Una visione che invece l’Autonomous Intelligence è destinata a mettere profondamente in crisi. D’altro canto, possiamo citare una considerazione di Alessandro Baricco, intervenuto in occasione dell’inaugurazione degli Ibm Studios: “Per ogni passo che faremo verso l’accettazione delle macchine avremo bisogno di fare, contemporaneamente, un gesto che ci rassicuri sul fatto che siamo ancora umani. Per queste ragioni l’umanesimo è una delle merci che avrà più successo nei prossimi anni”. Roberto Masiero

NON ESISTE UN’UNICA “AI” Sulle definizioni di intelligenza assistita, aumentata e autonoma gli analisti hanno aperto il dibattito. Per alcuni la discriminante sta nel “potere decisionale” attribuito alle macchine: si considerano come sistemi di Assisted Intelligence quelli in cui la tecnologia esegue decisioni prese dalle persone, mentre nella Augmented Intelligence le scelte sono il frutto della collaborazione uomo-macchina e nella Autonomous Intelligence il software ha il pieno potere sia sull’esecuzione sia sulle decisioni. Una tassonomia ancor più semplice distingue tra le finalità: nel primo caso, quella di aiutare le persone e le organizzazioni a fare meglio cose che già si fanno; nel secondo, rendere possibili cose nuove, altrimenti irrealizzabili; nel terzo, lasciare che le macchine agiscano in autonomia al posto dell’uomo. Più delle distinzioni teo-riche, hanno però senso le incarnazioni pratiche di questi tre concetti: un dilemma pendente sul futuro riguarda sicuramente la guida driverless, che raggiungerà prima o poi il grado di autonomia massimo (il Livello 5) mettendo nelle mani del software scelte da cui dipenderanno la sicurezza su strada e vite umane. V.B.

53


INTELLIGENZA ARTIFICIALE

L'ALGORITMO ALLEATO DELLA FELICITÀ Le applicazioni dell'intelligenza artificiale sono ovunque. Dalla medicina all'arte, la tecnologia può arrivare dove l'intervento umano non arriva: ecco alcuni esempi.

H

a imparato a fare quasi tutto, pur con alcuni limiti ancora da superare, ma certamente spaziando con incredibile eclettismo tra i diversi campi della logica e dell’informatica, della medicina e della scienza, dell’economia e della cultura. Chi demonizza o teme l’intelligenza artificiale qualche ragione ce l’ha: basti citare il rischio di impatti negativi sui livelli di occupazione, di pericolosi impieghi militari, di invasioni di privacy con il riconoscimento facciale, e ancora il più generale problema del bias (il “pregiudizio” derivante dalla selezione dei dati con cui 54 |

OTTOBRE 2019

gli algoritmi vengono allenati) e le mistificazioni veicolabili con il deepfake. Tuttavia fioccano anche gli esempi di impieghi utili, benefici e persino etici dell’AI. Vicnere le sfide della medicina

L’intelligenza artificiale è già impiegata in diversi ambiti della medicina, per esempio nell’imaging e negli studi genetici. Ma è anche una speranza per le sfide oggi ancora irrisolte, come quella di ricreare un controllo sui movimenti nelle persone con midollo spinale lesionato, parzialmente o completamente paralizzate. Negli Stati Uniti, in Pennsylvania,

i ricercatori della Brown University di Providence e quelli di Intel hanno iniziato a collaborare in un progetto (Intelligent Spine Interface) finanziato dal Dipartimento della Difesa. Per due anni i ricercatori registreranno i segnali motori e sensoriali del midollo spinale e useranno reti neurali artificiali per scoprire come stimolare il punto in cui è avvenuta la lesione, affinché possa nuovamente trasmettere segnali ai muscoli. I chirurghi del Rhode Island Hospital impianteranno degli elettrodi in entrambe le estremità del punto di lesione del paziente, creando una sorta di bypass che potrà


permette ai nervi recisi di comunicare. Per realizzare tutto questo saranno usati strumenti software e processori di Intel, ottimizzati per le applicazioni di AI. I progetti futuristici non si annidano però solo negli Usa: in Italia, nel foggiano, è partita una sperimentazione finanziata dal Miur, a cui collaborano fra gli altri il system integrator Exprivia e l’Ircc Casa Sollievo della Sofferenza di San Giovanni Rotondo. Si-Robotics, questo il nome del progetto, permetterà di testare l’uso di robot per l’assistenza ospedaliera, domiciliare e residenziale a malati o persone anziane, ma anche di monitorare i pazienti da remoto, con sensori indossabili. Non si scartano nemmeno futuri impieghi ancor più avveniristici, come la chirurgia a distanza (telechirurgia) attraverso il cloud e le connessioni 5G. Intelligenza a difesa della “verità”

Le tecnologie grafiche, audio e video che, grazie ad algoritmi di machine learning, possono ricreare “finte realtà” sono utili all’industria dell’intrattenimento e a quella del gaming, ma possono diventare anche strumenti di mistificazione, diffamazione, propaganda politica o truffe. Uno studio di Nvidia, pubblicato l’anno scorso, mostrava gli incredibili risultati ottenibili con un generatore di immagini che parte da alcuni file fotografici per arrivare a creare immagini nuove: volti che non esistono nella realtà, ma di impressionante realismo. E più recentemente si è parlato di deepfake a causa di Zao, un’app che ha spopolato in Cina (permette di sostituire il proprio volto a quello di un attore famoso in spezzoni di film), e in Italia a causa di una nota trasmissione televisiva che ha inserito la faccia (vera) di un politico sul video di un suo imitatore. Gli algoritmi possono però anche contrastare questo genere di mistificazione e altre più pericolose che il futuro ci prospetta. Lo scorso settembre Facebook ha avviato la Deepfake Detec-

tion Challenge, iniziativa che oltre al social network vede impegnati Microsoft e ricercatori del Mit di Boston e di una manciata di università Usa. Il ricco progetto, sostenuto da 10 milioni di dollari di budget, punta a raccogliere miliardi di fotografie di volontari, che cederanno la loro immagine per alimentare algoritmi “smascheratori”. Si potrà “creare una tecnologia che chiunque possa usare per scoprire, più efficacemente, se l’intelligenza artificiale è stata impiegata per alterare un video”. La vena artistica dell’AI

L’AI ha qualcosa da dire anche in campo artistico. L’Università Tecnica di Delft, in Olanda, ha da poco pubblicato i risultati di un lavoro che ha permesso di restaurare virtualmente alcuni disegni deteriorati di Vincent Van Gogh: con le reti neurali convoluzionali (reti neurali artificiali che imitano il riconoscimento delle immagini della corteccia visiva animale) è stato addestrato un algoritmo affinché riconoscesse differenti stili pittorici e potesse, poi, completare le parti mancanti delle opere danneggiate. Valentina Bernocco

LA SANITÀ MIGLIORA E RISPARMIA Le applicazioni di AI per la medicina, negli Stati Uniti, permetteranno alla sanità nazionale di risparmiare qualcosa come 150 miliardi di dollari al giorno. Bisognerà aspettare il 2026 per capire se questa stima di Accenture sia corretta, ma numeri a parte ci sono pochi dubbi sulle potenzialità dell’intelligenza artificiale in questo settore. “A differenza delle precedenti tecnologie, che sono semplicemente algoritmi o strumenti a supporto delle persone, l’AI per la medicina oggi può davvero espandere le azioni umane”, scrive la società di consulenza, citando la chirurgia robot-assistita, le applicazioni di virtual nursing, l’assistenza al lavoro amministrativo, la scoperta di frodi, la riduzione degli errori nei dosaggi di farmaci, i macchinari connessi, l’analisi per la selezione dei partecipanti ai trial clinici, la diagnostica e la cybersicurezza.

AL SERVIZIO DEI GIUDICI DELLO SPORT Per la prima volta, i partecipanti a una competizione di ginnastica artistica non hanno dovuto temere solamente il voto dei giudici, ma anche quello di un software. Ai mondiali di ginnastica artistica andati in scena a ottobre a Stoccarda, in Germania, una soluzione basata su algoritmi e sensori è stata impiegata per registrare i movimenti durante le gare, fornendo ai giudici un supporto oggettivo per evitare errori nelle loro valutazioni. Judging Support System, questo il nome

della soluzione, è stato sviluppato da Fujitsu in collaborazione con la Federazione Internazionale di Ginnastica. Il sistema entra in gioco nel caso la Giuria lo richieda e può, in associazione alla moviola, eliminare dubbi tecnici e conseguenti voti ingiusti. Il sistema impiega in combinazione i sensori 3D e un programma di intelligenza artificiale per catturare i singoli movimenti dei ginnasti, che vengono poi tradotti in dati numerici e trasposti su un’interfaccia grafica tridimensionale.

55


PER STORMSHIELD DIGITAL TRANSFORMATION | TECHNOPOLIS Perpiciatis

IL LAVORO DELL'IT MANAGER IN UN MONDO CHE CAMBIA

Quando parla di sicurezza IT, il pensiero va principalmente ad attacchi hacker su larga scala, malware e vulnerabilità dei supporti informatici. Ma questa è solo la punta dell'iceberg. La sicurezza informatica è importante per qualsiasi attività aziendale che un manager IT è tenuto a proteggere. La cybersecurity dunque va estesa a tutti i dipendenti e a tutti i reparti dell'azienda, abbandonando ogni approccio a “compartimenti stagni”. Il ruolo del manager IT nel tempo si è evoluto da mera funzione operativa a figura strategica, che offre consulenze, fa corsi di formazione e contribuisce a creare una cultura di “igiene digitale” in tutta l’azienda. Ed è significativo che circa un terzo delle azioni che ogni giorno si compiono nei luoghi di lavoro riguardi la sicurezza informatica, e non l’ambito specifico di competenza dell’azienda, come sottolineato da Stormshield, noto produttore europeo di soluzioni di cybersecurity e azienda di proprietà del Gruppo Airbus Defence and Space. “Oltre alla gestione degli strumenti informatici e alla garanzia di un loro uso corretto e protetto”, spiega Franck Nielacny, Head of IT di Stormshield, “prima o poi qualsiasi progetto richiede la considerazione degli aspetti di sicurezza, indipendentemente dall'applicazione sviluppata o da quali nuove procedure debbano essere introdotte”. Il modo in cui il reparto IT deve gestire la sicurezza oggi come oggi è cambiato anche per un’altra ragione: i servizi esternalizzati dell’azienda. Vent‘anni fa il problema era la 56

difesa del “perimetro” attraverso dei “muri” che impedissero agli aggressori di varcare la soglia. Nel tempo, i sistemi IT sono diventati decentralizzati e si compreso che ciò che va protetto non è il sistema IT in sé, ma le informazioni. Oggi il lavoro di sviluppo software non si poggia quasi più su server interni alle aziende, oggi dominano la virtualizzazione e l’outsourcing e ci si avvale del Software-as-aService erogato dal cloud. Una tendenza potenzialmente positiva, purché le condizioni di utilizzo siano adeguate: va bene elaborare i dati tramite cloud o piattaforme SaaS, ma la protezione dei dati aziendali archiviati su server di terze parti non può essere esternalizzata in nessuna circostanza. Il compito fondamentale del dipartimento IT è rimasto inalterato: quello di monitorare i sistemi informativi dell'azienda. "L'infrastruttura IT sta mutando rapidamente, ma le colonne portanti dell’intero costrutto non vanno minate", sottolinea Nielacny. “Domani le cose non cambieranno. Anche se si utilizzeranno tecnologie completamente diverse”. Fra blockchain, IoT, cloud, serverless computing e machine learning, il terreno in cui operano i dipartimenti IT è in rapida trasformazione. "La sfida posta da queste tecnologie”, spiega Nielacny, “è la stessa del cloud: il reparto IT deve garantire che le infrastrutture e tecnologie selezionate siano affidabili e adatte alle esigenze degli utenti. Allo stesso tempo, le soluzioni devono essere sicure e integrate nel sistema informativo esistente". Stormshield prevede che sempre più, in futuro, le aziende chiederanno ai propri fornitori di SaaS di mettere a disposizione in cloud le infrastrutture e i software, lasciando però che i dati risiedano all’interno delle aziende stesse. "Se si esternalizza, è necessario comprendere i meccanismi di scambio e archiviazione dei dati e mantenerne il controllo, altrimenti si corrono notevoli rischi”, ammonisce Nielacny. “Un'azienda che perde il controllo dei propri dati è molto vulnerabile. Ecco perché qualunque azienda anche un domani avrà bisogno di un reparto IT in grado di garantire tale controllo". Quanto all’intelligenza artificiale, di cui tanto si parla, sarà un’arma a doppio taglio: aiuterà i reparti IT a individuare le minacce con maggiore efficacia e anche a prevederle, ma d’altra parte potrà far nascere nuove forme di attacco informatico. I responsabili IT dovranno preoccuparsi anche di questo.


CYBERSECURITY

I RISCHI NASCOSTI E LE AMBIGUITÀ DEL CLOUD Nei sistemi Infrastructureas-a-Service abbondano le configurazioni errate, ma le aziende non ne sono consapevoli. Lo svela uno studio di McAfee.

N

essun malware, nessuna squadra di cyberspionaggio all’assalto: spesso le violazioni con furto di dati sono colpa di banali errori di configurazione. I data breach, in altre parole, spesso sono resi possibili da errate configurazioni delle risorse Infrastructure-as-a-Service che contengono i dati oppure da configurazioni volutamente non sicure, opera di disonesti dipendenti o collaboratori (attuali o ex). Una password mancante, l’assenza di crittografia sui dati, o criteri di accesso che non pongono sbarramenti a difesa delle risorse cloud. Il problema delle configurazioni non sicure riguarda, infatti, soprattutto i server fisici e le macchine virtuali ospitati nella nuvola, come evidenziato da una nuova ricerca di McAfee titolata “Cloud-Native: The Infrastructure-asa-Service Adoption and Risk”. La società di sicurezza ha messo insieme un migliaio di interviste (realizzate su altrettanti professionisti It di 11 nazioni) e dati reali (tratti da 30 milioni di utenti del servizio McAfee Mvision) per capire se sulla questione delle configurazioni errate ci sia una percezione realistica opOTTOBRE 2019 |

57


CYBERSECURITY

pure no. Decisamente no: in media, gli intervistati ritengono di imbattersi in 37 problemi di configurazione di risorse IaaS al mese, mentre i monitoraggi di McAfee dicono che sono molte di più. In alcuni casi, migliaia. Non rassicura, inoltre, il fatto che circa un intervistato su quattro impieghi 24 ore o più per correggere l’errore dopo averne appreso l’esistenza. E si annoverano poi i casi estremi di chi ha ammesso di aver fatto trascorrere più di un mese dalla segnalazione prima di arrivare a risolvere il problema. Un problema di visibilità

Perché accade tutto questo? Il ricorso al cloud comporta i numerosi vantaggi che tutti conosciamo, dal denaro risparmiato (per gli acquisti di hardware non compiuti) alla maggiore flessibilità e scalabilità. Comporta però anche, almeno in molti casi, una perdita di visibilità sulle risorse di calcolo e storage. “Nella corsa all’adozione dell’Infrastructure-

as-a-Service”, commenta Rajiv Gupta, senior vice president of Cloud Security di McAfee, “molte aziende sottovalutano il modello di condivisione delle responsabilità tipico del cloud e danno per scontato che sia il provider a farsi carico della sicurezza. E invece la sicurezza di ciò che i clienti mettono nel cloud, e in particolare dei dati sensibili, è una loro responsabilità”. Tutta questa negligenza e mancanza di visibilità non possono che produrre effetti nefasti. Sul totale degli intervistati, il 90% ha dichiarato di essersi imbattuto in un problema di configurazione almeno una volta. A detta di McAfee, gli incidenti con perdita di dati da risorse IaaS sono aumentati del 248% nel giro di un anno. Il messaggio è chiaro: nessuno suggerisce di fare a meno del cloud, ma ignorare la questione delle configurazioni è una colpevole e pericolosa mancanza. Sarebbe come affidare beni preziosi a una cassaforte potenzialmente sicura, senza però preoccuparsi

di controllare che sia protetta da una combinazione. Se il cloud fallisce, di chi è la colpa?

Secondo le stime di Gartner, la spesa in servizi di “nuvola” pubblica aumenterà del 17,5% quest’anno, arrivando a superare i 214 miliardi di dollari, di cui 38,9 destinati all’Infrastructureas-a-Service. Mentre si allarga, il cloud si contamina, per così dire: dominano nelle aziende gli ambienti informatici ibridi, composti sia da risorse on-premise sia da server (dedicati o condivisi con altri) ospitati in data center esterni. Potremmo anche parlare di un cloud “bidirezionale”, come fa Fortinet in un recente studio che evidenzia come, su 350 aziende intervistate dalla società di ricerca Ihs Markit, il 74% conservi i propri dati in parte su macchine on-premise e in parte nel cloud, anche spostandoli avanti e indietro. Idealmente, nel cloud ibrido la gestione dell’ambiente It è coerente e centralizzata, permette di

MINACCE SENZA FRONTIERE, PERICOLI PER TUTTI I SETTORI Nessuno è al sicuro dai rischi di attacchi diretti ai sistemi in cloud. Fra industria, terziario e settore scolastico, qualche ambito viene preso di mira più di altri, qualcuno sa difendersi meglio e altri peggio, ma non esiste nessuna nicchia di immunità. Questo è emerso da uno studio particolarmente approfondito realizzato da Proofpoint, che ha analizzato per sei mesi (la prima metà del 2010) più di mille installazioni cloud aziendali, cui fanno capo oltre 20 milioni di account utente. Nell’indagine, alcune aziende risultano associate a più di una installazione, per esempio nel caso un dipartimento utilizzi la

58 |

OTTOBRE 2019

G -Suite di Google e un altro la piattaforma cloud Azure di Microsoft. Ebbene, nel semestre i ricercatori di Proofpoint hanno osservato più di 15 milioni di tentativi di attacco tramite login non autorizzato, dei quali oltre 400mila andati a buon fine (per i “cattivi”, s’intende). E sembra che i criminali considerino le scuole e le università, soprattutto, ma anche le aziende dell’agroalimentare come facili prede, dotate di deboli barriere sia tecnologiche sia culturali ad arginare tentativi di phishing, ingegneria sociale e altri tipi di assalto. In questi due ambiti, nelle statistiche del semestre, sono andati a bersaglio addirittura

sette login non autorizzati su dieci. D’altro canto, prede molto appetibili come le aziende del settore finanziario e della sanità hanno mostrato di sapersi difendere molto meglio: la percentuale di successo dell’attacco, in questi due casi, è stata rispettivamente del 20% e del 40%. Non c’è comunque da stare tranquilli a guardare le statistiche: in sei mesi, l’85% delle aziende osservate è stata presa di mira almeno una volta da tentativi di attacco; il 45% ha subìto almeno una intrusione su risorse cloud; nel 6% dei casi l’account di un dirigente aziendale è stato violato tramite login non autorizzato.


muovere dati e applicazioni da un luogo all’altro in modo flessibile e garantisce totale visibilità su tutte le risorse. Ma, nascoste fra i molti vantaggi di questo approccio, le insidie non mancano. “Per sfruttare appieno tutte le potenzialità del cloud”, spiega Filippo Monticelli, regional director per l’Italia di Fortinet, “le aziende devono assicurarsi che gli strumenti e le tecnologie utilizzati siano adeguati, garantiscano la capacità di automatizzare le operazioni e una buona visibilità in tutti gli ambienti. Questo significa che le imprese dovrebbero poter operare in una varietà di ambienti cloud pubblici e privati, oltre che nei network fisici on-premises. Mentre lo spostamento di applicazioni e servizi DevOps tra ambienti cloud è semplice e diretto, la sicurezza può rappresentare certamente una sfida”. Non sempre le aziende adottano policy di sicurezza coerenti su tutte le componenti dell’ambiente informatico, e questo è un primo problema.

C’è poi la questione della “responsabilità”, di cui si discute da qualche anno senza essere giunti a una vera conclusione: se si verifica un attacco o un incidente informatico, chi ne risponde? La società titolare dei dati o il fornitore di servizi cloud? Di fronte alla domanda, riferita a diversi possibili scenari (attacco DDoS, furto di dati, interfaccia API non sicura e altri) la maggior parte degli intervistati considera responsabili i provider e solo in seconda battuta il personale dell’azienda. In realtà la risposta, suggerisce Fortinet, è diversa a seconda dei casi. Un fornitore di servizi cloud non può essere considerato responsabile di un attacco Apt (Advaced Persistant Threat) che abbia preso di mira un’azienda per mesi, mentre ha qualche colpa se nel proprio software c'è una vulnerabilità. Chiarire ogni dettaglio sulle responsabilità prima di firmare un contratto può essere la via giusta per volare sul cloud con meno ansie e meno rischi. Valentina Bernocco

SALTO DI QUALITÀ PER IL PHISHING Un tempo era grossolano, facile da smascherare. Oggi il phishing (cioè il tentativo di “prendere all’amo” utenti con promesse truffaldine o siti Web malevoli, per ottenere dati personali o bancari) è anche sofisticato, grammaticalmente corretto, rivolto a bersagli specifici e ricco di stratagemmi. In settembre Libraesva, una società di cybersicurezza italiana, ha scoperto due campagne di phishing in cui venivano inviati messaggi di posta con link diretti su pagine Web ingannevoli, contenenti solo un reCAPTCHA di Google, elemento che in qualche modo rassicura il visitatore (è una verifica di sicurezza, che accerta la natura “umana” dell’interazione). In realtà, il reCAPTCHA veniva usato per proteggere il sito malevolo dai sistemi automatici di sicurezza, che altrimenti lo avrebbero bloccato. Di fronte a sofisticazioni come questa, non rassicura il fatto che nelle aziende raramente si faccia training sul tema. Lo studio “2019 Email Security Trends” di Barracuda ha evidenziato che, su 660 società operanti tra America, Europa, Asia e Africa, in meno di una su quattro il personale ha ricevuto una formazione specifica in merito al phishing. Di contro, il 43% delle aziende ha subìto almeno un tentativo di truffa via email nei 12 mesi precedenti al sondaggio.

59


CYBERSECURITY

SOLDI, TEMPO, SINERGIE: CHE COSA CI MANCA? Budget insufficienti per la sicurezza informatica, risposte agli attacchi troppo lente, mancanza di collaborazione fra colleghi: sono alcuni dei problemi emersi da studi di Accenture, Bitdefender e Trend Micro.

S

pendiamo, sì, ma forse ancora troppo poco o semplicemente male. Per dotarsi di sistemi di sicurezza informatica all’avanguardia le aziende devono necessariamente aprire il portafoglio, stanziando budget adeguati, ma non tutte riescono a farlo. Uno studio condotto a luglio 2019 dal fornitore di antivirus Bitdefender su circa seimila professionisti It aziendali (italiani, francesi, spagnoli, britannici, tedeschi, statunitensi, australiani e neozelandesi) ha evidenziato come in tutti i Paesi osservati il maggiore ostacolo percepito sia la mancanza di budget da dedicare alla cybersicurezza. L’Italia non spicca in positivo, considerando che da noi il 41% degli intervistati ha indicato la nota dolente dei soldi come prima causa dell’insuf60 |

OTTOBRE 2019

ficiente grado di sicurezza nell’It. Nel nostro Paese considera sufficiente la cifra stanziata dalla propria azienda solo il 24% dei professionisti It: è la percentuale più bassa tra gli otto Paesi, ben inferiore al 33% di media. Una lentezza problematica

“Il nostro consiglio è di concentrarsi sulle aree critiche di miglioramento”, suggerisce Denis Cassinerio, regional sales director Seur di Bitdefender. Un’area critica da migliorare è sicuramente la capacità di reazione agli incidenti, dato che siamo ancora tragicamente lenti: solo per poco più di un’azienda italiana su quattro (il 27%) la risposta è questione di ore, mentre nel 35% dei casi ci vogliono giorni prima che l’attacco venga rilevato. Che ci piaccia o

no, combinando questi due dati risulta che l’Italia sia, tra i Paesi considerati nell’indagine, il più lento nella risposta alle violazioni informatiche. “Lo studio”, prosegue Cassinerio, “rivela che i professionisti del settore considerano il miglioramento della protezione dei dati e una maggiore velocità di rilevamento e capacità di risposta i principali fattori per migliorare il profilo di sicurezza informatica delle loro aziende. Inoltre, gli intervistati suggeriscono che è necessario investire in strumenti più efficaci per il rilevamento delle minacce informatiche, con l'analisi del traffico di rete e la tecnologia antimalware in cima alla lista”. Le soluzioni di Endpoint Detection and Response (Edr), che eseguono monitoraggi continui e vanno alla ricerca di minacce nascoste, sono rite-


nute efficaci nella prevenzione di futuri attacchi dal 70% dei professionisti It intervistati. I soldi non danno la cyber-felicità

La questione economica è importante, dunque, ma non è tutto. Le aziende italiane riservano alla sicurezza informatica, in media, circa il 10% dei budget stanziati per l’It ed è una percentuale grosso modo in linea con la media mondiale, stando a un recente studio di Accenture (“The State of Cyber Resilience 2019”). Il successo delle strategie di cybersicurezza dipende però anche da altro, per esempio dalle competenze sul tema e dalla capacità dei dipartimenti aziendali di collaborare fra loro. La società di consulenza stima che in Italia solo il 59% degli asset aziendali (risorse informatiche ma anche dati) sia protetto attivamente dai programmi di cybersecurity, e questa lacunosa copertura rappresenta un primo problema. Un secondo, altrettanto grave, è la lentezza di risposta agli attacchi: basti pensare che quattro aziende italiane su dieci sforano le due settimane di tempo. Stando ai calcoli di Accenture, nei prossimi anni gli attacchi cibernetici causeranno alle aziende del mondo circa 5.200 miliardi di dollari di danni, sommando i costi diretti e i mancati ricavi per interruzioni di attività e danni reputazionali. “Questo evidenzia quanto la cyber security non sia solo uno strumento di protezione, ma una leva strategica di innovazione e crescita”, fa notare Paolo Dal Cin, Accenture Security lead per Europa e America Latina. “Ecco perché aumentare gli investimenti non basta: per renderli realmente efficaci è necessario mettere in campo azioni orientate sia a sviluppare una sempre maggiore cultura della sicurezza all’interno dell’azienda, guardando al dipendente come primo alleato, sia a ottenere una collaborazione continua e proficua

con partner, community e istituzioni, estendendo così il perimetro e la capacità di difesa”. Un bel lavoro, insomma, che bisognerà portare avanti attraverso adeguati budget di spesa ma anche con strategie definite. La solitudine dei responsabili della sicurezza

Si parlava, nello studio di Accenture, della collaborazione tra i dipartimenti come di un fattore di forza, spesso però mancante. La medesima impressione emerge da un’altra indagine di quest’anno, commissionata da Trend Micro e condotta da Opinium intervistando 1.125 responsabili della cybersicurezza fra Italia, Belgio, Finlandia, Francia, Germania, Olanda, Polonia, Regno Unito, Repubblica Ceca, Spagna, Svezia e Stati Uniti: si è scoperto che un terzo di loro patisce l’isolamento, non si sente compreso e sostenuto a dovere. In altre parole, il 33% dei ha detto di sentirsi “isolato” nel proprio ruolo e non supportato dai manager dell’azien-

da, mentre in Italia la percentuale degli “incompresi” arriva al 39%. Che cosa non funziona? Quasi un intervistato italiano su due, il 49% (contro una media globale del 44%), ha citato problemi di comunicazione: spesso è difficile riuscire a spiegare a personale non “tecnico” delle questioni complesse come quelle di sicurezza informatica, e spesso per farsi ascoltare è necessario che l’azienda cada vittima di un attacco. Per ben il 69% dei responsabili di cybersicurezza italiani (e per il 57% dell’intero campione) la comunicazione interna è la prima sfida lavorativa con cui ci si scontra nel quotidiano. Insomma, la questione della cybersicurezza in azienda è complessa, ma potrebbe cominciare a risolversi se le aziende considerassero tre soli elementi: i soldi, il tempo e la comunicazione. Aumentare i budget, dotarsi di tecnologie per la scoperta e la risposta rapida agli attacchi, e non dimenticare che non può esistere sicurezza informatica senza la collaborazione di tutto il personale. Valentina Bernocco

NUOVE VARIANTI DI WANNACRY COLPISCONO L’ITALIA Il motto “chi non muore si rivede” vale sicuramente per i malware, dato che gli attacchi di particolare successo si rigenerano nel tempo attraverso innumerevoli varianti di codice. Così sta succedendo per Wannacry, il famigerato ransomware che nella primavera del 2017 infettò oltre 200mila computer e server in giro per il mondo. Recentemente i ricercatori di Sophos hanno individuato 12.480 varianti del codice originario di Wannacry e, nel solo mese di agosto 2019, oltre 4,3 milioni di infezioni conclamate. Si tratta di minacce

particolarmente pericolose poiché riescono a evitare il kill switch, un dominio che solitamente che funge da “interruttore”, permettendo di attivare o disattivare un programma. Più di un quinto delle infezioni, il 22%, ha colpito bersagli situati negli Stati Uniti, mentre l’8,8% si è diretto in India, l’8,4% in Pakistan, il 7,3% in Perù, il 6,7% in Indonesia, il 6% in Bangladesh, il 5,8% nelle Filippine e il 5,7% in Italia. Potrà non sembrare una gran percentuale, ma siamo il Paese europeo più bersagliato dalle reincarnazioni di Wannacry.

61



ECCELLENZE.IT | Bper

OPEN-SOURCE E MICROSERVIZI TRASFORMANO LA BANCA L’istituto di credito emiliano si è rivolto alle tecnologie a codice aperto e a Red Hat per realizzare una nuova architettura basata su container per lo sviluppo e l’erogazione delle applicazioni. LA SOLUZIONE Bper ha realizzato con il framework di integrazione Apache Camel una nuova architettura, da cui vengono erogati servizi per oltre 1.200 sportelli bancari . Per le attività di sviluppo e distribuzione delle applicazioni vengono usati la metolodologia DevOps e la tecnologia dei container. Lo streaming continuo dei dati viene gestito con Apache Kafka.

I

n questo momento storico, le banche sono praticamente costrette a innovare. Per i clienti il cambiamento si vede essenzialmente nel front-end, attraverso servizi sempre più interattivi e multicanale. Alle spalle, però, c'è un'evoluzione che tocca in modo sostanziale le architetture che devono supportare i processi di business con logiche di velocità, flessibilità e time-to-market. In Bper (la ex Banca Popolare dell'Emilia-Romagna), il percorso di innovazione è stato avviato da cinque anni, avendo come punto di parte il dipartimento It. “Ci siamo posti il problema di come sopravvivere ed evolvere negli anni”, spiega Omar Campana, direttore It di Bper Services, la società del gruppo specializzata in tecnologia. “Il miglioramento delle nostre prestazioni passa per leve come la flessibilità e il time-to-market. Alla base deve esserci un'architettura che consenta di muoversi liberamente all'interno delle applicazioni e l'approccio che privilegia l’open-source

rende questo possibile”. Il primo passo di questa evoluzione si è stato l'introduzione di una architettura Soa (Service Oriented Architecture) basata sull’Enterprise Service Bus Camel di Apache. Qui si è avviato anche il rapporto con Red Hat. “Avendo scelto un approccio completamente aperto”, spiega Campana, “Red Hat era per noi l'interlocutore più logico, perché capace di supportare tecnologie come quelle che stavamo cercando. Garantiva, inoltre, il supporto necessario a sviluppi destinati a entrare rapidamente in produzione”. Su questa base è stata costruita la piattaforma per la vendita dei prodotti bancari, destinata a servire i 1.218 sportelli presenti oggi in 18 regioni italiane. Il passo successivo è stata l'introduzione della metodologia DevOps e dei container, necessari per poter riutilizzare componenti del lavoro già svolto in nuovi progetti e per favorire la collaborazione tra le diverse figure professionali della banca. “Il coinvolgimento di tutte le aree operative già a partire dal

design del progetto ha favorito un rilascio più rapido della nuova versione della piattaforma, che comprendeva nuovi prodotti e servizi estesi a raggio più ampio di clientela”, racconta Campana. In questo momento siamo al terzo step dell'evoluzione architetturale, che coincide con la partenza del nuovo piano industriale 2019-2021 di Bper. “Per estendere il campo d’azione anche all'implementazione e alla messa in esercizio delle applicazioni, stiamo andando verso il concetto di Infrastructure-asCode, in cui la gestione e il provisioning passano attraverso file di definizione e non più da configurazioni fisiche”, spiega il manager. “Così riusciremo ad assecondare la complessità di prodotti e servizi tipici di una banca come la nostra. Red Hat resta il nostro interlocutore privilegiato anche grazie alla disponibilità di tecnologie come Ansible e OpenShift, aggiornate in direzioni per noi molto interessanti, come lo streaming continuo dei dati gestito attraverso la piattaforma Apache Kafka”. OTTOBRE 2019 |

63


ECCELLENZE.IT | Coopservice

RISPARMI E PRODUTTIVITÀ CON I PROCESSI NEL CLOUD La società di servizi emiliana si è appoggiata alla consulenza di Insight per realizzare una nuova piattaforma digitale, basata su Microsoft Azure, per le comunicazioni e la gestione del personale.

T

anti servizi, diversificati e rivolti a clienti di vario tipo, tra uffici, ospedali, aeroporti, banche, abitazioni private e molto altro ancora. Coopservice dall’inizio degli anni Novanta a oggi è cresciuta fino sviluppare una variegata offerta di soft service (pulizie professionali, reception, facchinaggio), sicurezza (vigilanza, televigilanza, pronto intervento, trasporto valori), ricerca e selezione del personale, e ancora logistica specializzata, servizi tecnici e manutentivi, energy management. Nato nel 1991 a Reggio Emilia, oggi il gruppo è guidato da una cooperativa che conta più di 16.000 dipendenti, tra cui circa 6.000 soci, e realizza un fatturato annuo di 933 milioni di euro (nel 2018). La crescita ha spinto Coopservice ad avviare l’anno scorso un piano pluriennale di trasformazione dell’infrastruttura informatica e dei servizi It, mirato a migliorare la redditività ma anche la comunicazione tra l’azienda e i suoi stakeholder. Parte del progetto ha riguardato l’adozione di una nuova piattaforma digitale utile per interagire sia con i soci sia con il personale. Coopservice aveva chiari gli obiettivi: trovare un modo semplice per introdurre metodi e competenze e per migliorare i servizi offerti a clienti esterni e inter64 |

OTTOBRE 2019

ni. Ma per arrivare alla meta ha avuto bisogno di un partner che la aiutasse a definire le tecnologie più vantaggiose: si è dunque rivolta a Insight, una società di servizi IT che già la supportava nelle operazioni di pagamento delle licenze Microsoft. Nell’aria c’era una mezza intenzione di migrare sul cloud, ma la decisione di ricorrere a Microsoft Azure è stata presa solo alla luce del lavoro di assessment svolto dal personale di Insight, un’opera che ha evidenziato i benefici offerti dai servizi Platform-as-a-Service e Softwareas-a-Service e dalle architetture a microservizi. “Se prima dell’assessment avevamo il dubbio dell’adozione del cloud”, racconta Gianfranco Scocco, chief information officer di Coopservice, “dopo l’analisi condotta con Insight i vantaggi sono apparsi evidenti, così come i parametri economico-finanziari: il cloud faceva per noi”. Al termine del lavoro, la soluzione progettata da Insight e poggiata su Microsoft Azure dovrà supportare gli oltre 16.000 dipendenti nello svolgimento delle proprie attività. Un primo

progetto, già portato a termine e lanciato lo scorso maggio, è la Coopservice Community: un servizio che permette all’azienda di comunicare con i propri soci e collaboratori tramite sito Web o applicazione per smartphone. Dal mese di ottobre, inoltre, la nuova piattaforma digitale ha già consentito di eliminare il cedolino paghe cartaceo per i dipendenti e molti dei documenti ufficiali delle assemblee, fatti che si traducono in un risparmio di circa 250mila euro all’anno. “Questo è uno degli effetti immediati del progetto, ma è solo un punto di partenza”, sottolinea Scocco. “Oggi siamo in grado di gestire carichi di lavoro sempre più esigenti con lo stesso numero di persone, e il cloud ci permette di avere meno rischi rispetto alle architetture on-premise dei data center”. Attualmente Coopservice fa ancora affidamento su otto sale macchine interne, che verranno gradualmente sostituite con risorse cloud sia per contenere i costi sia per elevare i livelli di servizio e quindi, indirettamente, migliorare la soddisfazione dei clienti.


ECCELLENZE.IT | Iper

L’IPERMERCATO VIAGGIA VELOCE CON IL NUOVO WI-FI La catena lombarda fa della propria infrastruttura di rete un asset importante per garantire continuità di esercizio a tutti i punti vendita. Sfruttando il modello del networking “as a service”.

U

n’infrastruttura di rete Lan estesa a più di venti ipermercati in tutta Italia, prevalentemente al Nord, che di fatto rappresenta il sistema nervoso di tutta l’operatività giornaliera di un’azienda. Nata nel 1974 dall’intuizione di Marco Brunelli, nel tempo Iper è divenuta una realtà di riferimento della grande distribuzione italiana. Dall’inaugurazione del primo ipermercato a Montebello della Battaglia, in provincia di Pavia, sono passati quarant'anni e Brunelli è ancora a capo dell’azienda, ne guida lo sviluppo mantenendo fermi i valori che l’hanno sempre contraddistinta (popolarizzazione della qualità, convenienza, sicurezza alimentare, attenzione al territorio e investimento costante nella formazione dei dipendenti) e stimolando in prima persona l’innovazione dal punto di vista delle risorse informatiche. La rete, in Iper, è dunque un asset assai importante e nel caso del progetto realizzato con Huawei ha visto l’installazione di circa 1.200 switch corredati da un’ampia batteria di servizi di network management accessibili in modalità “networking as a service”. La scelta di cambiare fornitore è nata dall’esigenza “di avere maggiori prestazioni e un migliore rapporto qualità-prezzo sui prodotti di networking. In termini di capacità di banda la connettività a 10 megabit è sufficiente, ma il punto critico sono le apparecchiature”, come racconta Marco Mereu, project management officer e responsabile infrastrutture It di Iper. La rete Lan è il cuore dell’attività del supermercato, alle casse che devono operare

in modo indipendente dal sistema informativo centrale così come nei magazzini e nelle applicazioni che gestiscono il caricamento a scaffale e il riordino “just in time” dei prodotti. “Per questo”, spiega Mereu, “ogni cinque anni portiamo a LA SOLUZIONE Il prodotto chiave della soluzione che Huawei ha implementato in Iper è l’access point AP7060DN, un dispositivo con antenne omnidirezionali integrate che supporta lo standard wireless 802.11ax e ed è in grado di raggiungere una capacità di connessione di 6 Gbit al secondo. Il suo magior pregio è quello di eliminare facilmente i colli di bottiglia della larghezza di banda, riducendo la latenza media da 30 a 20 millisecondi. Sfrutta, inoltre, in modo integrato tecnologie 5G come Ofdma e Mu-Mimo 5.

termine un aggiornamento tecnologico completo degli apparati It”. Sui vantaggi ottenuti a valle dell’implementazione dei sistemi di connettività compatibili con lo standard Wi-Fi 6 (802.11ax) di Huawei, il manager di Iper va sul sicuro puntando sulla componente affidabilità: “La ridondanza sui dispositivi di rete e dei dati, che replichiamo in tre copie, è necessaria per evitare qualsiasi fermo di sistema. Se una cassa risulta non operativa, per l’azienda è un grave danno economico in quanto l’ipermercato vive 24 ore su 24 e non solo nella fascia di apertura al pubblico”. In Iper, insomma, la business continuity è un imperativo al pari della sicurezza di dati e applicazioni. L’accessibilità a queste ultime viene assicurata da un sistema automatico di back up delle macchine virtuali, dalle mini server farm attive in ogni punto vendita e dal data center ospitato all’interno della sede Telecom di Rozzano. Oltre che da una rete che può sfruttare tutti i benefici del protocollo wireless di sesta generazione. OTTOBRE 2019 |

65


ECCELLENZE.IT | Istituto di Oncologia Molecolare (Ifom)

L’INTELLIGENZA ARTIFICIALE È ALLEATA DELLA RICERCA MEDICA L’istituto creato dalla Fondazione Italiana per la Ricerca sul Cancro protegge la propria rete con la tecnologia di Darktrace: la scoperta delle minacce è velocizzata dal machine learning.

L

a salute è preziosa, anche quella dei dati. I 600 ricercatori dell’Istituto di Oncologia Molecolare (Ifom) della Fondazione Italiana per la Ricerca sul Cancro svolgono un lavoro importantissimo, quello di studiare lo sviluppo dei tumori a livello molecolare. Provenienti da tutto il mondo, operano a Milano in un campus da 24mila metri quadri, dove “si lavora giorno e notte”, come spiega Igal Janni, chief information officer di Ifom. Il data center interno all’istituto è sostanzialmente un cloud privato con certificazione tier 4, contenente una quantità di dati compresa fra 2 e 3 PB e suddivisa tra macchine virtuali (circa 500), server fisici (una cinquantina) e storage computazionale. “La forza di questo centro sono la capacità di analisi dei suoi ricercatori e la velocità nello scambio di informazioni con altri ricercatori in tutto il mondo: tutto questo si deve coniugare con la necessità di gestire dati estremamente sensibili, che devono essere protetti da perdita, manomissione o furto”, illustra il Cio. Per difendere più efficacemente sia i dati dei pazienti sia i risultati delle ricerche mediche, Ifom ha deciso di realizzare un nuovo sistema di sicurezza basato sull’intelligenza artificiale. “Abbiamo considerato diverse opzioni, chiedendo ai nostri partner di realizzare un proof-of-concept della durata di tre mesi, per poter poi prendere in considerazione 66 |

OTTOBRE 2019

l’uno o l’altro”, racconta Janni. L’obiettivo era quello di definire dei “prototipi” comportamentali di qualsiasi oggetto collegato alla rete dell’istituto, così da poter identificare le potenziali minacce sulla base delle anomalie. “Solo Darktrace è stato rapido nell’assecondarci”, prosegue il Cio. “E ci si è aperto un mondo: non pensavamo di avere all’interno della nostra rete così tanti attacchi, tra 100 e 150 al giorno, concentrati in determinati orari e provenienti soprattutto dall’america del sud e dall’estremo oriente. Attacchi molto mirati su dipartimenti interni o su specifici server. Ce ne siamo accorti considerando i prototipi comportamentali di alcuni device”. L'intelligenza artificiale permette a Ifom di scoprire eventi anomali e di identificare gli attacchi informatici in tempi molto più brevi rispetto al passato, nell’ordine di secondi anziché di giorni. “Prototipizzando i device, siamo in grado di andare a bloccare quasi in tempo reale i comportamenti illeciti o potenzialmente pericolosi”, assicura il chief information officer. Come beneficio collaterale, il progetto ha anche

permesso a Ifom di migliorare la velocità della rete Lan e di modificare alcune policy di sicurezza relative agli smartphone e ai computer portatili utilizzati dai ricercatori. "Con l'intelligenza artificiale di Darktrace al timone, i nostri ricercatori potranno continuare a fare scoperte in grado di cambiare la vita delle persone, sapendo allo stesso tempo che il loro lavoro è protetto da un sistema immunitario digitale”. LA SOLUZIONE Ifom ha adottato la piattaforma Cyber IA di Darktrace, una tecnologia che impiega un tipo di machine learning non supervisionato per analizzare i dati di rete in scala. La soluzione esegue miliardi di calcoli e identifica i pattern di comportamento “normale” dei dispositivi e della rete, così da potersi accorgere di eventuali anomalie in tempi rapidissimi.


Libera il tuo potenziale in piena sicurezza Protezione ThinkShield integrata di Lenovo.

REALIZZATO PER IL BUSINESS, PENSATO PER TE.

Processore Intel Core™ i7 ®

Risolvi più rapidamente i problemi IT e accedi a un livello elevato di supporto tecnico con Lenovo Premier Support. Per saperne di più, visita la pagina Web all’indirizzo lenovo.com/TransformingWorkplaces

© 2019 Lenovo. Tutti i diritti sono riservati. I prodotti sono disponibili fino a esaurimento delle scorte. Lenovo non è responsabile di eventuali inesattezze delle immagini o errori tipografici. Lenovo, il logo Lenovo e ThinkBook sono marchi o marchi registrati di Lenovo. I nomi di prodotti e servizi di terze parti possono essere marchi di terzi. Intel, il logo Intel, Intel Inside, Intel Core e Core Inside sono marchi di Intel Corporation o di società controllate da Intel negli Stati Uniti e/o in altri Paesi. A seconda di vari fattori, quali la capacità di elaborazione delle periferiche, gli attributi file, la configurazione del sistema e gli ambienti operativi, l’effettiva velocità di trasferimento dei dati dei connettori USB varia e in genere è inferiore agli standard pubblicati (5 Gbit/s per USB 3.1 di prima generazione, 10 Gbit/s per USB 3.1 di seconda generazione e 20 Gbit/s per USB 3.2). Le funzionalità e le immagini dei prodotti possono variare in base al modello specifico. Per informazioni, consulta i distributori.


www.technopolismagazine.it

SEMPLICI

per far risparmiare tempo

SCALABILI

per crescere in base alle esigenze

SOSTENIBILI

per rispettare l’ambiente

SICURI

per proteggere le informazioni

Ecco perché i nuovi multifunzione a colori A3 di Ricoh sono

intelligenti e consentono di lavorare in modo più smart! www.ricoh.it


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.