Page 1

NUMERO 14 | GIUGNO 2015

STORIE DI ECCELLENZA E INNOVAZIONE

LE STRADE DIGITALI DI EXPO Guido Arnone, direttore technologies & digital innovation di Expo 2015, spiega quale sarà l'eredità dell'Esposizione Universale e i suoi riflessi sulle future smart city.

SOCIAL BUSINESS

20

Nei prossimi cinque anni il giro d'affari sfiorerà i 40 miliardi di dollari. Con le piattaforme di collaborazione aziendale in testa.

OBIETTIVO SU

40

Fastweb inaugura a Milano un nuovo data center, ai vertici mondiali in tema di sostenibilità e prestazioni.

QUADERNO Una rivista nella rivista per approfondire le tecnologie, le soluzioni e gli scenari relativi a Internet delle Cose. Distribuito gratuitamente con “Il Sole 24 ORE”


SOMMARIO 4 STORIE DI COPERTINA STORIE DI ECCELLENZA E INNOVAZIONE

N° 14 - GIUGNO 2015 Periodico bimestrale registrato presso il Tribunale di Milano al n° 378 del 09/10/2012.

Expo 2015

9 IN EVIDENZA L’analisi: Il mercato unico digitale per l’Europa Emc: uno storage nuovo per un mondo nuovo F5 Networks, sicurezza a misura di cloud

Direttore responsabile: Emilio Mango Coordinamento: Gianni Rusconi Hanno collaborato: Cosimo Accoto, Alessandro Andriolo, Piero Aprile, Andrea Bacchetti, Michele Barbera, Valentina Bernocco, Carlo Fontana, Paolo Galvani, Piergiorgio Grossi, Paolo Lombardi, Stefano Previti, Maria Luisa Romiti, Claudia Rossi, Laura Tore, Massimo Zanardini Progetto grafico: Inventium Srl Sales and marketing: Marco Fregonara, Francesco Proietto Foto e illustrazioni: Dollar Photo Club, Istockphoto, Martina Santimone

Hp: il data center cambia in un flash L’opinione: Vmware guarda a reti e automatizzazione

18 SCENARI Digital marketing: la collaborazione è vincente Social business: la disruption non si ferma Big Data: il futuro è un mosaico di bit

27 SPECIALE Unified communication e smart working

33 ECCELLENZE.IT Comune di Bologna - DataCore Kpnqwest Italia - Hp Gruppo Marchesini - Sinergy

Editore, redazione, pubblicità: Indigo Communication Srl Via Faruffini, 13 - 20149 Milano tel: 02 36505844 info@indigocom.it www.indigocom.com Stampa: RDS Webprinting - Arcore © Copyright 2015 Indigo Communication Srl Tutti i diritti di proprietà letteraria e artistica riservati.

36 ITALIA DIGITALE L’innovazione che ancora non c’è La rivoluzione dal basso si fa col talento Startup, fonte di occupazione

40 OBBIETTIVO SU Fastweb

45 VETRINA HI TECH Tablet, la spinta può arrivare da Microsoft In prova: Hp Color LaserJet M553x

Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto.

51 I QUADERNI DI TECHNOPOLIS Internet of Things

Pubblicazione ceduta gratuitamente.


STORIA DI COPERTINA | Expo 2015

UNA SMART CITY DA MANUALE Il chilometro quadrato della cittadella alle porte di Milano è un modello da replicare, anche parzialmente, in altri contesti. Visitatori ed espositori sfruttano la rete in fibra ottica e WiFi di Telecom Italia, integrata con gli apparati di Cisco, oltre a servizi di telefonia Ip e telepresenza.

N

on solo una smart city, ma un manuale per future città intelligenti. La prima eredità di Expo 2015, dopo la chiusura di fine ottobre, sarà di tipo tecnologico: gli spazi dell’esposizione universale milanese sono un concentrato di connettività e servizi, che può fungere da modello per futuri progetti cittadini. E mirano a costruire un’esperienza di visita doppia, cioè concreta e digitale allo stesso tempo. Il chilometro quadrato che accoglie i padiglioni nazionali e quelli tematici, oltre all’arena degli spettacoli e ai percorsi del Cardo e Decumano, è fra le aree più “smart” mai realizzate in Italia. Qualche numero? Più di duecento chilometri di fibra ottica, una rete 4G Lte che sfrutta sei antenne macro e dodici micro, e poi 2.770 access point e un centinaio di totem multimediali che trasmettono contenuti registrati ed eventi in diretta. Dietro i numeri ci sono due nomi, quelli di Telecom Italia e di Cisco Italia, scelte dalla società di Expo come partner tecnologici in grado di offrire servizi di connettività agli espositori e ai visitatori della fiera. E non era un’impresa semplice, considerando che l’aspettativa è quella di arrivare a 20 milioni di visitatori nel semestre, con picchi di duecentomila presenze quotidiane. Telecom Italia ha vinto il bando di gara per il service provider, con l’incarico 4

| GIUGNO 2015

di realizzare un’infrastruttura di rete, fissa e mobile, ad alta velocità, nonché di gestire i collegamenti alla rete WiFi. Il network senza fili (federato, fra l’altro, con la WiFi pubblica di Milano in modo da richiedere all’utente un’unica procedura di autenticazione) poggia sugli switch e sugli access point di Cisco, azienda che è entrata nel progetto Expo nel 2012, essendo stata selezionata per realizzare il design architetturale e poi l’implementazione di servizi basati sul protocollo Ip. “La visione di Expo è stata quella di far viaggiare tutte le soluzioni tecnologiche sul protocollo Ip, assecondando esigenze di standardizzazione e di uniformità”, spiega Fabio Florio, Expo 2015 leader di Cisco Italia. L’azienda è stata scelta anche in virtù delle precedenti esperienze in grandi eventi, come l’Expo 2010 di Shangai e le Olimpiadi di Londra del 2012. L’impresa milanese, però, era ancor più ambiziosa. “La nostra è non solo una fornitura di prodotti, ma anche di servizi, dal momento che abbiamo realizzato il design architetturale delle soluzioni poi implementate”, sottolinea Florio. Dopo la vittoria del bando di gara si è aperta la fase progettuale: si è ragionato sul posizionamento degli access point, su come stendere la fibra ottica nei diversi spazi del polo fieristico, su come ottenere ridondanza e su altri dettagli tecnici. Con l’obiettivo di realizzare


TECNOLOGIA E SOSTENIBILITÀ “Feeding the Planet. Energy for life”. I temi della sostenibilità alimentare e ambientale sono il cuore e la ragione d’essere di Expo. E la tecnologia li ha assecondati, in vari modi. I consumi energetici di tutti gli oggetti connessi alla rete sono controllati da EnergyWise, soluzione di Cisco che non solo misura, ma permette anche di gestire il sistema (per esempio, spegnendo gli apparati non in uso). L’infrastruttura di rete, inoltre, si integra con i sistemi di monitoraggio dell’alimentazione elettrica fornita da Enel. C’è poi Safety for Food, una piattaforma che consente la tracciabilità degli alimenti lungo tutta la filiera, dalla materia prima alla distribuzione del prodotto, e che vuol creare una “banca dati mondiale” dell’agroalimentare. Nato lo scorso anno da una collaborazione fra Cisco Italia e la società di consulenza Penelope Spa, il progetto vedrà una delle prime applicazioni pratiche in scena a Expo, su due prodotti di Barilla.

5


STORIA DI COPERTINA | Expo 2015

non un’opera effimera, ma un modello potenzialmente replicabile. “Questa infrastruttura”, prosegue il manager di Cisco Italia, “vuol rappresentare un ideale di smart city che, se non interamente, può almeno parzialmente essere ricreato in altri contesti in termini di rete cablata, di WiFi, di soluzioni cloud. Tant’è vero che uno dei temi su cui si è lavorato nella Carta di Milano (un manifesto collettivo sull’eredità dell’esposizione, elaborato nei mesi precedenti all’inaugurazione con il contributo di quattromila persone, ndr) è proprio il ruolo di Expo 2015 come smart city replicabile”. La rete di trasporto fisso conta una cinquantina di switch “core” Cisco e circa 1.100 access switch distribuiti su tutto il sito. A completare il quadro, schermando il rischio di attacchi informatici e furto di dati, intervengono un centinaio tra firewall e apparati Ips (Intrusion Prevention System). La rete WiFi ha invece 2.700 access point, posizionati sia nelle aree di Expo sia nei padiglioni dei Paesi partecipanti. La tecnologia, chiaramente, serve non solo a chi visita per connettersi al Web, usare le app e condividere la propria esperienza sui social network, ma anche ai dipendenti e agli espositori. Telecom Italia ha messo a disposizione oltre duecento server e 50 terabyte di storage per ospitare servizi e applicazioni, mentre Cisco ha fornito più di duemila telefoni Ip e un centinaio di sistemi per la videoconferenza, fra telefoni video Ip e apparati di telepresenza, oltre al software Cisco Jabber. Altro elemento centrale nella smart city di Expo è la Service Delivery Platform realizzata da Accenture, una sorta di sistema nervoso che raccoglie, analizza e conserva dati, oltre a poter gestire servizi e attività di marketing. La piattaforma può farsi carico ogni giorno di 2,5 milioni di transazioni, inviare fino a 7,5 milioni di notifiche sulla base della localizzazione dei visitatori, 150mila email e 2,6 milioni di Sms. Valentina Bernocco 6

| GIUGNO 2015

IL DIGITALE RADDOPPIA L’ESPERIENZA Chi visita Expo può navigare accedendo al WiFi realizzato da Cisco installando 2.700 punti di accesso, di cui 700 in esterno. Una rete fra le più grandi mai realizzate e federata con la WiFi pubblica del Comune di Milano. “Uno dei vantaggi”, illustra Florio, “è quello di poter offrire una uniformità di esperienza ai visitatori che si spostano dalle aree pubbliche di Expo ai padiglioni”. Oltre a fornire circa duemila telefoni Ip (fissi e WiFi), Cisco Italia ha dotato gli organizzatori di Expo degli strumenti necessari per comunicare: dall’instant messaging Cisco Jabber al servizio di webconferencing WebEx, fino alla installazione di un centinaio di postazioni per la Telepresence. La connettività serve anche a far funzionare l’app ufficiale dell’evento, realizzata da Accenture e premiata da oltre 250mila download ancora prima dell’inaugurazione. Il “raddoppio digitale” dell’esperienza di visita è affidato anche ai cento totem e ai venti grandi schermi “e-wall” che trasmettono contenuti multimediali, il cui palinsesto viene

gestito dai sistemi di Digital Signage di Cisco. Spostandosi fra Palazzo Italia, il Cardo e l’Albero della Vita si può seguire il “grand tour digitale” suggerito da un’app sviluppata da Tim; oppure, noleggiando un tablet direttamente sul posto, si può (con il servizio Tim2go) navigare in 4G, accedere a video on demand e archiviare contenuti su uno spazio in cloud.


Un grande progetto hi-tech, misurabile e replicabile Expo 2015 è la prima esposizione universale completamente digitale e servirà come banco di prova di molte tecnologie adottabili nei contesti metropolitani.

blica aperta della manifestazione e navigare nel sito di Expo o nell’app mobile ufficiale, per consultare le iniziative e le proposte di intrattenimento dei vari padiglioni e cluster. Per la prima volta sarà possibile effettuare, dal sito Web dell’evento, tour virtuali in 3D dei padiglioni e dello spazio espositivo e immergersi nel mondo di Expo con la tecnologia di realtà aumentata di Oculus. Le tecnologie sperimentate saranno trasferite in altri contesti applicativi?

D

ai tour virtuali dei padiglioni alla complessa infrastruttura “nascosta” che gestisce le reti di comunicazione, passando per la grande varietà di servizi e piattaforme digitali a disposizione di operatori e visitatori. Il cuore pulsante dell’esposizione universale è un concentrato di tecnologie che operano in modo sinergico e complementare in un’ottica di smart city integrata. Ce lo spiega Guido Arnone, direttore technologies & digital innovation di Expo 2015. Quanto è stato investito in tecnologia per Expo 2015?

Occorre dire che i diversi progetti sono stati avviati con i budget di sponsorizzazione dei partner di Expo. In totale parliamo di circa 370 milioni di euro, di cui 150 a firma delle aziende che hanno fornito prodotti e servizi tecnologici a 360 gradi, dagli apparati di networking alle auto elettriche. I principali sponsor? Cisco Italia, Telecom Italia e Accenture. In quali aree la tecnologia gioca il ruolo più importante?

Il progetto di smart city che sta alla

base di Expo fa leva su tecnologie che non si vedono, ma che sono risultate fondamentali per costruire e far funzionare i padiglioni e l’intera infrastruttura elettrica e di comunicazione. Quella che internamente definiamo “piastra” è un’architettura che ospita in cloud, appoggiandosi a un data center esterno, il 95% di tutti i sistemi che gestiscono il portale Web, l’attività di ticketing e i servizi informatici. On site operano invece una piattaforma It dedicata alle operation delle casse e i server per la videosorveglianza. La nostra priorità è stata quella di poterci garantire tutta la scalabilità necessaria per sostenere i picchi di traffico e di richieste di elaborazione. Dove emerge maggior valore aggiunto per il visitatore?

Expo 2015 si può definire la prima esposizione universale “full digital” ed è quindi la componente digitale a trasformare l’esperienza di visita, offrendo come mai successo in passato un’interazione in real time con l’evento. Faccio un esempio. Con il proprio smartphone ci si può collegare in WiFi alla rete pub-

Expo 2015 sarà un evento misurato in termini quantitativi e qualitativi per la sua capacità di essere smart. Verranno analizzate giorno dopo giorno tutte le soluzioni implementate, dalle reti 4G Lte a quelle in fibra ottica con tecnologia Gpon, fino ai sistemi smart grid. Verificheremo quanto le operation e i servizi di Expo saranno migliorati a livello funzionale, economico e in chiave ecosostenibile. È ciò che chiamiamo “smartainability”, idea che risponde al preciso intento di poter replicare questa esperienza in chiave di città intelligente. Una definizione che riassume lo spirito innovativo di Expo?

Expo vuole essere, ed è, un progetto digitale integrato nel contesto urbano, con i servizi della città di Milano. La nostra smart city è un modello tecnologico e di governance che nasce da zero e grazie a un forte lavoro progettuale. Abbiamo integrato diversi strati – penso a energia, telecomunicazioni, informatica e sicurezza – e li abbiamo messi a fattor comune per realizzare applicazioni, servizi e soluzioni digitali da offrire all’utente cittadino. Gianni Rusconi 7


IN EVIDENZA

l’analisi MERCATO UNICO DIGITALE: L’EUROPA CERCA LA STRADA PER CRESCERE Perché c’è bisogno di un mercato digitale unico, così come prevede il piano strategico varato il 6 maggio dalla Commissione Europea? Una risposta, fra le tante possibili, sta in alcuni numeri. Nei 415 miliardi di euro all’anno che aumenterebbero il valore dell’economia dei 28, nelle centinaia di migliaia di nuovi posti di lavoro che il “digital single market” andrebbe a generare. Ma anche, se non soprattutto, nei 315 milioni di internauti europei che vorrebbero essere più tutelati e più invogliati a utilizzare gli strumenti digitali per acquistare, lavorare, comunicare. Al momento di annunciarlo, il presidente della Commissione, Jean-Claude Juncker, ha parlato di basi solide per creare reti di telecomunicazioni su scala continentale (molti degli interventi verteranno sullo spettro radio), servizi innovativi transfrontalieri e soluzioni condivise per la protezione dei dati personali e la cybersicurezza. A Bruxelles rivendicano il merito di aver gettato le fondamenta per il futuro digitale dell’Europa (16 le azioni da attuare entro la fine del 2016) su temi come copyright, investimenti per la banda larga e acquisti online negli altri Paesi. Il piano è quindi una rivoluzione ad ampio spettro? Sì, sulla carta lo è. L’Europa vuole mostrarsi forte sul digitale, al cospetto degli Usa e dei giganti del Web a stelle e strisce (Google in testa) e l’Unione, mai come ora, è prodiga di “consigli” agli Stati membri sull’importanza dell’innovazione per la ripresa e il futuro sviluppo di tutta l’area comunitaria.

Acquisti online, copyright, telecomunicazioni: il piano varato dalla Ue è completo. Ma per sostenerlo serve una solida infrastruttura, regolatoria e tecnologica. I risultati che si potranno ottenere dalla manovra, se prendiamo per buoni i numeri citati dal vicepresidente della Commissione, Andrus Ansip, sono notevolissimi. Se i consumatori potessero scegliere, per i loro acquisti online, tra una gamma di beni e servizi allargata a tutti i 28 Paesi dell’Unione, risparmierebbero nel complesso qualcosa come 11,7 miliardi di euro l’anno. Ma affinché tutto l’impianto funzioni è necessaria una solida infrastruttura, regolatoria e tecnologica, a livello di telecomunicazioni e di piattaforme online. Non meno rilevanti sarebbero gli impatti di una strategia “digital by default” nel settore pubblico, quantificabili in risparmi nell’ordine dei 10 miliardi di euro l’anno.

Migrare al digitale è un compito complesso perché tante sono le variabili interessate dal cambiamento. Un nervo scoperto è la carenza di competenze: il settore dell’Information e Communication Technology genera oggi circa 120mila nuovi posti di lavoro l’anno, ma l’Europa potrebbe trovarsi nel 2020 con un gap di oltre 800mila addetti specializzati. Senza dimenticare che già oggi circa il 40% dei professionisti non possiede nozioni digitali adeguate. Un buco che le azioni finalizzate alla creazione del mercato unico devono chiudere, perché oggi la Ue viaggia a diverse velocità, mentre dovrebbe correre unita per ridurre il proprio digital divide. Gianni Rusconi

GIUGNO 2015 |

9


IN EVIDENZA

L’annuale convention di Las Vegas ha snocciolato novità per i sistemi flash e le infrastrutture iper-convergenti. Necessarie per sostenere l’esplosione dei dati e del mobile.

IL LAVORO AGILE? SOGNO REALE

David Goulden

EMC: UNO STORAGE NUOVO PER UN MONDO NUOVO Siamo in un’era di passaggio dal vecchio al nuovo mondo, uno scenario che manterrà elementi del passato ma che è davvero rivoluzionario in termini di architetture (dal modello client/server al cloud), device, applicazioni e quantità di dati da gestire. “Fra soli cinque anni nel mondo ci saranno sette miliardi di persone che si connettono al Web usando 30 miliardi di dispositivi. E il software diventerà l’abilitatore chiave per questo mondo connesso e digitale”, ha sottolineato David Goulden, chief executive officer di Emc Information Infrastructure, durante il suo keynote all’annuale Emc World di Las Vegas. Goulden ha citato il fenomeno dei droni, i sensori dell’Internet of Things e le applicazioni mobili, ricordando poi che “ciò che più conta, in questo scenario iper-connesso, è che non torneremo mai indietro. Possiamo solo andare avanti”. Le novità presentate includono XtremIo 4.0, aggiornamento del firmware che fa lavorare gli omonimi sistemi array all-flash e che ora consente di usare fino a otto (e non più sei) X-Bricks, cioè otto blocchi composti da drive flash e controller. E poiché i nuovi X-Bricks hanno una densità doppia rispetto a quelli attuali, arrivando a 40 TB, la 10

| GIUGNO 2015

configurazione massima ottenibile è ora di 320 TB per cluster. Sul palco di Las Vegas è poi salita VxRack: una nuova famiglia di sistemi iper-convergenti a marchio Vse, che trova collocazione nei data center di grandi aziende e service provider, e che funziona con Vmware e altri hypervisor. La promessa è quella di semplificare drasticamente il deployment di applicazioni distribuite Tier 2, per mobile e per il cloud. Vce VxRack vuol essere l’anello di congiunzione fra i sistemi per data center vBlocks e le appliance per piccole e medie imprese vSpex, dal momento che combina la scalabilità dei primi (si può partire da qualche decina di server per arrivare a diverse migliaia) e la semplicità d’uso delle seconde. Emc ha anche annunciato una nuova strategia votata all’open source: per la prima volta, un suo prodotto verrà offerto gratuitamente alla comunità degli sviluppatori. Si tratta di Project CoprHd, versione a codice aperto del controller per il software-defined storage Emc ViPr; sarà disponibile dal mese di giugno con download diretto da Github. ScaleIo, un software per lo storage a blocchi condiviso, sarà invece scaricabile attraverso l’Emc Community Network. V. B.

Tanti lo desiderano, pochi possono usufruirne. È il lavoro agile, o smart, una modalità che in Italia viene applicata sistematicamente (cioè a tutte le categorie di professionisti) solo dal 10% delle imprese. “Esistono ancora molte resistenze a livello culturale”, dice Benjamin Jolivet, country manager di Citrix Italia, “verso forme di lavoro basate più sul raggiungimento di obiettivi concordati che sul numero di ore trascorse in ufficio. In Citrix siamo però convinti che il futuro sarà sempre più software-defined anche per quanto riguarda il posto di lavoro”. Non è un caso che la multinazionale abbia orientato le sue soluzioni per la virtualizzazione del desktop in direzione della mobilità, del cloud e in generale dell’accesso immediato al proprio ambiente lavorativo (inteso come applicazioni e dati) da qualsiasi dispositivo. Benjamin Jolivet

“Il mercato unico digitale? Dovrebbe facilitare per le aziende tecnologiche l’offerta di servizi e rendere più semplice conformarsi alle normative”. Mark Zuckerberg, Ceo di Facebook


l’opinione WEB REPUTATION DELLE AZIENDE: IMPARIAMO A TUTELARLA Le aziende stanno imparando sulla loro pelle a gestire le criticità della Rete. Bastano pochi esempi per rendere evidente il potenziale impatto di Internet sulla reputazione. Pensiamo al marketing e alla comunicazione: un video postato da un utente potrebbe avere una diffusione milioni di volte maggiore di una campagna pubblicitaria ordinaria. Emblematico il caso del cantante a cui durante un volo United Airlines fu rotta una chitarra: in conseguenza del rimborso negato, denunciò il fatto scrivendo una canzone e la caricò sul web. Il video venne visto da oltre 12 milioni di persone e la compagnia subì un crollo in Borsa pari al 10% del proprio valore, mandando in fumo 180 milioni di dollari. Inoltre, ogni singolo collaboratore può essere veicolo di immagine per il proprio gruppo aziendale, per esempio attraverso un uso troppo disinvolto dei social media. Ormai è sempre più evidente che il mondo digitale non è un mondo virtuale. Come devono agire le aziende? Come sottolineato dall’Osservatorio Web Legalità, l’assunto di partenza è che brand e prodotti, ma anche nomi e cognomi della classe manageriale devono essere tutelati. Molte organizzazioni iniziano a condividere regole di comportamento sui social network, per esempio invitandoli a impostare con attenzione le opzioni di privacy degli account, a rispettare le leggi su tutela del marchio, riservatezza o diritto d’autore, a non pubblicare foto e video riguardanti la propria vita professionale, né commentare, twittare o postare

Proteggere l'immagine di brand, prodotti e persone è possibile. Ecco come la legge ci aiuta.

Stefano Previti

contenuti per conto dell’azienda. Monitorare è il primo passo: occorre verificare costantemente la presenza di contenuti afferenti l’azienda e valutarne l’impatto lesivo su reputazione e fiducia dei consumatori. A volte può bastare intervenire con account ufficiali nella discussione, mentre altre volte le campagne lesive possono essere virali e difficili da frenare. In questo caso è utile agire per le vie legali. La materia è complessa, ma norme e mezzi per difendersi esistono. Per esempio, gli stessi criteri di demarcazione tra diffamazione ed esercizio di libera manifestazione del pensiero applicati ai media tradizionali valgono in Rete. I soggetti potenzialmente responsabili sono, invece, diversi. Non ci si deve limitare agli autori materiali (spesso difficili da identificare) ma, per una tutela

efficace, è necessario responsabilizzare gli intermediari tecnici che rendono possibile e amplificano la violazione: i motori di ricerca, per esempio, che contribuiscono alla divulgazione indicizzando contenuti lesivi od omettendo di rimuovere materiale illecito già eliminato dalla pagina Web sorgente. A questi si aggiungano i siti che aggregano le recensioni degli utenti. Se il motore di ricerca si limita a memorizzare contenuti non è responsabile, ma quando viene messo a conoscenza dell’illiceità degli stessi allora lo diventa. Similmente, quando l’hosting provider si limita a ospitare contenuti non è responsabile, ma se ottimizza e controlla le informazioni e se l’attività che svolge non è di ordine meramente tecnico, automatico e passivo, allora risponde dei contenuti illeciti veicolati, come reiteratamente affermato dalla giurisprudenza nazionale e comunitaria. Dunque che cosa fare nei confronti di questi interlocutori? Lo strumento più rapido ed efficace è la diffida, con cui intimare la rimozione di contenuti lesivi o link. Se questo non dovesse sortire l’effetto sperato, la potenzialità lesiva delle informazioni dovuta alla permanenza sul Web giustifica il ricorso a un’azione cautelare, attraverso cui richiedere non solo la rimozione ma anche un’inibitoria volta a prevenire futuri caricamenti di contenuti illeciti. Infine, nel giudizio di merito si potrà chiedere il risarcimento dei danni. Stefano Previti, Studio Legale Previti

11


IN EVIDENZA

SAP S/4 HANA: VELOCITÀ E BASSO IMPATTO La suite, presentata a febbraio, ha già convinto centinaia di grandi clienti a livello mondiale. La storia di Sap Hana inizia nel 2011. “Quattro anni fa”, spiega Sven Denecken, global vice president di Sap, “abbiamo capito che se non avessimo cambiato il cuore della nostra piattaforma non saremmo riusciti a stare al passo dei nuovi trend dell’It, come il cloud e Internet of Things. Dovevamo farlo rapidamente e dovevamo scegliere su quali database operare. Proprio per consentirci di correre veloci abbiamo deciso di partire da un progetto completamente nuovo”. Nasce così la versione “in memory” del software per le aziende sviluppato dalla multinazionale, in grado di agire in modo efficiente sui dati residenti nella memoria centrale dei computer. Due anni più tardi, nel 2013, la Sap Business Suite viene rilasciata in ambiente Hana, unendo così il mondo degli analytics (analisi interattive su

grandi moli di dati) con quello transazionale, tipico dei gestionali. Dopo altri due anni, cioè pochi mesi fa, arriva Sap S/4 Hana (nome che sta per Sap Business Suite 4 Sap Hana), l’ennesima rivoluzione della casa di Walldorf. S/4 Hana sfrutta, tra le altre cose, un modello di dati semplificato e permette una nuova esperienza utente (grazie alla suite di applicazioni Fiori, dedicata allo sviluppo delle interfacce utente). “Sap S/4 Hana ha richiesto quattro anni di lavoro”, prosegue Denecken, “ma ora è in grado di offrire alle aziende un vero real time business. Siamo riusciti ad abbattere i tempi di risposta di un ordine di grandezza e nello stesso tempo a diminuire il Total Cost of Ownership (Tco) della piattaforma, razionalizzando milioni di linee di codice per ottenere un footprint estremamente basso”.

Sven Denecken

La nuova soluzione, lanciata in febbraio, ha avuto un forte impatto sul mercato: ad aprile già 374 grandi clienti a livello mondiale avevano iniziato l’implementazione di Sap S/4 Hana. “La piattaforma è disponibile in versione cloud ma anche on-premise”, conclude Denecken, “e si caratterizza per tempi di sviluppo molto rapidi, visto che in ambiente Hana, e a maggior ragione nel cloud, più del 75% dei progetti si conclude entro sei mesi”.

E FERRERO VINCE IL BRONZO C’è anche un’azienda italiana tra i vincitori del Sap Quality Award, il premio assegnato dalla software house alle aziende che meglio stanno affrontando la digital transformation. Si tratta di Ferrero, classificatasi terza nella categoria “Sap Hana innovation”. Il premio, consegnato da Franck Cohen, presidente di Sap Emea, è stato assegnato da una giuria di esperti super partes per l’efficacia del progetto di migrazione a Sap Hana del database del Gruppo, progetto durante il quale Ferrero è stata affiancata da Syskoplan Reply. In occasione della cerimonia che ha avuto luogo a Walldorf, nello lo storico headquarter di Sap, il 28 aprile scorso,

12

| GIUGNO 2015

Nils Olaya Fonstad, ricercatore del Mit, ha delineato il profilo delle aziende “competitivamente agili”, quelle cioè in grado di anticipare i cambiamenti del mercato e di sviluppare, meglio della media dei concorrenti, nuove soluzioni e servizi. Fonstad ha definito l’agilità come il prodotto tra investimenti in tecnologie cloud e livello di digitalizzazione della piattaforma aziendale. “Non tutte le aziende che investono nel cloud sono agili”, ha detto Fonstad, “i veri campioni sono quelli che puntano anche alle tecnologie digitali, ai processi di business basati su queste tecnologie, e ai dati a loro volta associati ai processi”.


Manuel Rivelo

“Potrei fare l’iPhone molto più sicuro, ma non potrei farlo sicuro come un dispositivo BlackBerry. Se io dicessi alla Us Army che non ci sono nuovi telefoni perderei quel cliente”. John Chen, Ceo di BlackBerry

Guidata dal nuovo amministratore delegato, Manuel Rivelo, la società di Seattle punta sull’offerta di servizi, da affiancare alle appliance.

RETELIT PUNTA ALLE AZIENDE

LA SICUREZZA DI F5 NETWORKS È A MISURA DI CLOUD IBRIDO

Il nuovo consiglio di amministrazione di Retelit, insediatosi a gennaio, ha tre obiettivi: riportare la “normalità” nell’erogazione dell’offerta, rilanciare l’azienda puntando su servizi a valore aggiunto e cloud, e infine proseguire nel progetto di posa del cavo sottomarino in fibra ottica, che collega Sud Est Asiatico, India, Africa ed Europa. “A fine marzo”, dice Dario Pardi, presidente del Gruppo Retelit, “è stato approvato il business plan a cinque anni, che prevede tra le altre cose l’avvio dei nuovi servizi cloud erogati attraverso il nostro sistema integrato di data center e collegamenti ad alta velocità. Si tratta di un comparto relativamente inedito per noi, quello dei servizi corporate, visto che il nostro mercato di riferimento è sempre stato quello wholesale, presidiato con il brand E-via”. Retelit, in effetti, può contare su un’infrastruttura unica nel suo genere: 18 data center, di cui quattro “premium” (Milano, Bergamo, Bologna e Roma), otto reti Man (Metropolitan Area Network) e tre “dorsali” (tirrenica, appenninica e adriatica). A questi asset si può ora aggiungere la partecipazione al 6% nel progetto del cavo sottomarino Aae-1, a cui Retelit ha destinato ben 70 milioni di euro di investimenti.

Appliance che operano ai confini delle infrastrutture It impedendovi l’ingresso di minacce, ma anche soluzioni software e basate su cloud, che si preoccupano della sicurezza di ciò che sta all’interno. Ovvero le applicazioni. L’offerta di F5 Networks continua a svilupparsi in entrambe le sfere, coerentemente con il crescente ricorso al cloud ibrido da parte delle aziende. “I nostri clienti hanno capito che c’è bisogno di protezione non solo sul confine, ma anche all’interno delle infrastrutture”, ha dichiarato Manuel Rivelo, da poche settimane nominato nuovo Ceo di F5 Networks (con carica effettiva da luglio, quando John McAdam diventerà presidente del board di direzione), in occasione della tappa di Edimburgo del roadshow F5 Agility. Il capoluogo scozzese guarda dall’alto una regione, l’Emea, che per la società di Seattle rappresenta oggi il 25% del giro d’affari. Da qui è stato annunciato Silverline Web Application Firewall, un servizio che scherma le applicazioni dagli attacchi che viaggiano in Rete, aiuta a rispettare la compliance (è anche possibile affidare a F5 in outsourcing la defini-

zione delle policy) e integra dati di security intelligence di fonti esterne. Questa novità affianca il servizio di protezione dagli attacchi DDoS, introdotto qualche mese fa nell’offerta Silverline. A detta dell’amministratore delegato, oggi la necessità comune a realtà grandi, medie e piccole è quella di poter trattare i data center interni e il cloud come un’unica infrastruttura. “I nostri servizi e soluzioni”, ha sottolineato, “permettono di definire un ambiente unico ed eliminano la necessità di riprogrammare quando si spostano o creano applicazioni. È questo che i clienti vogliono: velocità e flessibilità”. E la sicurezza? “I cloud provider non parlano molto di questo tema”, ha proseguito. “Offrono prodotti di sicurezza acquistabili nei loro marketplace ma non li gestiscono, il cliente deve farlo da solo o rivolgersi ai managed services”. È qui che F5 Networks inserisce la propria strategia: aggiungere servizi alla gamma Silverline, così da affiancare un’offerta cloud-based alle appliance fisiche delle linee BigIp e Viprion. “Silverline sarà una parte importante del nostro futuro”, ha confermato il Ceo. V. B.

13


IN EVIDENZA

IL DATA CENTER CAMBIA IN UN FLASH L’Italia è tra i Paesi in cui la diffusione de i sistemi con memoria a stato solido è più capillare. E Hp, con la famiglia 3Par, alza l’asticella nel segmento midrange.

Secondo una recente ricerca Idc, nel 2014 un quinto della spesa It destinata allo storage esterno è stata utilizzata per acquistare sistemi basati su memoria flash (che impiega circuiti elettronici e non dischi). Più veloce e compatta di quella realizzata con gli hard disk tradizionali, questo tipo di memoria è stata finora impiegata con parsimonia dai responsabili It, per via del suo costo. Ora, però, le economie di scala da una parte e le nuove esigenze della digital transformation dall’altra stanno rapidamente modificando lo scenario della memorizzazione dei dati. “In quella che Idc definisce come terza piattaforma”, spiega Yari Franzini, Country Manager Hp Converged Infrastructure di Hewlett-Packard

Yari Franzini

Italiana, “l’architettura flash è un riferimento per i nuovi data center, che devono gestire grandi quantità di dati con un tempo di latenza molto basso. Il cambiamento sta avvenendo soprattutto nella fascia dei sistemi midrange, più flessibili e meno monolitici rispetto alle soluzioni enterprise, e vede l’Italia

tra i Paesi più attivi nella sostituzione dei prodotti obsoleti con quelli nuovi”. Anche se sembra un tecnicismo, volto a rendere più performanti i data center, l’impiego di memoria a stato solido serve concretamente a dare un miglior servizio all’utente finale, rendendo possibili analisi e operazioni prima proibitive o semplicemente riducendo i tempi di risposta delle applicazioni. “Adottando la filosofia all-flash all’interno della nostra famiglia di dispositivi storage 3Par”, prosegue Franzini, “siamo riusciti a portare sul mercato una soluzione che offre le prestazioni della memoria a stato solido con costi paragonabili ai sistemi a disco. Merito del nostro software, che permette ai sistemi di dialogare con le piattaforme già esistenti e di implementare architetture virtualizzate”.

SEMICONDUTTORI FOTONICI Entro pochi mesi si potrà forse dire addio agli impulsi elettrici in favore della luce, e i data center potranno così beneficiare di velocità trasmissione dati e larghezza di banda nettamente superiori alle attuali. I ricercatori di Ibm hanno, infatti, sviluppato un chip fotonico che consentirà di realizzare ricetrasmettitori ottici da 100 gigabit al secondo, capaci quindi di trasferire grandi volumi di informazioni tra server e

14

| GIUGNO 2015

supercomputer in poche frazioni di attimo. Allo stesso risultato Intel era andata molto vicina già qualche mese fa, ma un problema di temperatura aveva rallentato il progetto. Ora scende in campo Big Blue, sbilanciandosi con una promessa: con questa tecnologia l’industria dei semiconduttori potrà tenere il passo con la continua crescita della domanda di potenza di calcolo, generata dai Big Data e dai servizi cloud.


l’opinione

VMWARE: LA CRESCITA, IL FUTURO E LE MINACCE. ORA È IL MOMENTO DI RETI E AUTOMATIZZAZIONE

Qualcuno diceva che Vmware, regina della virtualizzazione, non sarebbe riuscita più a crescere una volta che il cloud avesse raggiunto lo stadio di maturità. I risultati del primo trimestre del 2015 smentiscono le cassandre e vedono la multinazionale proseguire su un tracciato positivo. Il fatturato è aumentato dell’11% rispetto allo stesso periodo del 2014, superando 1,5 miliardi di dollari, mentre l’utile netto è stato di 196 milioni. Dei risultati e del futuro della virtualizzazione Technopolis ha parlato con Pat Gelsinger, Ceo di Vmware.

Pat Gelsinger, alla guida della multinazionale, traccia lo scenario della virtualizzazione prossima ventura. Pat Gelsinger

Uno scenario affascinante, ma le minacce a Vmware quali sono?

È soddisfatto dell’ultimo trimestre?

Sì, ma la crescita è solo una parte della storia. La domanda vera, visto che vSphere è stato il nostro prodotto di punta per tanti anni, cresciuto “a razzo” grazie ai grandi vantaggi che poteva offrire alle aziende, è come riusciremo a gestire la seconda fase della vita di Vmware. Noi lo chiamiamo il “secondo atto”. Non sono molte le aziende che sono riuscite a emergere indenni dal primo ciclo di vita della loro offerta, mantenendo lo stesso tasso di crescita anche dopo. E quali sarebbero i nuovi prodotti di punta su cui contare?

Negli ultimi anni abbiamo fatto almeno quattro scommesse diverse, corrispondenti ad altrettante famiglie di soluzioni: il mobile, la gestione delle infrastrutture, le reti e il cloud. Puntando queste nuove fiches dobbiamo passare dalla virtualizzazione dei server al passo successivo,

volta che esegue un’azione. Gli It manager si trovano quindi a dover analizzare milioni di eventi per poter gestire in modo efficiente l’infrastruttura virtualizzata. L’unico modo per farlo è automatizzare questa attività di analisi e di provisioning, eliminando il fattore umano. Google in parte lo fa già, ma su un’attività sola, la ricerca. Il futuro, invece, è l’automatizzazione di tutto il provisioning: se il sistema ha bisogno di un nuovo oggetto deve poterlo creare automaticamente.

cambiando sostanzialmente il nostro Dna; uno step che prevede, tra l’altro, un incremento del fatturato generato dai servizi. La virtualizzazione delle reti, con la piattaforma Vmware Nsx, è potenzialmente il miglior candidato per ripercorrere la strada di successo di vSphere Esxi, dieci anni dopo. I primi dati ci dicono, anzi, che Nsx sta crescendo in proporzione anche più velocemente del suo predecessore, e può sfruttare un mercato potenziale, quello delle reti, ancora più grande. Dopo la virtualizzazione che cosa arriverà?

La mossa successiva sarà l’automatizzazione delle regole. Bisogna tener presente che ogni “oggetto” Vmware produce un log, un rapporto, ogni

Vedo sostanzialmente tre tipi di pericoli: i concorrenti tradizionali come Microsoft, quelli nuovi come le architetture open e quelli alternativi come la tecnologia basata su container (che permette di virtualizzare le applicazioni, ndr). La prima sfida è la più facile da affrontare: in fondo lo abbiamo già fatto e siamo riusciti a vincere. La seconda l’abbiamo approcciata non combattendo ma abbracciando queste nuove tecnologie, integrando e supportando anche sistemi OpenStack. La tecnologia legata ai container, infine, è ancora immatura, e l’industria coprorate It, si sa, non ama le soluzioni poco stabili. In ogni caso, seguiamo con interesse gli sviluppi dei container, e potremo integrare queste soluzioni nella nostra offerta, mettendo sul piatto anche la sicurezza tipica delle architetture Vmware. Non escludo che ci si possa muovere anche per acquisizioni in questo promettente segmento. Emilio Mango

15


IN EVIDENZA

CLOUD LAMPO PER LE MEDIE IMPRESE Sono circa 4.100 le medie imprese in Europa. E sono il target principale di Dimension Data, che cavalca l’onda del cloud ibrido con la promesso di accelerare i tempi di implementazione delle nuove architetture, soprattutto in tema di produzione di applicazioni. “La definizione di cloud ibrido cambia di giorno in giorno”, dice Debra Schleicher, vice presidente della business unit Group Cloud di Dimension Data, “ed è anche per questo che la nostra offerta, basata su un ecosistema di soluzioni e servizi (tra cui networking, hosting, sicurezza, consulenza), punta ad aiutare i clienti ad abbattere drasticamente i tempi della reingegnerizzazione dei processi”. Dimension Data parte dal presupposto che, alla fine del 2014, solo il 20% delle applicazioni critiche erano migrate sul cloud. “Tranne una quota di applicazioni legacy, che non si muoveranno mai dall’onpremise”, prosegue Schleicher, “negli altri casi le barriere sono relative al know how e alla sicurezza, due aspetti in cui noi possiamo affiancare i clienti su tutti i fronti: tecnologico, economico, culturale e organizzativo. La nostra filosofia ci impone, tra l’altro, di seguire il cliente in tutto il viaggio verso il cloud ibrido, un percorso che dura due o tre anni e che richiede un supporto continuo, non una serie di interventi one-shot”. Debra Schleicher

L’INTERNET DELLE COSE CHE CAMBIA IL MODO DI PROGETTARE

Rob Gremley

“L’Internet of Things? È sicuramente una grande opportunità per le aziende e la vera sfida è lavorare sulle cose per renderle intelligenti e un valore di business attraverso i dati”. Parole di Rob Gremley, executive vice president technology platform e responsabile IoT di Ptc, che sintetizza così la visione della casa americana per il fenomeno degli oggetti interconnessi. L’analisi parte da una convinzione: non siamo di fronte a un nuovo fenomeno in assoluto, perché “la telematica e il machine to machine esistono da vent’anni”, ricorda Gremley – ma a un nuovo modo di usare le tecnologie di connettività e i dati che l’IoT va a generare. Per questo Ptc ha investito circa mezzo miliardo di dollari a colpi di acquisi-

| GIUGNO 2015

zioni portandosi a casa veri e propri specialisti come ThingWorx, Axeda e, ultima della serie per il momento, ColdLight, azienda attiva nel campo del machine learning e dell’analisi predittiva. E i benefici a livello di offerta, con l’integrazione di queste nuove risorse nella piattaforma Ptc, sono i seguenti: maggiori funzionalità per agevolare lo sviluppo di prodotti “smart connected” e per contestualizzare i dati in modelli concreti anche di tipo 3D i dati raccolti con l’IoT.

INNOVAWAY CRESCE ALL’ESTERO Non è un servizio di call center, ma un centro di assistenza specializzato e multilingue. Questo, in sintesi, il profilo dell’offerta che rappresenta l’80% del fatturato di Innovaway, storico partner di Ibm nei servizi di help desk e realtà in rapida espansione in Italia ma soprattutto all’estero. “Stiamo investendo

16

Ptc investe 500 milioni di dollari nell’IoT e lancia la sfida per gli “smart connected products”.

in risorse umane e in partnership”, dice Antonio Giacomini, presidente e amministratore delegato della società, “per poter supportare la crescita dei competence center, che operano 24 ore su 24 in oltre venti lingue diverse, ma anche per espandere l’attività nei settori della consulenza e dello sviluppo di software”.


l’opinione

COMPETENZE CERCASI PER LA RIVOLUZIONE DIGITALE NEL MANIFATTURIERO

Lo scenario competitivo globale sta subendo profondi cambiamenti. In primo luogo, la domanda commerciale è e sarà sempre più frammentata, in relazione alle crescenti esigenze di personalizzazione da parte dei clienti: il business del futuro non consisterà tanto nel fabbricare pochi prodotti in elevate quantità, bensì nella capacità di produrre e commercializzare gamme più ampie di articoli in volumi limitati. La manifattura smetterà di essere strettamente la produzione di beni materiali e si sposterà verso la creazione soluzioni, in cui oggetti materiale e servizi immateriali saranno sempre più integrati. Alla luce di questi cambiamenti è sensato pensare a una almeno parziale riconfigurazione delle attività manifatturiere. Se un’azienda deve rispondere a una domanda molto frammentata e con volumi ridotti, è lecito attendersi una manifattura in cui il cervello (l’headquarter) e le braccia operative (le fabbriche) siano più vicine, con un modello produttivo decentrato orientato alla flessibilità e alla reattività. In sintesi, dalla produzione di massa alla personalizzazione di massa. In questo cambio di paradigma giocano un ruolo chiave le nuove tecnologie digitali, potenzialmente in grado di trasformare i processi, i prodotti e la loro modalità di proposizione sul mercato (modelli di business). In una sola parola, ci si aspetta che queste tecnologie siano “disruptive”, in grado cioè di abilitare una nuova rivoluzione industriale.

La conoscenza delle nuove tecnologie, stampa 3D a parte, è scarsa. Questo, più dei costi o della maturità delle soluzioni, è lo scoglio da superare.

Andrea Bacchetti

Massimo Zanardini

Lo studio condotto Laboratorio di ricerca Rise (Research & Innovation for Smart Enterprises) dell’Università degli Studi di Brescia, alla cui prima fase hanno partecipato settanta aziende manifatturiere italiane, ha cercato di rispondere ad alcune fondamenta-

li questioni. In primis, ha misurato il livello di conoscenza delle nuove tecnologie digitali da parte delle imprese oggetto di indagine, che risulta essere in generale molto limitata. Dai risultati emerge infatti come solo la stampa 3D sia nota a più della metà del campione (61%), peraltro con una buona percentuale (27%) di aziende dotate di conoscenza approfondita. Il 44% delle aziende possiede un know-how su applicazioni dell’Internet delle cose, ma solamente il 5% in modo approfondito. Per le altre tecnologie il livello è ancora più basso, con picchi di “non conoscenza” che vanno dal 65% per la realtà aumentata fino a oltre l’80% per quanto riguarda le nanotecnologie. Secondo l’indagine, il principale ostacolo alla diffusione delle tecnologie sta proprio nella difficoltà che le aziende sperimentano nel reperire risorse competenti. L’intensità di questo problema tende ad aumentare nelle realtà che hanno già implementato la tecnologia rispetto a quelle che sono ancora nella fase esplorativa. Meno significativa risulta essere invece l’onerosità degli investimenti in attrezzature e strumenti, mentre ancora meno rilevanti sono gli ostacoli legati allo stato di maturazione e sviluppo delle tecnologie e alla disponibilità di provider tecnologici specializzati. Andrea Bacchetti e Massimo Zanardini, Laboratorio di ricerca Rise (Research & Innovation for Smart Enterprises), Università degli Studi di Brescia

17


SCENARI | Digital Marketing

Cio e Cmo hanno, forse, ritrovato una sintonia che da tempo non si vedeva nei board aziendali. Anche perché i Big Data fanno da collante e rappresentano un‘occasione unica per dimostrare che insieme si compete meglio.

IL MARKETING AMICO DEI SISTEMI INFORMATIVI

I

l dualismo tra responsabili It e marketing ha tenuto banco per anni nelle tavole rotonde. In azienda, invece, le posizioni sono sempre state più sfumate, ovviamente legate alle singole situazioni. In ogni caso, la “strana coppia” non è mai stata particolarmente affiatata, forse anche a causa della diversa e distante estrazione delle due figure professionali. Ora però qualcosa è cambiato: quello che non sono riusciti a fare anni di dibattiti e di spinte interne ed esterne lo ha fatto in pochi mesi il fenomeno dei Big Data, declinato nelle sue tante varianti e angolazioni (Internet of Things, social, mobile e chi più ne ha più ne metta). In pratica, Cio e Cmo si sono resi conto di avere in mano, insieme, una leva fortissima per cambiare i destini delle proprie aziende, sfruttando o meno la 18

| GIUGNO 2015

valanga di informazioni che arrivano e sempre più arriveranno da fonti diverse e sotto forme continuamente nuove. Più in generale, mai come oggi le tecnologie vengono in aiuto del marketing, che le potrebbe sfruttare (il condizionale è d’obbligo, viste le difficoltà di ordine culturale e finanziario) per dare un impulso alle prestazioni del business. Per capire quanto It e marketing siano legati a doppio filo, basta dare un’occhiata a una delle tante ricerche sul tema dei “digital trend”, realizzata in questo caso da Econsultancy per Adobe. Ai primi posti fra le tendenze più quotate, oltre al content marketing, troviamo la customer experience, il mobile e i social, seguiti da multichannel campaign management, video, marketing automation, personalization e Big

Data. Al di là dell’abbondante ricorso ai vocaboli in lingua inglese, quello che risulta evidente è il ruolo centrale della tecnologia in almeno sei dei nove trend individuati. Un risultato che fa dire a Scott Brinker, autore del blog Chief Marketing Technologist: “Nel 2015 la natura del marketing è esplosa, trasformandolo da funzione ancillare della comunicazione a grande centrale operativa della customer experience”. Una rivoluzione causata da un fenomeno sotto gli occhi di tutti: il proliferare dei dati o ancora più in generale la digitalizzazione sempre più spinta di tutti gli aspetti della vita umana, business compreso. Un fenomeno che finalmente, per fede o per necessità, sta facendo avvicinare Cio e Cmo come non è mai accaduto prima. Emilio Mango


LA CHIMERA DELLA COERENZA Non importa in quale settore di mercato operi l’azienda, i professionisti del marketing oggi mirano a un medesimo obiettivo: la coerenza. Un attributo che attualmente manca, nell’87% dei casi, alla user experience dei clienti e che invece dovrebbe legare le attività di marketing (eseguite su diversi canali, dal negozio al Web, ai social network), le vendite e il customer care. Questo è emerso da uno studio realizzato da Oracle intervistando 110 chief marketing officer, di cui appena il 13% si è detto capace di offrire un’esperienza personalizzata e coinvolgente su tutti i canali. Un quinto circa (21%) del campione è apparso particolarmente disorientato, ammettendo di aver bisogno di un aiuto esterno per valutare quali tecnologie usare, quali siano disponibili e quali allineate agli obiettivi dell’azienda. Davvero notevole il dato sulla relazione fra Cmo e Cio: soltanto uno dei 110 intervistati ha detto di avere un buon rapporto con il chief information officer della propria azienda. Oracle ha collaborato con Cmo Club e con i responsabili marketing di grandi marchi come American Express, Gap, Hilton Worldwide e PetSmart per sviluppare una guida contenente informazioni e best practice (“The Cmo solution guide to leveraging new technology and marketing platforms”). Tra gli obiettivi, quello di sfruttare le tecnologie per offrire una customer experience coinvolgente, personalizzata e coerente.

LA COLLABORAZIONE È VINCENTE La gestione dei progetti It aziendali oggi richiede un approccio crossdipartimentale. Canon Italia ci spiega come e perché.

Teresa Esposito

L

e decisioni su budget, acquisti e strategie riguardanti l’it sono sempre più frutto di un’opera collettiva. O almeno così dovrebbe essere. “L’avvento del digitale ha profondamente cambiato non solo il ruolo del chief information officer, ma anche quello degli altri manager”, spiega Teresa Esposito, marketing director, Business Imaging Group di Canon Italia. “Gli studi di mercato, come quelli Gartner, sostengono che già nel 2017 i chief marketing officer commissioneranno più progetti It di quanto non faranno i Cio”. Non tutti, però, sono propensi ad assecondare il cambiamento. “Molti Cmo non si sentono pronti”, prosegue Esposito, “e spesso permane un rapporto dicotomico fra il loro ruolo e quello del Cio. I primi non sempre hanno competenze tecnologiche sufficienti, mentre i secondi sono accusati di eccessiva rigidità”. C’è poi una terza figura manageriale da considerare nel nuovo equilibrio, quella del chief financial officer. Una professione che, a detta di Gartner, oggi è già consultata in merito alle scelte It dal 39% delle aziende, e che ha potere decisionale su questioni riguardanti l’adozione del cloud e la sicurezza dei dati (per citare due esempi classici). “Il Cfo è uno dei protagonisti della trasformazione”, illustra Esposito. “Rispetto al passato, oggi i cam-

biamenti di business sono più improvvisi e a maggior ragione chi ha competenze sulle finanze aziendali deve saper comprendere quali tecnologie rappresentino un vantaggio competitivo”. La giusta soluzione, a detta di Canon, è adottare un approccio collaborativo fra Cio, Cmo e Cfo, in cui ciascun manager possa sentirsi “owner” di un progetto e dunque più motivato a portarlo al successo. Il passaggio non sarà indolore: si pensi, per esempio, che nove responsabili marketing su dieci ammettono di non collaborare a stretto contatto con i colleghi. Ma la strada è tracciata. A detta di Forrester Research, quest’anno la quota dei progetti It gestiti principalmente o esclusivamente dai reparti It scenderà al 47%. Che cosa significa, nel concreto, collaborazione? “È fondamentale”, sottolinea la manager di Canon Italia, “che ognuno comprenda il proprio ruolo all’interno di un progetto teso verso un obiettivo comune. Alcune pratiche utili sono la condivisione dei budget fra i dipartimenti, oppure la creazione di gruppi di lavoro cross-funzionali”. V. B.

19


SCENARI | Social Business

Le piattaforme di collaborazione aziendale e di marketing automation contribuiscono a consolidare la rivoluzione digitale che sta cambiando le aziende e l’intera economia mondiale.

$ 40,000 $ 35,000 $ 30,000 $ 25,000 $ 20,000 $ 15,000 $ 10,000 $ 5,000 $0

2014

2015

2016

2017

2018

2019

Fatturato mondiale del social business per segmento

PERSONE, COSE E DATI: LA COLLABORATIVE DISRUPTION NON SI FERMA

N

ei prossimi cinque anni il giro d’affari del social business arriverà a toccare i 37 miliardi di dollari, con un tasso di crescita media annuale del 22%. Le stime sono contenute nell’ultimo rapporto analitico di 451 Research, dedicato al mercato delle applicazioni social aziendali nel periodo 2014-2019 e pubblicato a inizio maggio. Il documento consente di prevedere lo scenario dei prossimi anni valutando anche il peso di quattro macro-categorie di applicazioni: le tecnologie di Marketing Automation, le piattaforme di Social Media Monitoring & Management, le architetture di Enterprise Collaboration/Social e i si20

| GIUGNO 2015

stemi di Web Experience Management. Come ci si poteva attendere, la quota più consistente in questo trend di crescita spetta alle architetture di Enterprise Collaboration, mentre in ultima posizione troviamo le piattaforme di Listening e Social Analytics. Se questo è il quadro che emerge dall’indagine focalizzata sui vendor tecnologici, possiamo provare a integrarlo nell’orizzonte della nostra esperienza raccontando di come la “social e digital disruption” stia impattando sulle organizzazioni impegnate nei loro percorsi di business redesign. Temi, tra l’altro, di cui parleremo diffusamente nel prossimo Social Business Forum del 7 e 8 luglio a Milano. In sintesi,

Cosimo Accoto

dunque, le aziende continuano a essere sollecitate dall’innovazione organizzativa e tecnologica portata dalle tecnologie collaborative, mobili e in cloud. Ma lo fanno, oggi, a ritmi esponenziali e con forme e modelli nuovi.


Gestione della Web experience

Enterprise collaboration/social

Gestione e monitoraggio dei social

Marketing automation

Fonte: 45i Research; dati in milioni di dollari

Ne ricordo, qui, alcuni. L’espansione della “collaborative economy”, detta anche “sharing economy” o “peer economy”, legata non più solo a Uber o ad Airbnb, ma a decine di nuove startup. La diffusione dell’Internet delle cose, degli oggetti e degli ambienti intelligenti: si pensi al successo di Arduino, alla domotica, alla mobilità automa-

tizzata e all’urbanistica digitale con le smart city. La “data revolution”, come in molti la stanno chiamando, che proprio in ragione delle citate tecnologie dirompenti sta costringendo le aziende (ma non solo) a ripensare le proprie strategie di gestione dei Big Data e del cloud. Un segnale forte su questo ultimo tema caldissimo l’ha dato il presidente Barack Obama con la recente nomina di DJ Patel come primo “chief data scientist” alla Casa Bianca, incaricato di supportare l’adozione di social, Big e Open Data a beneficio dei cittadini americani. In tale quadro che ci troviamo di fronte, secondo la nostra esperienza il vero nodo critico è il change management. Le richieste e le domande più pressanti che ci vengono rivolte dai clienti sono presto dette: come colmare i gap nelle competenze digitali, social e mobile e come individuare le nuove figure che andranno a occuparsi di data science e data governance (marketing automation, reputation management, data scientist)? Con quali strumenti e pratiche possiamo mobilitare tutta la forza lavoro perché sia consapevole delle op-

portunità offerte dalla trasformazione digitale e collaborativa? Quali sono le strategie più efficaci per creare senso di urgenza al cambiamento da parte di un top management non sempre consapevole della portata della disruption? Si può coltivare e potenziare l’impegno dei dirigenti top e middle circa l’urgenza del cambiamento? Esistono modelli di leadership e di management più adeguati alle nuove organizzazioni esponenziali? Su quali leve è possibile costruire una cultura del cambiamento continuo, che consideri cioè la trasformazione digitale non come un progetto isolato e temporalmente determinato, ma come un’impostazione mentale costantemente e diffusamente presente? È proprio per rispondere a queste domande che abbiamo pensato di invitare al prossimo Social Business Forum 2015 professionisti e leader internazionali che, concentrandosi su dieci temi caldi, racconteranno come stiano affrontando la social e digital disruption nel concreto della loro esperienza. Cosimo Accoto, partner & vice president, Innovation di OpenKnowledge

L’INNOVAZIONE SOCIAL PARTE DAL MOBILE Studiare i dati trasmessi su reti mobili per studiare la società. Bruno Lepri è un ricercatore che nel ventre di Trento Rise e della Fondazione Bruno Kessler gestisce il Mobile and Social Computing Lab, struttura affiliata al prestigioso Mit di Boston per la condivisione di progetti di ricerca e risorse. I dati sono la materia di studio del team guidato da Lepri e fondato su un approccio che ha elevato il telefonino allo status di “sensore sociale”. Analizzare le informazioni generate sulle reti mobili va oltre l’azione di tracciare le abitudini degli utenti digitali: permette,

per esempio, di creare dataset liberi su cui sviluppare app innovative. Utilizzare gli open data degli operatori telco come pilastro per edificare soluzioni in grado di impattare sensibilmente sulla qualità delle vita delle persone, e di cambiare faccia a interi settori dell’economia, è un esercizio possibile. Qualche esempio? I comportamenti online, i profili social e il traffico mobile di utenti che frequentano un determinato quartiere possono generare indicazioni predittive sul crimine o delineare le capacità di innovazione di una specifica area urbana. I primi esperimenti hanno

preso vita a Londra con Telefónica, ma anche nello Stivale con Telecom Italia è decollato un progetto simile per estrarre informazioni rilevanti dal traffico (dati e voce) registrato da diversi hotspot wireless. Si parla dunque di social network analysis e di ricerca applicata ai dati prodotti dai sensori, che raccolgono in automatico le attività degli individui. Analisi che diventano fonti vitali per studiare fenomeni come i flussi migratori e il clima, la mobilità e i consumi energetici elaborati dai grandi istituti di statistica quali Eurostat e World Bank. G.R.

21


SCENARI | Big Data

IL DATABASE DEL FUTURO È UN MOSAICO DI BIT Non solo dati strutturati ma testi, immagini, video e audio. Si scontrano due diverse scuole di pensiero: chi preferisce contare sulla vecchia, cara architettura relazionale e chi punta con decisione sulle nuove soluzioni come Hadoop. Vincerà il compromesso?

N

on più righe e colonne di una tabella ma oggetti in (relativa) libertà. In queste poche parole c’è una delle tante definizioni che cercano di tracciare un identikit del fenomeno Big Data. Sappiamo bene che la sintesi più usata e più generale è quella della “quattro V”: volume (da cui il “big”), velocità, veridicità e varietà. Se la quantità ha tenuto banco per mesi ‒ non si contano i numeri “a sensazione” che sono stati usati per far capire quanto fosse “big” il fenomeno ‒ ora va di moda affrontare il tema della varietà. Ma questa volta non si tratta di una mera discussione filosofica, perché se è vero che soprattutto negli Stati Uniti il dibattito 22

| GIUGNO 2015

ha anche implicazioni accademiche (i sostenitori dei database relazionali si scontrano con quelli “noSql” dalle cattedre e dai laboratori delle principali Università), è anche innegabile che impostare e gestire una base dati con uno strumento tradizionale è tecnicamente molto diverso dall’affidarsi anima e cuore a una soluzione innovativa e per certi versi immatura come Hadoop (o qualsiasi altro Dbms non relazionale in grado di gestire dati non strutturati). “Le aziende che hanno provato a passare in toto alle piattaforme non Sql”, dice Stephen Brobst, leggendario Cio di Teradata che quest’anno ha conquistato il quarto posto nella speciale classifica dei

migliori Cio statunitensi (piazzandosi dopo quelli di Amazon, Tesla e Intel), “sono tornate frettolosamente sui loro passi, vittime di una tecnologia molto tanto economica e facile da adottare quanto ancora costosa e difficile da gestire”. La dura verità è che non esiste più una sola tecnologia capace di far funzionare alla perfezione tutti i database, ora che il “lago” di informazioni è diventato enorme e soprattutto variegato, ma al contrario sempre più bisogna integrare strumenti diversi. Teradata, per bocca di Brobst ma anche sul mercato, lo dice da tempo, e lo ha ribadito nel corso dell’ultimo Teradata Universe, dove la società ha annunciato


PETROLIO? NO, MATTONI

Stephen Brobst

l’ampliamento del proprio ecosistema QueryGrid verso le piattaforme “open” più diffuse, come le distribuzioni Cloudera, MapR e Hortonworks di Hadoop. Naturalmente Teradata non è l’unica a cercare l’integrazione con i nuovi strumenti non Sql: come sta succedendo in tutti i settori dove le tecnologie “open” hanno sparigliato le carte, la direzione è quella di supportare queste soluzioni all’interno di ambienti misti, gestibili nel modo più lineare e trasparente possibile. Se poi questa sia solo una fase di passaggio verso nuove architetture più adatte a sfruttare le “quattro V” dei Big Data, solo il tempo potrà dirlo. Emilio Mango

N

el 2012 l’allora vicepresidente della Commissione Europea, Neelie Kroes, definiva i dati come “il nuovo petrolio per l’era digitale”, snocciolando questi numeri (del 2011 e quindi oggi già superati): un mercato da 70 miliardi di euro, un’Europa con quasi 400 milioni di internauti, dove si compravano 170 milioni di smartphone, 20 milioni di tablet e 60 milioni di computer all’anno. A me, personalmente, il petrolio non piace. Paragonerei piuttosto i dati ai mattoncini della Lego. Simpatici e colorati, possono essere usati per costruire praticamente ogni cosa: dai classici trenini a una stampante Braille low-cost, come quella realizzata pochi mesi fa da un tredicenne californiano. In altre parole, i dati hanno un enorme potenziale e possono davvero rivoluzionare la nostra vita. A patto che li si sappia usare. Che le informazioni siano la nuova frontiera dell’innovazione è, del resto, cosa nota non solo in ambito scientifico e tecnologico ma anche politico. Nel dicembre 2012 il National Intelligence Council, ovverosia il pensatoio della comunità spionistica

americana, scriveva che “la tecnologia dell’informazione sta entrando nell’era dei Big Data. Il process power e il data storage stanno diventando quasi gratuiti, le reti e il cloud forniranno accesso globale e servizi pervasivi, i social media e la cybersecurity diventeranno i nuovi grandi mercati”. Il nuovo motore della crescita e delle opportunità sono quindi i dati. O meglio, i Big Data. Perché in un pianeta sempre più digitalizzato e connesso si produce, ogni giorno una “alluvione di dati”, per citare un’espressione usata in un rapporto del World Economic Forum. Il Web, da solo, è un’enorme miniera di informazioni che si estende di minuto in minuto. Ma come i singoli mattoncini della Lego, questi dati da soli servono a poco o nulla. Se però vengono raccolti, interpretati, catalogati e collegati intelligentemente tra loro, allora le cose cambiano. E parecchio. In questo caso i Big Data diventano un “game changer”, per usare una definizione a effetto cara agli esperti del National Intelligence Council. Michele Barbera, chief executive officer di SpazioDati

23


SCENARI | Big Data

Piergiorgio Grossi

Secondo l’Harvard Business Review è il mestiere più sexy del 21esimo secolo. Ecco come nasce e quali competenze deve avere la figura che gestisce in azienda l’esplosione delle informazioni.

ALLA SCOPERTA DEL DATA SCIENTIST

C’

è chi dice che la metà dei mestieri che svolgeremo tra cinque anni oggi nemmeno esiste. Quel che è certo è che le situazioni di empasse decisionale saranno sempre più frequenti. Ci troviamo, infatti, a vivere un periodo di accelerazione tecnologica senza pari. In particolare siamo invasi, ed è solo l’inizio, da una serie di elementi che non solo assolveranno a vecchie funzioni in modo diverso ma ne creeranno di nuove. Il paradigma del mondo interconnesso provoca due effetti: crea una nuova rete di relazione tra persone e oggetti (oltre che tra persone e persone e tra oggetti e oggetti) e genera una quantità infinita di dati. Siamo nel pieno di quella che Enrico Giovannini, ex presidente dell’Istat e Ministro, ha definito “data revolution”. Da un lato le informazioni che abbiamo a disposizione come cittadini, consumatori e manager sono troppe, veloci e destrutturate. Dall’altro, l’aspettativa di performance è sempre più elevata perché i cicli di vita di prodotti e servizi hanno subìto un’accelerazione che sta ribaltando il mondo decisionale. Le

24

| GIUGNO 2015

tecnologie e le metodologie tradizionali di trattamento delle informazioni non sono pronte per questo passo: è già sufficientemente difficile gestire quelli che vengono definiti Small Data, i dati con cui ogni azienda e ogni persona già oggi interagisce. Figuriamoci che cosa significhi gestire i Big Data. Per questo motivo l’Harvard Business Review ha proclamato la nascita di un nuovo ruolo, il “data scientist”, definendolo come “il mestiere più sexy del ventunesimo secolo”. Una quantità e varietà di dati senza precedenti ha quindi generato, quasi con una evoluzione darwiniana, un nuovo essere nato dalla fusione di competenze prima distribuite su più ruoli. Un data scientist, infatti, deve avere una forte competenza statistica ed essere a suo agio con i numeri e la matematica. Deve, inoltre, avere una formazione informatica e una competenza di business, perché non solo i dati sono tanti e variabili ma non sempre è chiaro quale uso sia auspicabile farne. Basta dare una occhiata ai siti che pubblicano offerte di lavoro in Silicon Valley per capire quanto il ruolo del Data Scientist sia sempre più richiesto.

Per le aziende si pone però il problema di come definire questo ruolo e di come posizionarlo nell’organigramma: è un addetto dell’Information Technology, del business o del marketing? Per certo, l’It deve essere in grado di fornire un ambiente flessibile in cui il data scientist, novello alchimista, possa lavorare con i suoi alambicchi. Allo stesso modo il business deve essere in grado di alimentare le sue idee e validarle sul mercato. Anche in Italia le aziende si stanno rendendo conto di questa rivoluzione e attrezzando di conseguenza. In che modo? Come per ogni novità, dipende molto dalle persone più dotate di sensibilità all’interno dell’organizzazione. In generale le nuove tecnologie, competenze e figure producono effetti se accompagnate da modelli organizzativi e di business altrettanto nuovi. Al contrario, incapsulare un data scientist in un organigramma e in una struttura di gestione del prodotto tradizionali rischia di depotenziare i benefici di questa novità. Piergiorgio Grossi, VP Innovation di Iconsulting


TECHNOPOLIS PER FASTWEB

Fastweb: soluzioni innovative per le imprese e la PA e della PA: l’impianto garantisce infatti la continuità dei servizi con soglie altissime, oltre il 99,997%, certificate dall’istituto americano. Quali servizi offrite alle aziende utilizzando questo data center? Il data center è l’abilitatore di una suite completa di servizi Ict che fanno parte del portafoglio di offerta Fastweb: housing e colocation, public & private cloud, disaster recovery, Ict outsourcing, Software-as-a-Service/soluzioni verticali, Ict Security. Sul mercato Corporate, il cloud si sta rivelando per Fastweb come un forte traino alla vendita di soluzioni It complesse, come la business continuity e il disaster recovery. Massimo Mancini, chief enterprise officer di Fastweb Fastweb ha inaugurato a Milano un nuovo data center, il primo in Italia certificato Tier4 dall’Uptime Institute con una doppia certificazione, per design e costruzione. Con questo investimento Fastweb intende rafforzare la propria presenza nel mercato delle grandi aziende e della Pubblica amministrazione, mercato in cui, con una quota di del 25%, è il secondo operatore italiano dopo Telecom Italia. Ne parliamo con Massimo Mancini, chief enterprise officer di Fastweb. Perché Fastweb ha investito nel nuovo data center? Realizzare data center interamente ridondati e interconnessi su rete Fastweb, con il monitoraggio integrato della sicurezza informatica svolto dal nostro Security Operation Center, significa dotare l’Italia di una infrastruttura indispensabile per la trasformazione digitale delle imprese e della PA. Il nuovo data center di Fastweb è connesso alla rete con una capacità trasmissiva di 4 Terabit al secondo. La potenza computazionale arriva fino a 200.000 GHz e l’efficienza energetica (Pue 1,25) lo colloca fra il 6% dei data center più efficienti al mondo. Inoltre il nuovo centro è interamente ridondato, e automatizzato in caso di guasti. Ha cento ore di autonomia energetica e risponde alla richiesta di affidabilità completa da parte delle aziende

Quale è il vantaggio di scegliere una soluzione cloud con Fastweb? Fastweb è un operatore infrastrutturato con una rete in banda ultra larga ed è quindi in grado di garantire i servizi in tutte le loro componenti con un’ottica “end-toend”. Inoltre, poter avere a disposizione un data center di nuova generazione su territorio nazionale è essenziale per le aziende e per la PA, perché offre la certezza sulla localizzazione dei propri dati, sulle regole di privacy, sulle leggi applicate, oltre alla sicurezza di potersi rivolgere ai tribunali nazionali in caso di controversia. I benefici per i nostri clienti nascono anche dalla capacità di Fastweb di mettere in campo, oltre a servizi e infrastrutture d’eccellenza, anche competenze specifiche a livello Ict e di sicurezza per garantire una migrazione senza rischi verso le soluzioni cloud. Le aziende italiane hanno sistemi proprietari con protocolli legacy troppo estesi per andare su piattaforme standard, che non sono in grado di garantire il giusto livello di personalizzazione del servizio. Per questo, negli ultimi abbiamo investito molte risorse per acquisire competenze per l’attività di consulenza, per accompagnare il cliente nella realizzazione del cloud. I risultati si vedono: il 45% dei nuovi ordini è già sui servizi non tradizionalmente di telecomunicazione.

25


nas integrati di classe business con backup wd DGHOHYDWDDIÆGDELOLWj ®

My Cloud Business Series NAS preconfigurati

Realizzati interamente con elementi hardware, software e storage di WD, i nuovi prodotti della gamma My Cloud Business Series rappresentano soluzioni NAS complete, dalle prestazioni elevate e progettate appositamente per le piccole aziende. I sistemi a 2 bay (DL2100) e 4 bay (DL4100), completamente integrati e semplici da installare, garantiscono l’affidabilità la sicurezza e la scalabilità necessarie per il successo delle aziende di piccole dimensioni. Per maggiori informazioni visita wd.com.

WD, il logo WD e My Cloud sono marchi registrati di Western Digital Technologies, Inc. negli Stati Uniti e in altri paesi; WD Red è un marchio di Western Digital Technologies, Inc. negli Stati Uniti e in altri paesi. Eventuali altri marchi menzionati nel documento sono di proprietà di altre aziende. Le illustrazioni possono differire dal prodotto reale. La disponibilità dei prodotti può variare in base alla regione. Tutte le specifiche relative a prodotti e confezioni sono soggette a modifica senza preavviso. © 2015 Western Digital Technologies, Inc. Tutti i diritti riservati.


SPECIALE | Unified Communication

ATTIVI SEMPRE E OVUNQUE Le nuove soluzioni di Unified Communication & Collaboration assecondano la propensione a lavorare da remoto, semplificando il dialogo e favorendo la condivisione di idee e progetti. Anche da dispositivi mobili.

I

l mercato della Unified Communication & Collaboration (Ucc) e della videocomunicazione in Italia è in crescita sul segmento enterprise ed è principalmente guidato dalle aziende medio-grandi, dove maggiori sono le esigenze di collaborazione fra i dipendenti e con il personale esterno. A dirlo è Marco Pennarola, manager of marketing product development & go to market di Fastweb: “Le grandi aziende sono tipicamente servite da operatori consolidati (telco e global system integrator), che offrono garan-

zia di servizio end-to-end e modelli di governance flessibili. Alle piccole imprese, e in parte anche alle medie, le soluzioni sono vendute a pacchetto, principalmente veicolate da operatori o system integrator locali o addirittura dagli over the top”. L’offerta di Fastweb è sia “stand alone” sia integrata con la soluzione cloud. Ed è su quest’ultima, soprattutto, che l’operatore punta. “È ideale per le aziende con più sedi distribuite sul territorio o anche per quelle con personale che lavora in mobilità o in smart working”, aggiunge Pennarola.

“Il servizio FastCloud Communication, integrato nella nuvola, permette di gestire le esigenze dinamiche di comunicazione e collaborazione aziendale, di interazione a distanza e di accesso alle informazioni da qualunque luogo. Si fonda su un virtual private data center dedicato a ogni cliente, soluzioni tecnologiche d’avanguardia e affidabili con una piena operatività in business continuity, disaster recovery basato su cloud di ultima generazione e un approccio alla sicurezza distribuito su più livelli: fisico, logico e dei dati”. GIUGNO 2015 |

27


SPECIALE | Unified Communication

DEVID MAPELLI - DIMENSION DATA

Secondo Claudio Mignone, country manager di Polycom, “l’Italia oggi è un mercato maturo per l’Ucc. Fino a qualche anno fa si pensava a questo tipo di soluzioni legandole unicamente ai sistemi di telefonia Pbx per le grandi aziende. Oggi il panorama è completamente cambiato e anche le Pmi stanno lavorando per adottare prodotti che, a fronte di una sostanziale riduzione dei costi, permettano un ampliamento delle opportunità di business”. Le soluzioni su Polycom punta in questo momento sono tre. La prima, RealPresence One, è interoperabile, scalabile e completa sia in termini di software sia di servizi, e permette elasticità di sviluppo dell’infrastruttura con abbonamenti

mensili adattabili a qualunque esigenza di business, come spiega Mignone. “C’è quindi tutta la gamma di telefonia VoIP e soprattutto la serie dei telefoni CX, che si integrano con Microsoft Lync e Skype for Business. Infine ci sono i Managed Services, e in particolare gli Adoption Services che sono pensati per installare, trasferire e promuovere l’adozione dei sistemi di collaboration in azienda, dando nel contempo valore agli investimenti effettuati”. L’importanza dello spazio di lavoro

Dimension Data ritiene che le potenzialità delle persone debbano essere valorizzate permettendo loro di scegliere l’assetto lavorativo ideale per svolgere al 28

| GIUGNO 2015

meglio le proprie attività. “Workspaces for Tomorrow è la nostra strategia”, afferma Devid Mapelli, solutions team leader in Dimension Data Italia, “con diverse soluzioni che permettono alle aziende di affrontare a 360 gradi temi come l’ottimizzazione delle prestazioni”. Gli obiettivi più tipici sono la migliore condivisione della conoscenza e l’aumento della produttività. “Riteniamo”, prosegue Mapelli, “che questi risultati siano raggiungibili con una sintesi di soluzioni che consentano l’accesso in mobilità alle informazioni e migliorino la comunicazione. Per esempio, con l’adozione di sistemi di collaborazione basati su cloud e utilizzabili con qualsiasi device si decida di comunicare: postazioni di videoconferenza fisse, Pc, tablet o altro”. Ricoh si propone come partner per tutte le esigenze di comunicazione interne ed esterne all’azienda. Lo afferma Davide Oriani, Ceo di Ricoh Italia, spiegando che la soluzione “Connect & Collaborate è dedicata all’allestimento e gestione di sale per la collaborazione basate su tecnologie Ricoh, per videoconferenza, videoproiettori e lavagne interattive. I Ricoh Meeting Room Services sono servizi per l’allestimento e gestione delle sale meeting, con una soluzione chiavi in mano completamente gestita”. Senza vincoli di spazio e luogo

Oltre a Nuvola It Comunicazione Integrata, l’offerta di servizi di Telecom Italia comprende Nuvola It Message Cube. “È la soluzione cloud di messaging e collaboration evoluti che favorisce il lavoro in mobilità e integra le funzionalità di posta elettronica con servizi avanzati di unified messaging, video conference, Web e real time collaboration”, spiega Stefano Mattevi, responsabile segment marketing direct channel business di Telecom Italia. “Il tutto, rendendo disponibile, per esempio, uno spazio virtuale per condividere informazioni e creare applicazioni personalizzate e strumenti integrati per il

lavoro condiviso in tempo reale”. Completano l’offerta i sistemi di videocomunicazione ad alta definizione e soluzioni di audioconferenza. Una delle soluzioni più recenti di Cisco è invece Cisco Spark, una servizio cloud che allestisce delle meeting room virtuali. “Cisco Spark”, spiega Michele Dalmazzoni, collaboration leader di Cisco Italia, “accessibile dalla maggior parte di dispositivi mobile o desktop, crea una stanza virtuale dove i team collaborano e comunicano da qualsiasi luogo. Una volta entrati, i membri del team possono inviare messaggi, condividere e visualizzare file, avviare chiamate voce e video e condividere il proprio schermo. Il tutto in totale sicurezza”. Microsoft ha costruito un ecosistema di soluzioni in costante evoluzione che si sviluppa secondo i trend della mobility, del social, della business intelligence e delle interfacce naturali per abilitare la massima produttività. Così afferma Claudia Bonatti, direttore della divisione Office di Microsoft Italia. “Come testimoniano alcuni dati”, sottolinea Bonatti, “risulta fondamentale anche la componente social e di comunicazione integrata di Office: infatti sono oltre otto milioni gli utenti di Yammer”. “Office”, prosegue Bonatti, “è in costante evoluzione e introduce importanti nuove funzionalità in una logica di consumerizzazione e collaborazione. Skype for Business, disponibile anche in Italia da qualche settimana, è integrato direttamente in Office per abilitare servizi di instant messaging, voce e presenza, videoconferenze e online meeting. Broadcast Skype for Business consente di trasmettere meeting (fino a 10.000 persone), facendo leva su Azure Media Services per lo streaming audio, video e la proiezione di presentazioni PowerPoint, e sull’interoperabilità con Bing Pulse per il sentiment tracking e con Yammer per le conversazioni del pubblico”. Maria Luisa Romiti


SPECIALE | Unified Communication

Le aziende stanno modificando le proprie scelte organizzative per adeguarsi all’esigenza di maggiore flessibilità espressa dai dipendenti. Ovvero per offrire modelli di collaborazione più liberi, non vincolati alla postazione fissa né a orari rigidi.

IL LAVORO DIVENTA AGILE

I

l desiderio di flessibilità si diffonde nelle aziende. Oggi, sempre più, i dipendenti si aspettano di avere a disposizione tecnologie che consentano di lavorare e collaborare meglio, in modo più libero e più propizio allo sviluppo di nuove idee. Per i manager i benefici di un ambiente lavorativo smart, aperto e agile sono evidenti: l’87% ritiene che i dipendenti apporterebbero un maggiore valore all’azienda se fossero meno “legati” alla scrivania, e che si avrebbe un impatto positivo sulla produttività e sul fatturato aziendale. Questo risulta dalla ricerca (“Il futuro degli ambienti di lavoro”) che Ricoh ha commissionato all’Economist Intelligence Unit per capire quali modelli si affermeranno nei

prossimi dieci o quindici anni. L’indagine ha coinvolto esperti, accademici e oltre 500 business executive a livello mondiale. “Le tecnologie Ricoh per la Unified Communication tengono conto della necessità di lavorare ovunque, proprio in un’ottica di mobility e di smart working”, afferma Davide Oriani, Ceo di Ricoh Italia. “Ricoh Unified Communication System P3500 è un sistema per la videoconferenza facilmente trasportabile (ha le dimensioni di un foglio A4) e pronto all’uso non appena connesso a una rete Internet. La soluzione permette di integrare dati provenienti da Pc, in modo che i partecipanti alla videoconferenza possano condividere documenti e informazioni.

Dall’ufficio fisico a quello virtuale

Il “Connected World Technology Report”, condotto ogni anno da Cisco, nell’ultima edizione svela nuove tendenze nel rapporto fra comportamento umano, Internet e tecnologie. Dallo studio emergono dati che indicano come le aziende dovranno agire per restare competitive in uno scenario in cui gli “stili di vita tecnologici” hanno sempre maggiore influenza. Il report globale si basa sulle risposte date da professionisti fra i 18 e i 50 anni di 15 Paesi, ed evidenzia le sfide che già oggi le imprese devono affrontare per trovare il giusto equilibrio fra le necessità dei dipendenti e quelle del business. Sullo sfondo, un quadro caratterizzato da crescente mobilità, rischi di sicurezza e 29


30

| GIUGNO 2015

Italia a rilento, ma in crescita

DAVIDE ORIANI - RICOH

Oggi solo il 19% dei lavoratori italiani svolge, seppure con differente frequenza, le proprie mansioni da casa o comunque lontano dal proprio ufficio. E solo all’interno di poche aziende, meno del 10%, lo smart o flexible working è già contemplato. Le cose cambiano soltanto quando si verificano situazioni particolari, che richiedano

CLAUDIA BONATTI - MICROSOFT

una soluzione flessibile: in questo caso il 32% delle imprese è incline ad adattarsi. Complessivamente, considerando anche questi casi, la percentuale di organizzazioni aperte al lavoro smart sale al 39%. Questo secondo la ricerca commissionata da Citrix Italia a ContactLab, dalla quale emerge altresì che sono il 18% le persone che hanno richiesto, senza ottenerlo, il permesso di lavorare in modalità flessibile. All’interno delle sole aziende in cui lo smart/flexible working è ammesso, il 50% dei collaboratori sta usufruendo di questa possibilità, anche se con una bassa frequenza (in media, nove volte al mese). Nonostante nel nostro Paese sia una realtà ancora limitata, il lavoro flessibile suscita molto interesse ed è destinato a crescere. Anche secondo uno studio del Politecnico di Milano solo il 10% delle aziende nostrane ha avviato progetti di questo tipo, ma si prevede che entro un anno la quota salga al 20%. “Qualcosa si sta muovendo in termini legislativi: il 29 gennaio 2014 è stata depositata in Parlamento la proposta di legge sullo smart working, che vuole superare i vincoli e le logiche del telelavo-

STEFANO MATTEVI - TELECOM ITALIA

CLAUDIO MIGNONE - POLYCOM

Secondo Cary Cooper, docente di Psicologia del lavoro alla Lancaster University e intervistato nello studio “Il futuro degli ambienti di lavoro” di Ricoh, nei prossimi anni sarà più importante che mai garantire flessibilità ai lavoratori. La generazione dei Millennial considera molto sfumato il confine tra vita privata e professionale ed è pertanto più interessata alla possibilità di lavorare da remoto e con libertà di orario. In questo contesto nasce un nuovo concetto di ufficio: da un lato le tecnologie contribuiscono a rendere più virtuale lo spazio di lavoro, e dall’altro il layout degli spazi fisici si trasforma con l’obiettivo di incoraggiare la collaborazione, l’interazione e la creatività.

MARCO PENNAROLA - FASTWEB

tecnologie che rendono le informazioni sempre più ubique. Nell’edizione 2014, rispetto alle precedenti che coinvolgevano soltanto i lavoratori più giovani (i cosiddetti “Millennial” o “Generazione Y”), sono stati interpellati anche gli appartenenti alla meno giovane “Generazione X”. “La gran parte dei lavoratori”, dice Michele Dalmazzoni, collaboration leader di Cisco Italia, “crede che nel 2020 gli uffici ‘di mattoni’ esisteranno ancora, ma quattro su dieci pensano che saranno molto più piccoli. Inoltre, la flessibilità di stabilire i propri orari o di lavorare da remoto è la cosa più importante per un dipendente su cinque”. Oltre la metà dei dipendenti (Generazione X e Y) si considera raggiungibile 24 ore al giorno, sette giorni su sette, e tre su dieci sono disponibili sia via email sia al telefono. In generale, la flessibilità è in aumento: circa un quarto degli intervistati opera in aziende che consentono di lavorare da casa. Circa due terzi, inoltre, ritengono che un’organizzazione con modelli lavorativi flessibili, mobili, da remoto abbia un vantaggio competitivo su quelle che richiedono di stare in ufficio tutti i giorni e con un orario fisso. Le opinioni sono divise abbastanza equamente quando si tratta di valutare la tipica giornata lavorativa da “colletto bianco”: poco meno della metà desidera la libertà di operare ovunque e in qualunque momento, senza restrizioni. Anche su queste basi Cisco, oltre ai servizi cloud come Cisco Spark, utilizza un approccio basato su architettura, che integra gli aspetti mobile, sociale, visivo e virtuale della collaborazione per riunire le persone in qualsiasi momento e luogo o su qualunque dispositivo. “Connettere dipendenti, clienti e fornitori per prendere decisioni, risolvere i problemi dei clienti e affrontare le sfide della catena di fornitura”, spiega Dalmazzoni. “L’architettura consente tutto questo in modo economicamente vantaggioso con scalabilità, sicurezza e accessibilità”.

MICHELE DALMAZZONI - CISCO

SPECIALE | Unified Communication


ro”, spiega Stefano Mattevi, responsabile segment marketing direct channel business di Telecom Italia. “Telecom Italia/Tim sta approcciando questo tema sia in termini di organizzazione interna, sia supportando le aziende con una suite completa di soluzioni Ict che integra connettività, infrastrutture di rete, cloud, hardware e sicurezza informatica”. Nuvola It Comunicazione Integrata di Telecom Italia/Tim è la soluzione che permette di realizzare una postazione convergente con telefono, Pc e smartphone, offrendo funzionalità di collaborazione avanzate come VoIP,

presence, instant messaging, videoconference e numero unico. Per esempio, grazie alla convergenza fisso-mobile, il servizio consente di usare lo smartphone come un interno del centralino aziendale con tutti i servizi correlati. Lo smart working è anche uno degli obiettivi principali di Polycom. A dirlo è Claudio Mignone, country manager per l’Italia: “Tutte le nostre soluzioni sono progettate per integrarsi con un ambiente lavorativo di questo tipo. In particolare pensiamo al Byod e alla mobility, per cui offriamo applicazioni dedicate, telefoni e anche infrastrutture,

permettendo così a ogni professionista di collegarsi in audio e video e di condividere contenuti in tempo reale, in qualunque momento e da qualsiasi luogo”. Smart working e tecnologia

Le tecnologie più utilizzate per abilitare lo smart working in Italia sono quelle che supportano la collaborazione, la socialità e l’accessibilità delle informazioni. Secondo l’Osservatorio del Politecnico di Milano quelle più diffuse sono legate alla Unified Communication & Collaboration e sono state già adottate dal 70% delle aziende: si tratta, in particolare, di infrastrutture VoIp e stru-

menti di Web conference e instant messaging. Seguono le applicazioni mobili aziendali, diffuse nel 51% delle imprese (ma con un numero limitato di app per ciascuna azienda) e le iniziative social, presenti in un quarto delle organizzazioni. “Un numero crescente di applicazioni si sta spostando anche verso il cloud computing, paradigma tecnologico fondamentale per garantire l’accessibilità a dati e applicazioni da qualunque luogo e con qualsiasi device”, afferma Marco Pennarola, manager of marketing product development & go to market di

Fastweb. “La nostra offerta FastCloud Communication è tagliata per rispondere a queste esigenze. Offre, oltre a un centralino di classe enterprise, funzioni come la rubrica integrata, la presence, l’instant messaging, la videochiamata, la condivisione desktop, il trasferimento di file, le comunicazioni voce e video criptate e sicure, il server fax e altro”. L’azienda stessa, da aprile 2015, ha avviato un progetto pilota (smartwoking@fastweb) per consentire a 1.200 suoi dipendenti di lavorare da casa per tre giorni al mese, sfruttando portatile, smartphone e rete Vpn. Secondo una ricerca internazionale di Microsoft e Ipsos Mori, nonostante la maggior parte (65%) dei dipendenti delle piccole e medie imprese italiane consideri adeguato il proprio “work/ life balance”, uno su quattro ammette di doversi destreggiare per conciliare vita privata e carriera. Quest’ultimo aspetto risulta essere decisamente importante nella valutazione del posto di lavoro (74%), alla pari di altri elementi, quali salario (79%) e sicurezza/stabilità (75%). I professionisti sono consapevoli del ruolo strategico della mobility: il 62% afferma che smartphone, tablet e app possono ottimizzare i tempi e migliorare la produttività, mentre per il 54% permettono di sfruttare gli spostamenti fra casa e ufficio per svolgere alcune attività. “Considerando lo scenario e i trend di mercato attuali, Microsoft offre alle organizzazioni la piattaforma di produttività Office 365, il servizio cloud che consente di lavorare da remoto accedendo al proprio device e consentendo la possibilità di ottimizzare la collaborazione riducendo al contempo i costi”, afferma Claudia Bonatti, direttore della divisione office di Microsoft Italia. “Il 52% dei dipendenti delle Pmi italiane dichiara di accedere al proprio lavoro da remoto tramite smartphone, tablet, computer, oppure attraverso un servizio cloud come il nostro”. M.L.R. 31


ECCELLENZE.IT |

Comune di Bologna

CON IL SOFTWARE LA CITTÀ RISPARMIA E VA VELOCE Abbinando la virtualizzazione allo storage automatizzato, con SANsymphony-V10 di DataCore è stata resa più efficiente, sicura e rapida la gestione dei dati di una cinquantina di uffici e duecento scuole.

P

er ridare nuova vita a un’infrastruttura tecnologica ormai inadeguata non sempre è necessario investire in hardware. Il software, in particolare quello capace di automatizzare la gestione dello storage, ha aiutato il Comune di Bologna a svecchiare le sua 3.500 postazioni informatiche, a beneficio di 4.300 dipendenti e dei servizi erogati ai cittadini. L’amministrazione comunale archivia e utilizza circa 50 TB di dati, creati da una cinquantina tra uffici, musei e biblioteche e su oltre duecento scuole. Alla base di tutto questo c’è un’infrastruttura composta da due server farm: in tutto 250 macchine, di cui circa 200 virtualizzate tramite Vmware su blade Hp e Ibm. Su tale situazione di partenza si innestavano due necessità: ottenere garanzia di business continuity e aumentare la potenza della piattaforma tecnologica, composta da sistemi LA SOLUZIONE Il nuovo cluster metropolitano bolognese estende il software-defined storage a sessanta istanze Oracle, 10 TB di posta elettronica e duecento macchine virtuali. L’infrastruttura virtualizzata si basa su sistemi Ibm, NetApp, Nexsan, dischi flash Hgst con quattro livelli di Tier sulle due server farm. SANsymphony è stato adottato nella sua versione più recente, la decima (V10), in grado di scalare le prestazioni fino a superare i 50 milioni di Iops e fino a 32 petabyte di capienza su cluster di 32 server.

hardware ormai al termine del loro ciclo di vita. Per gestire nuovi servizi informatici bisognava diventare più veloci nelle operazioni, ma anche contenere i costi dell’investimento. La prima mossa è stata quella di ridondare le due server farm, per poi aumentare la potenza dei sistemi con componenti tecnologiche virtualizzate ed estendere la capacità di storage. “A questo punto è partita l’indagine, portata avanti insieme al partner, che ha escluso l’adozione della classica soluzione di potenziamento dell’hardware a favore del software-defined storage”, spiega Stefano Mineo, il direttore dell’Unità Servizi Infrastrutturali, in cui lavorano 30 dei 45 addetti It del Comune. L’approccio basato sul software non solo consentiva risparmi immediati e maggiore libertà (non vincolando chi lo adotta all’acquisto di sistemi storage di un solo produttore), ma anche scalabilità per il futuro. Dalla fase di selezione è uscito vincitore DataCore, con

la sua soluzione SANsymphony, “la più affermata sul mercato, rivelatasi essere quella che offriva maggiori garanzie sotto ogni aspetto”, come spiega Giuseppe Mazzoli, amministratore di 3CiMe Technology. Il system integrator bolognese ha vinto il bando di gara pubblico in virtù della sua esperienza (metà della clientela è composta da amministrazioni locali) e dell’offerta di contratti di assistenza flat, che permettono di avere certezze sui costi. Partita nel luglio del 2014, l’adozione del software-defined storage è stata terminata in tre mesi e senza disagi. La nuova architettura si è fatta apprezzare per la flessibilità e per la facilità di manutenzione e aggiornamento, ma i suoi benefici più sostanziali stanno nel risparmio sull’acquisto di nuovo hardware e nell’automatizzazione dei backup. “La seconda parte del progetto, già in corso, riguarderà il disaster recovery, sempre con la nostra assistenza”, sottolinea Mazzoli. GIUGNO 2015 |

33


ECCELLENZE.IT |

Kpnqwest Italia

IL PRECURSORE DEL CLOUD SI RINNOVA CON LE LAME L’azienda milanese è pioniera dei servizi di nuvola, fin dalla sua nascita nel 1985. Ora ha modernizzato la propria infrastruttura adottando i server blade di Hp, con grandi vantaggi di tempi, costi e flessibilità.

N

ello Stivale, da trent’anni, il cloud è nel Dna di Kpnqwest Italia. Un cloud ante litteram, nato molto prima che nel mondo Ict si affermasse questa espressione. Fondata a Milano nel 1985, la società oggi opera all’interno del Gruppo Comm2000 insieme a Messagenet e conta oltre 12mila aziende clienti, a cui offre servizi di vario tipo: di hosting, housing e cloud computing, di telefonia VoIP e connettività Dsl e fttx, di distribuzione e archiviazione documentale, di messaggistica unificata per le automazioni fax, Sms e email. I suoi più di settanta dipendenti includono figure specializzate in help desk, integrazione dei sistemi, network operating center, gestione tecnica delle sale dati e sviluppo software, oltre agli addetti commerciali. Una rete dislocata fra Milano (dove risiedono i quattro data center di proprietà) e le sedi e agenzie di Emilia Romagna e Triveneto. Già trent’anni fa l’azienda milanese offriva una primitiva forma di cloud, fatta di servizi di trasmissione telex erogati da un data center remoto. “Dal 1985”, racconta l’amministratore delegato, Marco Fiorentino, “abbiamo percorso tutte le tappe legate alla trasformazione dell’Ict, tappe che ci hanno portato all’attuale portafoglio di offerta”. Il recente boom della richiesta di servizi di nuvola, accompagnato dalla crescita vertiginosa di applicazioni e dati aziendali, ha richiesto un cambiamento. “Circa due anni fa”, prosegue Fiorentino, “abbiamo deciso di fare un 34

| GIUGNO 2015

LA SOLUZIONE Il progetto pilota ha previsto l’installazione di due enclosure Blade equipaggiati con virtual connect e un totale di sei lame (tre per ogni enclosure) e di quattro switch Hp 5900. Kpnqwest si è affidata ad Hp anche per l’assistenza (da affiancare all’opera del proprio personale interno), sottoscrivendo un contratto Proactive Care 24x7. In futuro l’azienda è intenzionata a spostare sulla nuova infrastruttura una parte del carico di risorse It gestite per conto dei suoi clienti; è in valutazione, inoltre, il lancio di servizi basati su ambiente OpenStack nella versione di Hp.

salto di qualità nell’offerta cloud, venendo incontro alle esigenze di grande agilità ed elasticità che i clienti mostravano”. Con l’obiettivo di dotarsi di una nuova infrastruttura server, più flessibile e scalabile, Kpnqwest ha scelto la soluzione Blade di Hp. Vendor selezionato tenendo un occhio sui costi, ma non solo. “Cercavamo anche un fornitore con il quale si potesse stabilire un rapporto di partnership”, specifica l’amministratore delegato, “perché la nostra strategia di go-tomarket conta molto sull’apporto di Isv, integratori e Web agency. Il nostro nuovo partner avrebbe dovuto supportarci nell’ampliare i contatti con queste categorie”. Terminata la fase pilota, l’azienda ha avviato un percorso di medio termine non ancora del tutto concluso. Il primo vantaggio associato all’adozione dei server blade è la velocità: a Kpnqwest bastano ora meno di cinque minuti per attivare un nuovo nodo fisico, tre giorni per allestire un server, meno della metà delle ore/uomo in precedenza necessarie per riconfigurare le piattaforme. “In questo modo”, precisa Fiorentino, “abbiamo migliorato l’elasticità della nostra offerta, riuscendo a stare al passo con le richieste di potenza di calcolo dei clienti”. Le nuove architetture hanno anche ridotto dell’80% i costi di cablaggio, e in futuro si potrà fare ancora di più: con il software-defined storage, abilitato dai server Hp, si potrà tagliare del 40% i tempi e costi di gestione dell’infrastruttura e mettere il turbo (+500%) alle performance di gestione dei dati.


ECCELLENZE.IT |

Gruppo Marchesini

UNO STORAGE INTELLIGENTE E CONFEZIONATO SU MISURA Al posto di due soluzioni distinte, oggi l’azienda attiva nel settore packaging si avvantaggia di una soluzione NetApp unificata, centralizzata e scalabile nel tempo. Con il supporto di Sinergy. LA SOLUZIONE NetApp Fas3250 Campus Metrocluster realizza la replica sincrona fra i due data center, senza interruzione del servizio e con tempi di recovery pari a zero. SnapMirror ha velocizzato ed esteso a più fonti di dati le operazioni di backup. NetApp Fas2240 ha permesso di creare un sito di disaster recovery, che utilizza il protocollo Cifs per il consolidamento dei file server e i software Snapmanager e Snapmirror.

O

ltre qarant’anni di attività per un business che da Pianoro, in provincia di Bologna, oggi si è esteso ai mercati esteri (anche in Russia e in Cina) e che ha collezionato la cifra ‒ un record nel settore ‒ di 198 brevetti registrati. Marchesini Group opera nell’ambito del packaging, servendo clienti dell’industria farmaceutica, della cosmetica e della grande distribuzione. Per crescere, in fatturato e linee di attività, Marchesini aveva bisogno di rafforzare un elemento chiave dell’It aziendale: lo storage. L’infrastruttura It del Gruppo è distribuita sue due data center, posti a breve distanza nel campus di Pianoro e popolati di server virtuali: uno opera come centro di calcolo primario, mentre il secondo edificio è destinato alla replica di funzioni e dati situati nel primo. “In questi due spazi”, illustra l’It manager, Maurizio Bertasi, “si concentra lo storage del gruppo: l’archiviazione di tutto il patrimonio informativo della società,

dai progetti Cad ai documenti amministrativi, dai file di Office a quelli multimediali”. Fino al 2010 i due data center utilizzavano un sistema duale, che distingueva le funzioni di Nas (Network Attached Storage) per la gestione del File System e di San (Storage Area Network ) per la distribuzione dei dischi ai singoli servizi It. “Questa architettura ci poneva seri problemi di gestione e difficoltà legate a incident e ripristino dei servizi”, spiega Bertasi. L’azienda ha dunque deciso di unificarli in modo da ottimizzare gli investimenti, sfruttare le sinergie e aumentare il livello di affidabilità dello storage. Come? Con la consulenza e il supporto strategico e tecnologico del partner Sinergy sono state adottate le soluzioni di NetApp: Fas3250 Campus Metrocluster, innanzitutto, che realizza la replica sincrona fra i due centri dati, garantendo la continuità di business, e NetApp SnapMirror, per lo snapshot dei dati in

tempo reale. Operazioni ora estese anche a database Sql, Oracle e macchine Linux, i cui dati in precedenza erano replicati manualmente. Marchesini ha così ridotto drasticamente i tempi di backup e ha eliminato possibili rallentamenti nel lavoro e nella pianificazione di finestre temporali in cui eseguire copie dei dati. “La soluzione NetApp ha soddisfatto in pieno le necessità iniziali di unificazione dei sistemi storage per la gestione dei dati in ambiente San e Nas”, certifica Bertasi. “L’amministrazione ordinaria e la manutenzione sono oggi semplificate e più rapide e ci hanno consentito di liberare risorse prima dedicate a queste attività. Abbiamo ampliato il numero di server virtuali e riusciamo a soddisfare molto agilmente le esigenze delle aree di produzione, avendo aumentato, al contempo, i livelli di sicurezza e affidabilità dell’intera struttura di storage”. La stima del taglio dei costi di mantenzione va da 20% al 30%. GIUGNO 2015 |

35


ITALIA DIGITALE

L’INNOVAZIONE CHE ANCORA NON C’È Gli ultimi rapporti prodotti dalla Ue e da società di consulenza indipendenti bocciano ancora una volta il nostro Paese nel suo percorso di cambiamento tecnologico. Burocrazia, mancanza di visione strategica, carenza di infrastrutture e competenze: i freni inibitori sono molti, come le sfide da vincere di chi ha preso in mano il timone dell’Agenzia per l’Italia Digitale.

G

li ultimi indici elaborati in seno alla Ue, il neonato Desi (Digital Economy and Society Index) e il più noto Digital Agenda Scoreboard, che misurano connettività, attività online, capitale umano, grado di integrazione dell’economia digitale e servizi pubblici, ribadiscono come la digitalizzazione in Europa sia oggi tutt’altro che uniforme. Le sperequazioni da Paese a Paese sono infatti consistenti per ciò che concerne l’uso di Internet, l’interazione telematica con le autorità pubbliche (la Danimarca fa scuola), la fruizione di video 36

| GIUGNO 2015

on demand, le vendite online delle Pmi o la gestione delle prescrizioni in formato elettronico fra medico di base e farmacie (area nella quale eccellenza assoluta è l’Estonia). L’Italia, in queste due classifiche, è in 25esima posizione. Paghiamo – e non è una novità – la scarsa propensione all’e-commerce delle nostre imprese medie e piccole, una velocità di connessione nettamente inferiore alla media europea e competenze digitali limitate. Se il “digital single market” è una scommessa da vincere per tutta la Ue, per l’Italia la posta in palio è ancora

più alta perché lo status digitale della Penisola è da giudicare, dati alla mano, ancora insoddisfacente. Prendiamo per esempio il “Networked Readiness Index” redatto dal World Economic Forum, che misura in buona sostanza la capacità dei singoli Paesi di sfruttare le opportunità della Rete. L’Italia non perde terreno rispetto al 2014, ma il suo 55esimo posto in classifica non costituisce certo un vanto anche in considerazione della posizione occupata (fra il 50esimo e il 58esimo gradino del ranking) negli ultimi due anni. Improponibile il confronto con le nazioni


forti (sul digitale), si fa quindi prima a elencare chi c’è dietro: Slovacchia, Romania, Grecia e Bulgaria. A pesare sui risultati italiani concorrono fattori tristemente noti che il Wef elenca – in ordine sparso – in burocrazia, carico fiscale, mancanza di visione e attenzione strategica al digitale. Aggiungiamoci la scarsa presenza di venture capital e la limitata diffusione delle tecnologie Ict nei processi chiave del settore privato e pubblico ed ecco che il quadro, ancora una volta, è negativo. PA in ritardo sull’Agenda

Le difficoltà italiane nel tenere il passo con gli obiettivi fissati dall’Agenda Digitale Europea (aumento del Pil del 5% nei prossimi otto anni e oltre 3,8 milioni di nuovi posti di lavoro) emergono evidenti anche da un recente studio condotto da Ernst & Young in collaborazione con Glocus, gruppo di lavoro che fa capo alla vicepresidente del Senato, Linda Lanzillotta. Il ritardo del programma di digitalizzazione italiano appare significativo se pensiamo che l’approvazione del cosiddetto Cad, il Codice dell’Amministrazione Digitale, risale a dieci anni fa e che il quadro normativo nazionale è incentrato sulla diffusione delle tecnologie Ict sia internamente alla Pubblica Amministrazione sia nei rapporti con

cittadini e imprese. Le azioni previste dal Codice, questo il problema di fondo, non sono ancora state portate a termine nella loro totalità. È dimostrato, invece, che crescita economica e occupazione in Europa sono strettamente connesse alla revisione delle priorità tecnologiche e agli investimenti destinati a creare nuove infrastrutture per i servizi pubblici online, a diffondere la banda larga e a realizzare una strategia industriale in chiave digitale. Lo studio in questione, inoltre, ricorda da un lato come l’Italia rimanga in una posizione arretrata rispetto agli obiettivi fissati dall’Agenda Europea e monitorati dal Desi e, dall’altro, come l’adozione di nuove riforme al Codice e una maggiore attenzione sull’aspetto della governance non siano più rimandabili. Istituire una figura dirigenziale con competenze tecnologiche e manageriali, che guidi la realizzazione dei

L’Italia è al 25esimo posto nel Digital Economy and Society Index dell’Unione europea. E al 55esimo del Networked Readiness Index del World Economic Forum.

progetti di digitalizzazione, rimane quindi un’idea sempre praticabile. E questa figura, secondo molti, può

essere (o per certi versi deve essere) il direttore generale dell’Agid. Le sfide della “nuova” Agenzia

Le priorità del nuovo timoniere dell’Agenzia per l’Italia digitale nominato a fine aprile, Antonio Samaritani, ruotano essenzialmente intorno ai progetti più importanti del decreto Crescita Digitale. Fatturazione elettronica, anagrafe unica, identità digitale e Italia Login sono, quindi, le prime sfide da vincere per l’ex Cio della Regione Lombardia, recentemente arrivato a sostituire la dimissionaria Alessandra Poggiani. Per il Fascicolo Sanitario Elettronico, invece, c’è stata una repentina quanto imprevista frenata e se ne riparlerà a fine dicembre, cioè sei mesi più tardi rispetto alla scadenza di legge, che era fissata per il 30 giugno. Se il pacchetto “Crescita Digitale” è all’ordine del giorno, il compito cui è chiamato Samaritani non è solo di natura progettuale e attuativa. C’è, per esempio, una diatriba sindacale da appianare per ristabilire serenità nei rapporti all’interno dell’Agenzia e ci sono i nodi da sciogliere nei problemi di comunicazione fra Regioni e Stato centrale in materia di innovazione tecnologica. Gianni Rusconi

PMI E GRANDI AZIENDE: VIA AI BANDI DEL MISE PER 400 MILIONI Agenda digitale e industria sostenibile: questi i due campi di intervento delle agevolazioni per i progetti di ricerca e sviluppo contenute nel decreto attuativo firmato a inizio maggio su proposta del Ministero dello Sviluppo Economico. La scadenza di presentazione delle istanze preliminari (inviabili solo per via telematica) per i due bandi rivolti alle imprese, uno da 150 milioni di euro e il secondo

da 250 milioni, è fissata rispettivamente al 25 e al 30 giugno. L’iniziativa punta a due obiettivi fra loro complementari. Il primo è il sostegno di progetti Ict focalizzati sullo sviluppo di applicazioni e tecnologie abilitanti per il mercato digitale (in modo coerente con l’Agenda) e della Rete. Per chi si candida il quadro di riferimento è dettato, non a caso, anche dai traguardi del programma Ue  Horizon

2020. Il secondo obiettivo è quello di individuare soluzioni in grado di alimentare la crescita di un’economia innovativa e sostenibile, soprattutto sul fronte dell’utilizzo delle risorse. Le agevolazioni sono concesse nella forma di finanziamento agevolato  per una percentuale delle spese ammissibili non superiore al 60% per le Pmi e al 50% per le imprese di grandi dimensioni.

37


ITALIA DIGITALE | STARTUP

LA RIVOLUZIONE DAL BASSO SI FA CON IL TALENTO Le competenze tecnologiche sono la base per generare crescita economica e posti di lavoro, ma necessitano di un ecosistema virtuoso. In Trentino c'è e funziona bene.

I

n un mondo sempre più globalizzato e concorrenziale, il talento non è un accessorio ma un asset. Una risorsa strategica ambita da Stati e multinazionali più del petrolio e del gas. Non a caso Richard Florida, il guru della “creative class”, considera il talento in uno dei tre fattori chiave che rendono una città innovativa e competitiva a livello globale, assieme alla tecnologia e alla tolleranza. Anche il Trentino sta scommettendo sulle “tre T”. Certo, la provincia non è una sola città (il suo capoluogo ha appena 120mila abitanti, su un totale di circa mezzo milione di trentini), ma date le sue dimensioni geografiche e demografiche limitate, i buoni collegamenti tra i centri urbani e le valli e l’ottima infrastruttura tecnologica, si può parlare di una sorta di “greater Trento area”. Un’area che, appunto, sta scommettendo sul talento per generare Pil e occupazione. Il punto è che in Trentino di tecnologia (a livello prototipale) e di innovazione se ne fa. E tanta. Il territorio, nel complesso, investe circa il 2% del Pil in ricerca e sviluppo: una percentuale in linea con quella di molte realtà europee. Ma la ricerca, da sola, non si trasforma in innovazione. Perché ciò accada serve un ecosistema, che faccia dialogare tra loro gli attori dell’alta formazione, del busi38

| GIUGNO 2015

ness e, appunto, della ricerca. L’ecosistema trentino è in tal senso uno dei più vitali d’Italia. Merito di un’università di dimensioni medie ma tra le migliori del Paese; di centri di ricerca di grande rilievo, come la Fondazione Bruno Kessler e la Fondazione Edmund Mach; di un’agenzia per lo sviluppo territoriale molto orientata al trasferimento tecnologico; di una Pubblica Amministrazione proattiva, che crede nell’innovazione da ben prima che questa parola diventasse una buzzword; di un tessuto di Pmi dinamiche. Tuttavia oltre alle componenti appena citate, perché un ecosistema funzioni serve anche un costante flusso di energia nuova, rappresentata dal talento. Anzi, dai talenti, dato che si parla di persone. Perché solo attraverso figure tecno-imprenditoriali di qualità il trasferimento di tecnologia e conoscenza può avere successo, e l’innovazione può diventare tangibile. Il Trentino tenta di procacciarsi i talenti in vari modi: attraverso l’università, che è una delle più internazionali del Paese (una cifra: il 60% degli studenti della Ict Doctoral School è straniero), per mezzo dei centri di ricerca, capaci di attirare menti brillantissime offrendo opportunità “ad personam” (in senso buono) per la creazione di laboratori avanzati; con

UN MILIONE DI EURO PER LE IDEE APERTE C’è tempo fino al 23 giugno per partecipare al bando del Premio Gaetano Marzotto  nella cornice del Wired Next Fest, la più importante startup competition italiana. Giunta alla sua quinta edizione, anche quest’anno ha stanziato un montepremi di oltre un milione di euro e ha preso corpo all’insegna dello slogan “open innovation”. Il concorso è aperto a persone fisiche, team di progetto, startup, imprese già costituite, cooperative e associazioni. I progetti imprenditoriali devono avere l’Italia come sede legale e base di sviluppo. Per partecipare è necessario presentare il proprio progetto tramite la piattaforma disponibile al sito  www.premiogaetanomarzotto.it,  entro e non oltre il 23 giugno.  


NUOVE IMPRESE, FONTE DI OCCUPAZIONE A marzo, secondo i dati di Infocamere, in Italia si contavano oltre 3.700 startup innovative. Gli occupati, nel complesso, sono ora 18mila.

Paolo Lombardi

politiche all’insegna della tolleranza, dell’apertura culturale e della contaminazione tra i popoli. L’esperienza sul campo

In TechPeaks, l’acceleratore di talenti Ict del Trentino, abbiamo cercato di muoverci nella stessa direzione. Accettiamo non solo aspiranti imprenditori o startupper veterani, ma anche talenti senza un’idea ben precisa di business, però motivati e con grandi competenze in settori chiave, come la programmazione software, il design di prodotto o di

Cresce il numero delle startup innovative iscritte al Registro delle imprese in Italia. Secondo i dati di Infocamere (la società consortile di informatica delle Camere di Commercio) nel primo trimestre del 2015 se ne contavano 3.711, il 16,7% in più rispetto a dicembre 2014. Il capitale sociale è in media di circa 52mila euro a impresa (in salita del 7,5% rispetto al quarto trimestre 2014), la forza lavoro totale è salita a 18mila lavoratori (14.862 soci e 3.025 dipendenti), quasi tremila unità in più rispetto al trimestre precedente. Il 73% fornisce servizi alle imprese, un terzo delle quali nel software e nella consulenza informatica; il 18,2% opera nell’industria in senso stretto (fabbricazione di computer e prodotti elettronici e ottici, macchinari e apparecchiature elettriche) e il 4,1% nel commercio.

interfacce, il Web marketing e così via. A posteriori la nostra scelta si è rivelata azzeccata: nelle prime due edizioni di TechPeaks abbiamo ricevuto oltre 1.200 domande da più di 60 Paesi, e accettato 110 persone dai quattro angoli del globo, inclusi Stati Uniti, Russia, Regno Unito, Nuova Zelanda e India. In totale abbiamo accelerato 45 idee di business, un risultato che nel suo piccolo ha secondo noi contribuito un po’ a fare del Trentino il territorio italiano con la più alta densità di startup in rapporto alla popolazione (ovviamente in valore assoluto

Le imprese a prevalenza femminile sono 477, il 12,9% del totale, quelle a prevalenza giovanile (under 35) sono invece 879, il 23,7% del totale, mentre 88 sono di matrice straniera (il 2,4%). La Lombardia è la regione che ospita più giovani aziende innovative, 808, il 21,8% del totale. Seguono l’Emilia-Romagna con 451, il Lazio con 347, il Veneto con 274 e il Piemonte con 266. In coda alla classifica, anche per ragioni demografiche, la Basilicata (20 realtà), Molise (16) e Valle d’Aosta (dieci). Milano è la provincia che ospita il numero maggiore di startup ad alto contenuto d’innovazione: 533, pari al 14,4% del totale. Seguono Roma con 302 (8,1%), Torino 201 (5,4%), Bologna 121 (3,3%) e Napoli 109 (2,9%). Superano le cento aziende anche i territori di Modena e Trento. Complessivamente, le giovani imprese innovative hanno registrato una produzione pari a 200 milioni di euro nel 2013 (valore calcolato sulle quasi 1.700 di cui si dispone dei bilanci sull’esercizio), mentre il reddito operativo è negativo per 46 milioni.

non c’è partita con giganti come Milano e Roma). Naturalmente la strada da percorrere è ancora lunga. Come è già stato detto, la competizione economica è ormai globale, e persino realtà consolidate come Milano fanno molta fatica a star dietro ad hub dell’innovazione e della creatività quali New York, San Francisco, Londra, Singapore. Però il Trentino ha capito una cosa fondamentale: il futuro è nel talento. Paolo Lombardi, responsabile Nbc di Trento Rise 39


OBBIETTIVO SU | Fastweb

IL DATA CENTER MILANESE BATTE TUTTI I RECORD Tra le poche strutture in Europa a vantare la certificazione di livello più alto Tier IV, la nuova sala macchine Fastweb di Milano sarà presto affiancata da una struttura gemella a Roma. Per offrire un cloud sicuro alle aziende italiane. 40

| GIUGNO 2015

U

n fiore all’occhiello per Milano. E non solo. La nuova “sala macchine” recentemente inaugurata da Fastweb, frutto di un investimento di 25 milioni di euro che comprende anche la realizzazione (nel 2016) di un data center gemello a Roma, consentirà alla società di potenziare i servizi cloud per le imprese e la Pubblica Amministrazione. Nel progettare e costruire il data center, in un arco di tempo di circa un anno, Fastweb ha considerato i più se-

veri parametri di sicurezza e sostenibilità, ottenendo la certificazione Tier IV, il massimo livello che gli istituti internazionali possono riconoscere agli impianti di questo tipo. Il centro milanese è in grado di “risparmiare” su base annua l’equivalente di tremila tonnellate di anidride carbonica e vanta un indice di efficienza energetica, il cosiddetto Poe (Power Usage Effectiveness) pari a 1,25 (solo il 6% dei data center al mondo rientra in questo parametro). Sul fronte delle prestazioni, il


PER COMPLETARE I LAVORI, DALL'APERTURA DEL CANTIERE ALLA CERTIFICAZIONE, SONO BASTATI CIRCA SEI MESI. L'INVESTIMENTO COMPLESSIVO È DI 25 MILIONI DI EURO.

sito mette a disposizione 162 armadi su una superficie di circa 600 metri quadri. Gli apparati installati nel centro potranno sfruttare una capacità trasmissiva di 4 Terabit al secondo sulla rete in fibra ottica proprietaria, e una densità di potenza di 20 Kw per rack. Quanto all’affidabilità, infine, la società dichiara di poter garantire un indice minimo di continuità del servizio del 99,997% (l’equivalente di un downtime massimo annuo di 12 minuti) ma l’obiettivo è di migliorare ancora. 41


OBBIETTIVO SU | Fastweb

L'IMPIANTO È TRA I MIGLIORI AL MONDO IN TERMINI DI EFFICIENZA ENERGETICA. IL RISPARMIO DI EMISSIONI DI CO2, RISPETTO ALLE STRUTTURE MENO EVOLUTE, È DI TREMILA TONNELLATE L'ANNO.

BLACKOUT L'alimentazione dell'impianto è garantita da due linee a media tensione indipendenti. Le batterie di emergenza consentono di operare senza rete elettrica per 15 minuti, prima dell'avvio dei gruppi elettrogeni. In caso di blackout, l'autonomia di funzionamento senza nessun intervento è di cento ore. 42

| GIUGNO 2015


Alla costruzione del nuovo centro milanese hanno collaborato 50 persone, per un totale di 28 anni/uomo di lavoro. Sono stati stesi 50mila metri di cavi elettrici e altrettanti per il trasporto di dati. Nei vari impianti (idraulico, condizionamento, antincendio) sono state impiegate 400 valvole motorizzate e 650 manuali.

IL SISTEMA CHE GOVERNA IL DATA CENTER GESTISCE IL RIPRISTINO O LA MANUTENZIONE IN AUTOMATICO DI UN COMPONENTE GUASTO.

43


VETRINA HI-TECH

TABLET, LA SPINTA PUÒ ARRIVARE DA MICROSOFT Il mercato è ormai giunto a un punto di saturazione, con il secondo trimestre consecutivo negativo e previsioni fosche per il 2015. Ma il rilancio potrebbe giungere da player finora poco considerati, come la casa di Redmond e altre aziende che utilizzano Windows per i propri modelli. Attenzione, in particolar modo, alla famiglia Surface.

U

n fenomeno passeggero, niente più che una fiammata durata qualche anno e destinata a spegnersi presto? Sembra essere questo il destino dei tablet che, pur essendo ancora relativamente giovani, faticano ormai a fare breccia nei desideri dei consumatori. Il certificato di scarsa salute lo firma la società di ricerca Idc, che sottolinea come il comparto abbia vissuto il secondo trimestre consecutivo di declino, registrando un calo del 5,9% rispetto allo stesso periodo di dodici mesi fa. Nel primo quarter dell’anno fiscale 2015, infatti, le consegne a livello

globale di tablet hanno raggiunto i 47,1 milioni di unità, contro i 50 milioni del 2014. Quello che preoccupa non è il bis negativo, ma la previsione sul lungo periodo. Il trend dovrebbe infatti proseguire per tutto il resto dell’anno. Eppure, i produttori sembrano fare orecchie da mercante e continuano a investire nel settore, sfornando novità interessanti. In modo particolare il terzo player per quanto riguarda i sistemi operativi installati nelle “tavolette”, dopo Android e iOs. Si parla ovviamente di Microsoft. La casa di Redmond pare avere trovato

una ricetta che le permetterà di salire la china e accaparrarsi quote importanti di mercato. Certo, la la diarchia Apple e Samsung (si veda box alla pagina seguente) non sembra essere scalfibile, ma la società diretta da Satya Nadella è riuscita a individuare per i suoi dispositivi un buon compromesso tra prestazioni, funzionalità e prezzo, che dovrebbe garantire un buon posizionamento sia nel mercato consumer sia in quello aziendale. Il tablet che in pochi si aspettavano è, almeno per la prima parte dell’anno, il Surface 3. Secondo alcuni osservatori, il dispositivo dovrebbe riuscire addirittura GIUGNO 2015 |

45


VETRINA HI-TECH

a mettersi in diretta concorrenza con il nuovo Macbook della Mela. Grazie allo schermo touch abbinabile a una tastiera fisica supplementare, viene infatti promosso come convertibile in grado di rimpiazzare in modo definitivo i laptop. Caratterizzato da dimensioni più contenute rispetto al top di gamma Surface Pro 3, il tablet presenta un display multi-touch da 10,8 pollici con risoluzione Full Hd di 1.920 per 1.280 pixel. Spesso 8,7 millimetri, pesa 622 grammi – mentre il Surface Pro 3, con schermo da 12 pollici, arriva a 798 grammi – ed è spinto da un processore Atom x7 Z8700 di Intel a quattro core da 1,6 GHz, con due o quattro gigabyte di Ram. Lo spazio d’archiviazione varia, a seconda dei modelli, dai 64 ai 128 GB. Caratteristiche tecniche inferiori rispetto alla versione Pro, ma che permettono al Surface 3 di rimanere performante e al tempo stesso di essere più facilmente trasportabile rispetto al “fratello maggiore”. La connettività è garantita dal 4G – nel modello che la prevede –, dal Bluetooth 4.0 e dal modulo WiFi. Interessante la

porta Usb 3.0, che si affianca a una micro-Usb adibita alla ricarica. Il Surface 3 viene consegnato con Windows 8.1 ma, come tutti i prodotti di Redmond, sarà aggiornabile a Windows 10 non appena il nuovo sistema operativo di Microsoft verrà lanciato sul mercato. Il prezzo per la versione base è 609,90 euro.

APPLE E SAMSUNG, GIGANTI DAI PIEDI D’ARGILLA

Windows, non solo Surface

Ma le novità di Microsoft non si esauriscono con il Surface 3, perché sarebbe in gestazione anche il nuovo modello di fascia alta Surface Pro 4. Al momento in cui questo numero di Technopolis va in stampa, non si conoscono ancora le specifiche precise, ma dovrebbe trattarsi del primo tablet senza ventola della serie a utilizzare un processore Intel Broadwell. Le versioni dovrebbero essere due, una da 12 e una da 14 pollici, per competere anche con i tanto attesi super-iPad. Ma ad alimentare gli oltre cinque punti di market share detenuti da Windows nel comparto tablet – destinati secondo gli analisti a salire in modo notevole nei prossimi mesi – ci sono anche altri

In principio furono Apple e il suo iPad. La casa di Cupertino, nel 2010, provò a stupire il mondo introducen-

modelli non realizzati direttamente da Microsoft. Tra le novità da segnalare, l’ElitePad 1000 G2 di Hp, un “rugged” con di-

HP ELITE PAD 1000 G2

HUAWEI MEDIAPAD X2

LENOVO YOGA TABLET 2

Schermo: 10,1”, 1.900 x1.200 pixel

Schermo: 7”, 1.920 x1.200 pixel

Schermo: 8”/10,1”, 1.920 x1.200 pixel

Sistema operativo: Windows 8.1

Sistema operativo: Android 5.0

Sistema operativo: Windows 8.1 o

Memoria: 64 o 128 GB + micro Sdxc

Memoria: 16 o 32 GB + micro Sdxc

Android 4.4

Connettività 4G: sì

Memoria: 16 o 32 GB + micro Sdxc

Connettività 4G: sì

Connettività 4G: opzionale

PREZZO: DA 1.249 EURO

46

| GIUGNO 2015

PREZZO: DA 349 A 399 EURO

PREZZO: DA 229 A 399 EURO


do per la prima volta un tablet rivolto al grande pubblico, destinato a diventare un oggetto di culto tra gli utenti più affezionati. Poco dopo partì la rincorsa di altri player per provare a competere con la “tavoletta” della Mela. A distanza di cinque anni, si può dire che il concorrente più credibile oggi è ancora Samsung. La battaglia a distanza tra Cupertino e Seul continua, con i due colossi che nel 2014 si sono spartiti il 43 % della torta globale dei tablet. Eppure, in questo settore da qualche mese le due case non risultano pervenute o si sono limitate a qualche carica a salve. Acquattate in

attesa del momento giusto per colpire o decise a uscire gradualmente dal comparto? A voler seguire le ultime indiscrezioni, si direbbe la prima ipotesi. Apple sarebbe in procinto di presentare un iPad con display da 12,2 o 12,9 pollici. Un tablet decisamente impegnativo, che dovrebbe chiamarsi iPad Pro e aggiungersi agli ultimi arrivati: l’iPad Air 2 e il Mini 3. Il nuovo dispositivo potrebbe rappresentare l’anello mancante fra le altre “tavolette” finora prodotte e i MacBook svelati in contemporanea all’Apple Watch. Cupertino potrebbe infatti dotare il tablet di tecnologia Force Touch, della Near Field Communication e di materiali nanotecnologici. Ma, per avere notizie certe, si dovrà aspettare con tutta probabilità la pros-

sima Apple Worldwide Developers Conference, programmata dall’8 al 12 giugno a San Francisco. E Samsung? I sudcoreani sono attesi – sempre a giugno – con il nuovo top di gamma Galaxy Tab S2 da 8 e 9,7 pollici e System-on-a-chip proprietario Exynos a 64 bit. Il dispositivo dovrebbe misurare 5,4 millimetri di spessore. Un dato che annichilirebbe il record dell’iPad Air 2, che arriva a 6,4 millimetri. Sarà quel che sarà, ma ai due colossi conviene fare in fretta. Il mercato, infatti, non perdona e concorrenti come Huawei, Lg e la stessa Microsoft stanno erodendo quote significative di utenti, mentre Apple e Samsung nel primo trimestre del 2015 hanno perso rispettivamente il 23% e il 31% di market share.

splay da 10,1 pollici, resistenza Ip65 ad acqua e polvere e 64 o 128 GB di spazio d’archiviazione. Oppure lo Yoga Tablet 2 di Lenovo con AnyPen, disponibile

anche con sistema operativo Android: un dispositivo prodotto nelle versioni da 8 e 10,1 pollici con processore Intel Atom, dotato di stylus e di una partico-

lare batteria cilindrica, posta alla base, che consente una presa più sicura sul tablet. Alessandro Andriolo

SAMSUNG GALAXY TAB A

SONY XPERIA Z4 TABLET

APPLE IPAD AIR 2

Schermo: 9,7”,1.024 x 768 pixel

Schermo: 10,1”, 2.560 x 1.600 pixel

Schermo: 9,7”, 2.048 x 1.536 pixel

Sistema operativo: Android 5.0

Sistema operativo: Android 5.0

Sistema operativo: iOs 8

Memoria: 16 GB + micro Sdxc

Memoria: 32 GB + micro Sdxc

Memoria: 16, 64 o 128 GB

Connettività 4G: opzionale

Connettività 4G: opzionale

Connettività 4G: opzionale

PREZZO: DA 300 A 350 EURO

PREZZO: 599 EURO

PREZZO: DA 499 A 719 EURO

47


VETRINA HI-TECH

CAMPIONESSA DI VELOCITÀ Hp Color LaserJet M553x fa parte della prima tranche di periferiche dotate della nuova tecnologia di stampa JetIntelligence, che consente prestazioni migliori con consumi e ingombri più contenuti rispetto al passato.

Co lor Las er M5 Jet Ent 33 erpri se

HP

Pregi t2VBMJUËDPTUSVUUJWB t7FMPDJUËEJTUBNQB t$POGJHVSB[JPOFTFNQMJDF t8J'JEJSFDUF/GD %JGFUUJ t*OUFSGBDDJBHSBGJDB migliorabile t3VNPSPTJUË

48

| GIUGNO 2015

Hp Color LaserJet Enterprise M553x fa parte della prima tranche di stampanti laser della nuova generazione, quelle che utilizzano la tecnologia Hp JetIntelligence. Si tratta di un vero e proprio salto quantico in termini di prestazioni, perché la multinazionale ha rinnovato sia la formulazione del toner sia il motore di stampa, e di conseguenza anche il form factor dei dispositivi. I risultati, almeno stando ai dati di targa, sono di tutto rispetto: le cartucce durano il 33% in più in confronto alla tecnologia precedente, il consumo di energia è stato abbattuto del 53% e lo spazio occupato dalle macchine è inferiore del 40%. Anche le prestazioni sono migliorate, grazie al nuovo motore in grado di stampare fronte e retro in un’unica “passata”. Insomma, le Hp LaserJet si ripropongono con forza sia in ambiente small office (con la stampante M252 e il multifunzione Mfp M227) sia in ambito corporate. Proprio a quest’ultimo fa riferimento il modello provato da Technopolis, che nella variante “x” prevede un terzo cassetto da 550 fogli, oltre ai primi due da 100 e 550. Un’aggiunta che lo rende particolarmente adatto ai gruppi di lavoro di medie dimensioni. La Color LaserJet M553x si è rivelata decisamente semplice da installare in un ambiente di rete (i parametri vengono rilevati automaticamente): in pochi minuti la macchina era operativa e disponibile per tutti gli utenti, in ambiente misto WindowsMac Os. Le poche impostazioni manuali vengono effettuate attraverso il bel display inclinabile da 4,3 pollici, pena-

lizzato però da un’interfaccia grafica non particolarmente intuitiva. Il footprint della stampante, nonostante la fascia effettivamente alta di prestazioni, è ridotto, anche se è difficile valutare la compattezza delle dimensioni rispetto ai modelli precedenti. Spiccano, in ogni caso, la qualità dei materiali e l’accuratezza dell’assemblaggio. Il punto di forza della stampante è sicuramente la velocità, sia da standby (impressionante la capacità di svegliarsi e sfornare il primo foglio in soli nove secondi) sia da attiva, soprattutto nel caso di utilizzo del fronte-retro (che in questo modello è presente nella configurazione standard). La rapidità di movimento della carta nel percorso efficientemente ingegnerizzato da Hp si paga un po’ in termini di rumorosità, ma è una pecca facilmente perdonabile se si pensa che questo tipo di dispositivi non va certo posizionato sulle scrivanie degli utenti. LE CARATTERISTICHE A COLPO D’OCCHIO Funzioni: stampa Tecnologia: laser a colori A4 Velocità: 38 pagine al minuto Risoluzione: 1.200x1.200 dpi Display: touchscreen da 4,3 pollici Connettività: Usb 2.0, Ethernet, WiFi Caratteristiche: fronte-retro

automatico, wireless direct, Nfc Consumo: (stampa standard): 617 W Rumorosità: (stampa standard): 51 dB Dimensioni: 699x 479 x 581 mm Peso: 33,4 kg PREZZO: 999 EURO (PIÙ IVA)


A cura di

The Innovation Group Innovating business and organizations through ICT

Internet of Things & Big Data Summit 2015 Make next industrial revolution real Milano, 11 giugno - Atahotel Executive The Innovation Group, dato il crescente interesse per il paradigma dell’IoT rilevato tra le aziende italiane di ogni dimensione, ha deciso di lanciare l’Internet of Things & Big Data Summit. Durante il Summit verranno trattati temi quali: l’Industria 4.0, l’applicazione di sistemi avanzati e intelligenti per rivoluzionare le aziende e la loro Supply Chain e l’evoluzione del ruolo degli individui, sia nella sfera personale, sia all’interno di sistemi (casa, famiglia) e comunità (Smart City). L’IoT & Big Data Summit, a partecipazione gratuita, si terrà l’11 giugno a Milano, presso l’Atahotel Executive in via Don Luigi Sturzo 45, e vedrà la partecipazione di keynote speaker, casi studio e testimonianze di reali applicazioni per evidenziare i trend più rilevanti sulla scena internazionale e italiana, delineando le effettive potenzialità dell’Internet of Things. Diamond Sponsor

Gold Sponsor

Espositore

Per registrarsi online: www.theinnovationgroup.it segreteria.generale@theinnovationgroup.it - tel. 02 87285500 Il Summit fa parte dell’ampio programma dedicato all’Internet of Things a cura di The Innovation Group.

Scopri subito il sito tematico su http://channels.theinnovationgroup.it/iot/ GIUGNO 2015 |

49


ABBONATI GRATIS A TECHNOPOLIS! Registrati subito e potrai ricevere gratuitamente in formato Pdf tutti i numeri di Technopolis e la newsletter settimanale di ictBusiness.it!

Per abbonarti vai a questo link: http://eepurl.com/Y9qHP Oppure utilizza il QR Code che trovi qui accanto

I tuoi dati saranno trattati secondo quanto previsto dalla nostra informativa per la privacy e per nessuna ragione saranno ceduti a terze parti. In qualunque momento potrai decidere di cancellarti dalla nostra ˆÃÌ>œ“œ`ˆwV>ÀiˆÌ՜ˆ`>̈°


NUMERO 04 | GIUGNO 2015

STORIE DI ECCELLENZA E INNOVAZIONE

52

Scenari

58

Tecnologie

62

Esperienze

Esperienze

La rivoluzione degli oggetti connessi

La questione irrisolta dell’interoperabilità

L’Internet di ogni cosa in Italia? È reale e funziona

Internet of Things COSE, PERSONE, PROCESSI E DATI: IL MONDO INTERCONNESSO È GIÀ INTORNO A NOI. E I BENEFICI SI VEDONO


SCENARI

L'INTERNET OF THINGS È IL MOTORE DELLA TRASFORMAZIONE DIGITALE: NE SONO CONVINTI I MASSIMI ESPERTI IN CAMPO ECONOMICO E TECNOLOGICO. LA VERA SFIDA? RENDERE AUTOMATICA L'INFORMAZIONE, SFRUTTANDO L'INTELLIGENZA DELLE MACCHINE.

TESTO DI GIANNI RUSCONI

La rivoluzione degli oggetti connessi

U

n certo Steve Wozniak, parlando a un evento in quel di Boston qualche settimana fa, se ne è uscito con questa affermazione: “Le macchine hanno vinto sull’uomo duecento anni fa, le abbiamo rese troppo importanti”. Come va intesa la provocazione del cofondatore di Apple in un’epoca in cui tutto, persone comprese, è e sempre più sarà interconnesso? Forse solo come una dichiarazione a effetto, ma l’essenza del messaggio non può essere trascurata quando si parla di Internet of Things. Kevin Ashton, fondatore dell’Auto-ID Center del Massachusetts 52

Institute of Technology e fra i massimi esperti della tecnologia Rfid, coniò nel 1999 questa espressione per descrivere un sistema in cui il mondo fisico veniva collegato alla Rete in modalità wireless e tramite sensori. Oggi l’Iot, al pari di altri paradigmi tecnologici, è uno dei cardini della rivoluzione digitale. I numeri del fenomeno li abbiamo ormai imparati a memoria: nel 2020 gli oggetti connessi saranno qualche decina di miliardi e impatteranno sui processi di ogni settore economico, dall’agricoltura ai trasporti, dal retail alla sanità. E a nove zeri sono anche i risparmi previsti dalla

diffusione su larga scala dell’Internet delle cose, per non parlare delle possibili ricadute in termini di aumento del Pil di un singolo Paese o di un’intera regione macro-economica. Le implicazioni dell’IoT nel prossimo futuro sono sostanziali, non ci sono molti dubbi in proposito. Piuttosto si discute, e a ragione, sulle sue capacità di trasformazione nell’immediato. O del fatto che in tema di privacy e sicurezza gli interventi regolatori e normativi non siano più procrastinabili. La convinzione di Ashton è che l’Internet of Things non sia cambiato in questi quindici anni: il suo essere una


SCENARI

rete di sensori ubiqui che automatizza la raccolta delle informazioni si configura come un’infrastruttura tecnologica con conseguenze e benefici di portata quasi illimitata. Difficili magari da quantificare, ma rispondenti a quella che è la visione del guru del Mit: “Nel XXI secolo l’informazione vuole essere automatica”. Per questo l’IoT va inteso come una massiccia rete di sensori onnipresente e altamente distribuita, collegata a strumenti di apprendimento automatico basati sul Web, che analizzano grandi quantità di dati in tempo reale formulando conclusioni utili. Una piattaforma unica La rivoluzione digitale che sta cambiando pelle a città, case, aziende e pubbliche amministrazioni ha un motore tecnologico che secondo Peter Sondergaard, senior vice president di Gartner Research, si chiama Internet of Things. Stiamo entrando in una fase “disruptive”

rispetto a quella precedente, ha detto di recente l’analista, e l’Iot non solo cambierà la faccia di varie industry ma diventerà un business da 1,9 trilioni di dollari entro il 2020, con il manufatturiero e la sanità a distinguersi fra i settori più prolifici di questo boom (contribuiranno nella misura del 30% al giro d’affari complessivo). Dentro le fabbriche e gli ospedali, così come dentro gli abitacoli delle automobili, nasceranno ecosistemi connessi in cui opereranno sensori, app, moduli machine-to-machine e software: ecosistemi finalizzati a generare, estrapolare e analizzare informazioni in modo del tutto automatico. L’IoT è un fenomeno la cui incidenza si declina su più livelli e quello economico è, come abbiamo visto, uno di questi. Un esperto in materia come Jeremy Rifkin è dell’idea che le ricette per ovviare alla riduzione del Pil e della produttività nei mercati maturi siano, guarda caso, digitalizzazione e Internet of Things. Nel suo

ultimo libro (La società a costo marginale zero) ipotizza un’infrastruttura unica alla base dei tre pilastri su cui si reggono tutte le economie, e cioè comunicazione, energia e trasporti. Pilastri che devono evolversi, aprendosi decisamente al digitale, utlizzandone i diversi strumenti. Ma qual è il cuore pulsante di tale infrastruttura? La risposta è la stessa di Gartner: l’IoT. Una piattaforma intelligente di sensori e strumenti di analytics totalmente pervasiva rispetto a device, macchine e processi, i cui compiti sono quelli di restituire dati in tempo reale, incrementare in modo sostanziale produttività ed efficienza, e fare da canale di collegamento di qualsiasi value chain. Da qui al 2030, recita il “Rifkin-pensiero”, ogni macchina sarà connessa, dando vita a una sorta di “cervello globale esterno”, applicabile a tutti i settori. Con buona pace, forse, di Steve Wozniak e dei timori che computer e macchine abbiamo preso il sopravvento. 53


SCENARI

Cambia la società e cambia l’industria. Fra cucine, fabbriche e automobili ENTRO IL 2015 GLI OGGETTI COLLEGATI IN RETE ALL’INTERNO DELLE SMART CITY SARANNO OLTRE UN MILIARDO. NEL 2020 L’ECOSISTEMA DELL’IOT NEL MONDO CONTERÀ 25 MILIARDI DI DISPOSITIVI. TUTTI I SETTORI NE SARANNO INTERESSATI. MA OGGI NELLE AZIENDE LA DIFFUSIONE DI SOLUZIONI È ANCORA LIMITATA. TESTO DI PIERO APRILE

S

ulle dimensioni del fenomeno Internet of Things in molti, da tempo, si stanno esprimendo e gli analisti di Gartner non fanno eccezione: saranno poco meno di cinque miliardi di oggetti collegati a Internet già nel 2015 e nel 2020 diventeranno 25 miliardi. Prendendo in considerazione le smart city, il dato di quest’anno arriva a un miliardo di oggetti mentre 9,7 miliardi è quello stimato fra cinque anni. Numeri da prendere forse con le pinze, ma pur sempre indicativi di ciò che sta accadendo. Prendiamo per esempio le cosiddette smart home e più in particolare le cucine e tutto il loro corredo di elettrodomestici intelligenti: entro il 2020 contribuiranno nella misura minima del 15% al saving complessivo di cui godranno il settore alimentare e quello delle bevande. La “connected kitchen”, fanno notare da Gartner, ha ricevuto meno attenzione nell’ambito della

catena del valore degli oggetti connessi rispetto ad altri tipologie di dispositivi. Eppure, sembra provato, offrirà vantaggi significativi. Come prefigurarsi l’evoluzione della cucina in chiave IoT? Presto detto. I sensori collegati agli alimenti conservati fra credenze e frigorifero potranno trasmettere dati in tempo reale, e su questa base si potranno limitare gli sprechi e generare liste della spesa digitali. Tra le conseguenze, una maggiore efficienza ed ottimizzazione della catena di approvvigionamento alimentare e dei servizi di vendita al dettaglio. Se le case avranno una parte importante nello sviluppo dell’Internet of Things, anche le “connected car” saranno una delle componenti più corpose di questo grande universo. Fra cinque anni oltre 250 milioni di vetture disporranno di connettività Internet e dialogheranno con altri oggetti; tale esercito su quattro

ENERGIE ALTERNATIVE CONNESSE L’Internet of Things sarà un fattore abilitante anche per le energie rinnovabili. Secondo Abi Research, infatti, gli impianti fotovoltaici ed eolici faranno sempre più affidamento sulle tecnologie IoT. L’aumento medio annuo del giro d’affari è stimato al 21% fino al 2020, mentre si prevede che il numero delle connessioni fra cinque anni supererà i sei milioni (rispetto ai due milioni del 2014). E questo perché le soluzioni basate sull’Internet degli oggetti offrono gli strumenti per superare le storiche lacune delle fonti rinnovabili − come prestazioni dei sistemi di generazione di energia non ottimizzate e la variabilità della produzione − intervenendo sui processi di monitoraggio remoto delle apparecchiature. Che sempre di più andranno a braccetto con piattaforme di analisi basate su cloud.

54

ruote, che aumenterà drasticamente di numero nel medio termine, sarà prodigo di nuovi servizi per conducenti e passeggeri e avrà dirette implicazioni sulla telematica, sui sistemi di guida autonoma, sull’infotainment e sulla sicurezza. Auto più intelligenti, insomma, che si muoveranno in città più intelligenti, per cui l’imperativo numero uno legato all’adozione delle tecnologie Iot è quello di ridurre code e imbottigliamenti nelle aree urbane. Fra abitazioni smart, servizi pubblici di vario genere e sistemi di trasporto, il numero di cose connesse a fine 2017 salirà secondo le proiezioni di Gartner a 2,7 miliardi. Ma siamo solo all’inizio. Gli ambiti di applicazione dell’IoT sono pressoché infiniti. Dai viaggi ai trasporti (metropolitane e treni intelligenti), dal mondo delle utility (con il monitoraggio remoto dei consumi e delle reti) a quello delle aziende e delle fabbriche. Qui, i


SCENARI due veri salti in avanti saranno l’accelerazione della digitalizzazione delle linee produttive e la possibilità di gestire cicli di riparazione molto più veloci ed economici, facendo leva sulla comunicazione tempestiva di anomalie e sulla manutenzione predittiva. La difficoltà nelle aziende A spingere le organizzazioni verso l’IoT, lo dice un recente rapporto redatto da Abi Research, sono fattori di diversa natura. La diminuzione dei costi di sensori, connettività e potenza di calcolo ha reso il fenomeno sempre più significativo per un’ampia fascia di aziende, interessate ai benefici delle cose connesse anche per migliorare la customer experience. In linea generale emerge come le soluzioni standardizzate stiano iniziando a comparire con maggior frequenza al posto di quelle altamente personalizzate che, storicamente, hanno caratterizzato

le implementazioni di questa tecnologia. Dal report in questione si evince inoltre un dato molto indicativo: le connessioni IoT business-to-business sono destinate a quadruplicarsi nel periodo 2014-2020, arrivando a 5,4 miliardi a livello globale. Entro il 2018, altro numero da segnare in rosso, nei luoghi di lavoro entreranno oltre 13 milioni di oggetti “wearable” per il monitoraggio dello stato di salute e dell’attività fisica, certificando il successo in chiave corporate dei dispositivi indossabili. A oggi, però, che la diffusione nelle aziende di soluzioni catalogabili come “abilitati all’IoT” pare sia limitata. Solo una organizzazione su dieci, in particolare, avrebbe finora adottato tecnologie Internet of Things in modo esteso. Siamo ancora in una fase sperimentale, anche in settori, come l’automotive, dove il paradigma “connected” è maturo da tempo (oltre 600 milioni di veicoli sono

ancora privi di qualsiasi connettività). Sensori, cloud computing, strumenti di analytics e reti sono ben noti alla maggior parte delle aziende e degli enti pubblici, ma è la definizione di una strategia percorribile sull’IoT che apre il campo alle complessità, a problematiche di integrazione, interoperabilità, sicurezza e privacy. Secondo Gartner, almeno fino al 2018 su scala mondiale non si imporrà alcun ecosistema dominante nell’Internet delle cose, e di conseguenza i responsabili It aziendali avranno bisogno di mettere insieme soluzioni di più fornitori. Un insieme coerente di modelli di business e tecnologici per abbracciare l’Internet degli oggetti ancora non c’è. A tendere, gli esperti ipotizzano la creazione di una piattaforma unica: è la sfida più importante, da cui forse dipenderanno il successo o l’insuccesso dell’Internet of Things nel lungo periodo.

MUTAZIONE LOGISTICA “The Internet of Things in Logistic” è uno studio, promosso da Dhl e Cisco, che analizza l’impatto potenziale dell’IoT sulle imprese operanti a vario titolo nel mondo delle soluzioni di immagazzinamento e del trasporto delle merci. Gli effetti dell’adozione di questa tecnologia saranno evidenti soprattutto nella diversificazione delle opzioni di consegna per i clienti e nella maggiore efficienza delle operazioni di stoccaggio. Sensori, software, app e reti collegheranno infatti milioni di spedizioni, monitorandone gli spostamenti in tempo reale. All’interno dei magazzini, pallet, scaffali e altri oggetti connessi diventeranno invece i cardini di una più intelligente gestione delle scorte. La tracciabilità e la rintracciabilità delle merci, infine, grazie all’IoT saranno più veloci e precise, perché sarà possibile prevedere il fallimento di una consegna e gestirne le conseguenze. Nel complesso si parla di un mercato globale che, nell’arco del prossimo decennio, supererà gli ottomila miliardi di dollari.

55


SCENARI

EUROPA, INNOVARE È IMPERATIVO L’Unione Europea, almeno ufficialmente, si dimostra molto reattiva sul fronte dell’IoT. Lo scorso marzo, il Commissario per l’Economia e la società digitale, Günther Oettinger, lanciava la piattaforma Alliance for Internet of Things Innovation (Aioti). Questi i punti cardine dell’iniziativa: condividere le best practice più efficaci, lavorare agli standard e agli aspetti regolatori, mettere in contatto industria, startup e aziende di piccole e medie dimensioni con gli enti pubblici, i centri di ricerca e gli sviluppatori. Il fine ultimo, sulla carta esemplare, è quello di facilitare il processo di innovazione in tutti i Paesi che aderiranno alla piattaforma. L’organismo di Bruxelles, in poche parole, vuole percorrere tutte le strade possibili per creare terreno fertile allo sviluppo del mercato unico digitale e delle smart city. Uno studio a firma della Commissione Europea, condotto da Idc e Txt esolution, ha fatto intanto luce sulle potenzialità dell’IoT a livello comunitario, ricordando come l’ecosistema che sta nascendo sia caratterizzato dalla combinazione di più fenomeni tecnologici (cloud computing e Big Data). Per hardware, software e servizi la previsione di crescita è di oltre il 20% all’anno fino al 2020, con un giro d’affari che dai circa 307 miliardi di euro del 2013 (anno di riferimento) salirà a poco meno di 1,2 miliardi fra cinque anni. Il boom dell’IoT, conferma ancora lo studio, coinvolgerà tutti gli Stati membri, anche se in misura differente e in funzione del livello di investimenti tecnologici nazionali. Lo scenario descritto, però, potrebbe essere negativamente condizionato da almeno due variabili: la scarsa crescita economica del Sud Europa nel 2016 (l’Italia è fra le nazioni interessate) e l’incapacità delle piccole e medie imprese di cavalcare la rivoluzione IoT su larga scala, per mancanza di budget e assenza di standard.

56

Chi e come deve governare l’IoT? S tati Uniti, Regno Unito e Italia guardano con estrema attenzione alle potenziali minacce per la privacy e i dati degli utenti, legate alla diffusione dell’Internet of Things. Sul tavolo della discussione c’è il problema della riformulazione del quadro normativo. Spicca, in questo senso, la recente azione della Federal Trade Commission americana, che ha chiesto agli operatori telco e in generale a tutti gli attori del mondo IoT maggiore assunzione di responsabilità a tutela della sicurezza. Impedire gli accessi non autorizzati ai dispositivi degli utenti e alle informazioni personali raccolte e immagazzinate nei sistemi cloud è, insomma, uno snodo fondamentale. La mossa non è piaciuta

LA TRASPARENZA E LA SICUREZZA DEI DATI, L’INTEROPERABILITÀ DI SISTEMI E TECNOLOGIE SONO I PUNTI CRITICI. SERVE DAVVERO UN NUOVO QUADRO NORMATIVO? CHE RUOLI DEVONO AVERE LE AUTORITY E I GOVERNI? TESTO DI GIANNI RUSCONI però ai paladini della libera innovazione tecnologica, elemento vitale per garantire maggiore concorrenza e migliori servizi ai consumatori. Il dibattito su come regolamentare un fenomeno dalle molteplici applicazioni (dalla domotica ai


SCENARI

LE TRE FACCE SMART DELL’ITALIA Auto, case e città. Sono alcune delle parole chiave dell’Internet delle cose all’italiana. Nel Belpaese circolano oggi 4,5 milioni di smart car, la maggior parte delle quali dotata di moduli Gps e Gprs per la localizzazione del veicolo e per la registrazione dei parametri di guida a scopo assicurativo. Il 46% dei proprietari di casa, invece, si dichiara intenzionato ad acquistare nel corso del 2015 soluzioni per il risparmio energetico e per la sicurezza degli ambienti domestici. Quanto alle città intelligenti, circa metà dei comuni con oltre 40mila abitanti ha avviato negli ultimi tre anni almeno un progetto di illuminazione, mobilità sostenibile e gestione dei rifiuti affidata all’IoT. Nelle smart city opera oggi solo il 2% dell’esercito di otto milioni di cose interconnesse (tramite rete mobile) censite a fine 2014 dall’Osservatorio IoT del Politecnico di Milano. Rispetto all’anno precedente la crescita è del 33%, per un giro d’affari complessivo di 1,55 miliardi di euro.

dispositivi indossabili in chiave sanitaria per arrivare alle città intelligenti), e che attribuisce anche agli oggetti di uso comune un’identità digitale, è più che mai aperto. E vi stanno partecipando anche le autorità italiane. Il Garante per la privacy lo scorso aprile ha aperto una consultazione pubblica sull’Internet of Things per valutare il fenomeno nella sua complessità e per definire misure e procedure che assicurino agli utenti la massima trasparenza nell’uso dei loro dati personali e tutela contro possibili abusi. Si tratta di una primizia assoluta a livello mondiale e, secondo alcuni, di un’occasione d’oro per redigere una normativa che consenta la crescita del settore preservando il valore dei prodotti e servizi offerti all’utente. I soggetti interessati a esprimere un indirizzo sul tema dovranno tenere conto di parametri ormai assunti a pilastri dell’ecosistema

IoT, e cioè interoperabilità e standardizzazione a anche trasparenza e sicurezza delle informazioni che viaggiano dalle cose (e dalle persone) connesse al cloud. Entro il 2020, secondo Gartner, l’85% dei prodotti di elettronica di consumo e degli elettrodomestici sarà collegato alla Rete e i dati che questo esercito di oggetti intelligenti andrà a generare dovrà essere debitamente gestito. Gli impatti sul Pil e sul design Uno scenario complesso e articolato, dunque, che va considerato anche in relazione agli effetti potenziali dell’Iot sul Pil: quello americano, secondo le stime di Accenture, potrebbe crescere del 2,3% entro il 2030 mentre in Italia ci si fermerebbe solo all’1,1% per la mancanza di condizioni volte a favorire la crescita di questo settore. Per questo, dice Giulio Coraggio, avvocato (partner dello studio Dla Piper) ed

esperto di tecnologie in materia legale, “è necessario che anche la conformità alla normativa privacy dei progetti IoT divenga un vantaggio piuttosto che una zavorra per il business tramite soluzioni pratiche che minimizzino l’impatto sui prodotti. Se l’attuale normativa che regola il mondo di Internet venisse pedissequamente applicata al mondo dell’Internet of Things si rischierebbe di uccidere un mercato che ha enormi possibilità di sviluppo”. L’impressione che gli attori dell’Iot raccolgano una quantità eccessiva di dati, ritenendoli utili per offrire nuove tipologie di servizi in futuro, è più che fondata. Il Garante, da parte propria, non ha espresso la propria opinione in merito agli obblighi che i progetti dei vendor dovranno rispettare, ma ha ribadito la necessità di lavorare, sin dalla fase progettuale, alla realizzazione di dispositivi in grado di tutelare la privacy. 57


TECNOLOGIE

La questione irrisolta dell’interoperabilità L'ETEROGENEITÀ È IL PUNTO DI PARTENZA. LA SFIDA: TROVARE UN LINGUAGGIO COMUNE. TESTO DI CLAUDIA ROSSI

L’

Internet of Things contribuirà alla riformulazione di interi settori industriali in nome dell’automazione e dell’efficienza. Uno scenario affascinante che oggi, però, trova nel tema dell’interoperabilità uno dei suoi punti più dolenti. Il crescente caleidoscopio di dispositivi, piattaforme e applicazioni connesse in Rete spalanca, infatti, la porta a un’eterogeneità di sistemi di difficile gestione. Non si tratta semplicemente di riuscire ad armonizzare dati provenienti da fonti diverse, ma di intervenire a monte per garantire la comunicazione tra tutti gli oggetti dotati di un sensore, indipendentemente dalla loro ingegnerizzazione. Una questione complessa, risolvibile con la definizione di un contenitore universale, di un “middleware” incaricato di abbracciare trasversalmente tutte le componenti dell’ecosistema IoT. Numerosi sono i fattori che giocano in favore di una soluzione open source, primo fra tutti l’intrinseca caratteristica d’interoperabilità del software aperto, seguita dalla possibilità di realizzare più velocemente smart device. Se oggi la definizione di uno standard univoco è ancora molto lontana, entro un paio d’anni al massimo la partita dovrà essere risolta, eleggendo la migliore tra le proposte disponibili, attualmente concentrate nei progetti IoTivity (sviluppato dall’Open InterconnectConsortium) e AllJoynfra58

mework (proposto dalla AllSeenAlliance). La prima iniziativa, appoggiata da Intel e da altri nomi blasonati quali Cisco, Acer, Dell, Samsung, Honeywell, Hp, Siemens e Lenovo, si propone di semplificare il riconoscimento e la comunicazione tra diversi dispositivi, rivolgendo l’attenzione soprattutto ai settori con le prospettive di sviluppo più interessanti in chiave IoT: automotive, sanità e industria. La seconda proposta, riconducibile alla Linux Foundation, è sostenuta invece da circa 120 aziende, tra cui Qualcomm, Microsoft, Panasonic, Sharp, Sony, D-Link, Htc, Netgear, Symantec e Verisign. L’idea è quella di realizzare una sorta di gateway con cui garantire attraverso il cloud un controllo totale degli strumenti connessi, oltre alla possibilità di farli comunicare direttamente tra loro. Parallelamente alla definizione di un middleware condiviso, il tema della governance dei device IoT ha iniziato a sollevare anche l’urgenza di riprogettare le infrastrutture di networking. Le reti private virtuali funzionano bene con i dispositivi che, associati al Machineto-Machine, usano le schede Sim per la comunicazione vocale su rete mobile. Tuttavia, con gli oggetti M2M sprovvisti di scheda, le Vpn impongono un limite al numero di commutazioni standard, plafonando presto la quantità di dispositivi supportati. Per superare il problema, oggi


TECNOLOGIE il paradigma del software defined networking si candida a migliore soluzione possibile, sfruttando il concetto evoluto di virtualizzazione “as-a-service”. I benefici promessi? Allocazione flessibile delle risorse, maggiore capacità delle reti di adattarsi in modo dinamico e predittivo, riduzione degli investimenti sui data center e (almeno sulla carta) massima affidabilità per la business continuity dell’IoT. La soluzione al problema Cosimo Palmisano, vice president del product management di Decisyon, azienda italiana specializzata in campo Big Data e IoT, ha una tesi precisa sull’argomento. Il presupposto è che, non esistendo standard, il rischio che l’interoperabilità si complichi è altissimo. I costi per la sua gestione, già molto elevati, potrebbero salire esponenziamente al crescere dei soggetti tecnologici da includere. “L’inte-

roperabilità nell’IoT ha sicuramente una declinazione tecnologica che sfocia nella standardizzazione ma la questione rivela altri aspetti chiave”. spiega Palmisano. “I processi di business devono essere interoperabili: i progetti IoT devono cioè seguire e mappare quelli che sono i workflow standard per la risoluzione di un problema. E anche i dati devono essere interoperabili: le informazioni raccolte dai sensori e macchine devono, cioè, essere facilmente correlabili con altri dati strutturati provenienti dai sistemi legacy e con quelli non strutturati presenti nei canali social”. C’è quindi una soluzione che può facilitare l’interoperabilità fra macchine? Secondo Palmisano, la risposta sarà la collaborazione fra le persone e più precisamente sarà “l’umanizzazione dell’IoT, l’ingrediente segreto che permetterà di gestire la complessità e di facilitare il processo di connessione fra strumenti costruiti con metodi e tecnologie diverse”.

LE PIATTAFORME E IL BALLETTO DEI SISTEMI OPERATIVI Un business nel business. È quello delle piattaforme per l’Internet of Things, cioè dei sistemi per la gestione di connettività, dispositivi e applicazioni non sviluppati in-house dalle aziende ma realizzati da fornitori esterni. Una fotografia su questo mercato l’ha scattata Berg Insight, inquadrando un segmento che crescerà a un tasso annuale composito del 32% per passare dai 450 milioni di dollari del 2014 ai 2,4 miliardi del 2020. La valenza di queste soluzioni “multi-purpose”, che offrono componenti standardizzati condivisibili tra più settori verticali, è quella di poter sviluppare e implementare le soluzioni IoT più velocemente e a costi inferiori, senza disperdere risorse nel reinventare le funzionalità già esistenti e rispondendo meglio all’aspetto (vitale) dell’integrazione di sensori, apparati e sistemi informativi. Le aziende, spiegano ancora gli analisti, potranno derivare dalla loro adozione vantaggi non raggiungibili con le applicazioni M2M, spesso fortemente customizzate all’interno di singoli segmenti industriali e poco capace di supportare la flessibilità necessaria a gestire un numero crescente di device. Facilitare in chiave IoT il lavoro degli sviluppatori è un obiettivo che si sono prefissi anche alcuni grandi attori dell’universo hi-tech. I nomi? Google, Intel, Apple, Samsung, Microsoft e Huawei, tanto per citarne alcuni. Tutti impegnati a mettere in campo versioni ad hoc dei propri sistemi operativi, piattaforme di sviluppo o una vera e propria architettura hardware e software, con l’intento più o meno dichiarato di fare da collante all’interconnessione degli oggetti. C’è chi punta in modo deciso sul mondo delle smart home e dei wearable (la casa di Mountain View e quella di Cupertino,in primis) e chi apre l’orizzonte anche agli ambienti industriali e ad altri settori verticali (come la multinazionale cinese con il suo LiteOS). L’idea di fondo, cavalcata in modo deciso da Samsung con Artik, è quella di far convergere in un unico “pacchetto” (compatibile con le schede open hardware più diffuse come Arduino) estese capacità di elaborazione, connettività e analisi al fine di velocizzare il go-to-market dei nuovi prodotti.

59


TECNOLOGIE

Le minacce dell’infosfera, cybercrimine in agguato

P

er mettere in sicurezza il complesso mondo dell’Internet of Things occorre un approccio strutturato e coordinato. Questa la conclusione cui è giunto lo studio di Beecham Research intitolato “IoT Security ThreatMap” e dedicato ai nodi ancora irrisolti dell’universo delle cose interconnesse. A mettere al riparo sistemi, utenti, informazioni sensibili e quant’altro dagli attacchi dei cybercriminali ha contribuito fino a oggi la mancanza di un’adozione pervasiva dei servizi e delle soluzioni che muovono l’ecosistema IoT. Ma lo scenario potrebbe presto cambiare, considerate le esplosive prospettive di crescita delineate per questo mercato. Numerosi sono gli anelli deboli su cui occorre intervenire e al più presto, 60

I TANTI SOGGETTI CHE COMPONGONO L’UNIVERSO IOT MOLTIPLICANO IL NUMERO DELLE VULNERABILITÀ E RENDONO ARDUA L’OPERA DI PROTEZIONE DEI DATI. LE SOLUZIONI, PERÒ, NON MANCANO. TESTO DI CLAUDIA ROSSI in quanto siamo al cospetto di una pluralità di soggetti che, oltre a moltiplicare il numero delle vulnerabilità, rende ancora più difficile l’identificazione di soluzioni univoche di sicurezza. Secondo la società d’analisi inglese, le maggiori problematiche legate a sensori e dispositivi riguardano soprattutto i meccanismi di identificazione e autorizzazione; in ambito reti, invece, le minacce si concentrano sulle interfacce tra le

diverse tipologie di network. “In ambito IoT”, dice Eddy Willems, security evangelist di G Data, “stiamo rilevando un enorme problema nelle istanze di autenticazione e un pericoloso buco di security anche nella cifratura dei dati trasmessi”. A complicare una situazione già abbastanza intricata contribuisce, poi, la necessità di proteggere i dati anche solo in transito all’interno dei sistemi. Un’esigenza che impone un cambio di passo im-


TECNOLOGIE

DATA CENTER A RISCHIO PER COLPA DELL’IOT? Fra il 2014 e il 2019 la domanda di risorse informatiche necessarie a gestire il traffico generato dall’Internet of Things aumenterà di circa il 750%. Se quello lanciato da Idc non è un allarme, poco ci manca, perché l’esplosione di informazioni e dei dispositivi connessi in rete avrà un impatto diretto sul funzionamento delle sale macchine. Le imprese, fanno notare gli analisti della società americana, dovrebbero concentrarsi sui requisiti delle piattaforme per supportare l’IoT a livello di data center e non solo a livello di singoli server o apparati di storage. Chief information officer e responsabili It, insomma, dovranno rimboccarsi le maniche per evitare che la diffusione di nuovi servizi e applicazioni di classe enterprise rischi di sommergere le aziende. Una soluzione al problema è già stata identificata: il passaggio a infrastrutture basate sul cloud, con lo spostamento di gran parte della capacità di archiviazione richiesta nei centri dati dei service provider. Il rischio di una rapida erosione della disponibilità di storage dei data center, del resto, era già stata preventivato lo scorso anno da Gartner proprio in relazione alla prevista escalation del volume di dati generati dall’IoT. Abi Research ha provato a quantificare la massa di informazioni che gli oggetti connessi andranno a produrre e siamo di fronte a numeri da capogiro: se nel 2014 si sono superati i 200 exabyte, entro la fine di questo decennio arriveremo oltre i 1.600 exabyte (1,6 zettabyte), quantità pari a tutta la documentazione cartacea conservata nella Biblioteca del Congresso di Washington moltiplicata circa 300 milioni di volte. A livello di architetture, la convinzione di molti esperti è che l’Internet of Things stia guidando un importante cambiamento di paradigma, accelerando il passaggio dal cloud computing al cosiddetto “edge computing”. In Abi Research, in particolare, sono convinti che l’edge computing costituisce una grande sfida per l’intera catena del valore dell’IoT, prova ne siano il rimescolamento e la convergenza in atto fra le piattaforme cloud e i fornitori di software di analisi. Una tendenza che potrebbe inoltre regalare una grande opportunità di business per i tanti specialisti del software e dell’hardware (Eurotech, Kepware Technologies, OSIsoft e Panduit) che hanno lavorato in questa direzione da molto prima che l’IoT diventasse un concetto di moda. E una sfida da vincere.

portante alle soluzioni di security, oggi poco conformate sulle effettive vulnerabilità dell’IoT e ancora molto impostate su una protezione tradizionale, orientata alla salvaguardia dei singoli componenti dell’ecosistema. Per gli analisti di Beecham Research, un approccio coordinato sarebbe invece decisamente auspicabile, soprattutto in considerazione della complessità dell’Internet delle cose: un ecosistema articolato in apparati, reti, protocolli di comunicazione, piattaforme e applicazioni di tipologie profondamente diverse fra loro. Ma tutte chiamate a garantire il massimo a livello di integrità dei dati. “Proteggere l’IoT è possibile”, conferma Eugenio Libraro, regional director Italy & Malta di F5 Networks, “ma occorre operare un profondo cambio di mentalità perché con l’Internet of Things i perimetri di rete si trovano al collasso. Per le aziende questo non significa dover

Ogni device intelligente può essere strumentalizzato dai cybercriminali. Proteggere l’IoT è possibile, ma occorre operare un profondo cambio di mentalità perché i perimetri di rete si trovano al collasso. procedere a una revisione completa delle infrastrutture It, ma richiede loro la massima attenzione su più punti specifici, come la protezione dei dati a livello di applicazione, la pianificazione dell’afflusso dei dispositivi, uno studio del loro impatto sulla banda e il controllo completo su chi ha accesso alla rete e ai dati”. Una visione olistica che richiede, ancora una volta, un approccio coordinato su più livelli per garantire un’integrità di tipo “end-to-end”, dal device alle reti fino ad abbracciare piattaforme e cloud. “In passato”, afferma Wieland Alge,

vice president e general manager Emea di Barracuda Networks, “la protezione delle risorse It aziendali era sinonimo di gestione unificata delle minacce: bastava un unico dispositivo capace di proteggere a 360 gradi i dati aziendali. In ambito IoT tutto questo è obsoleto. Il nemico non passa più dalle porte sorvegliate e qualunque device intelligente può essere strumentalizzato dai cybercriminali per sferrare nuove tipologie di attacco”. La lotta alle minacce che gravitano nell’infosfera, sembra di capire, è appena iniziata. 61


ESPERIENZE

L’Internet di ogni cosa in Italia? È reale e funziona LA DOMOTICA CHE NASCE DAL CROWDFUNDING Si chiama Ovumque e ha preso vita con diecimila euro di finanziamento raccolti grazie a FastUp, l’incubatore nato della collaborazione tra il portale di crowdfunding Eppela e Fastweb. Il campo di intervento di questa startup è la domotica e il frutto della sua attività di ricerca e sviluppo è un kit (sensori, controller e periferiche) per la gestione di case, negozi, esercizi commerciali e uffici. Elettrodomestici e impianti di climatizzazione e riscaldamento sono i sistemi che entrano nel raggio d’azione di Ovumque, il cui compito è duplice. Da un lato, monitorare i consumi per massimizzare l’efficienza energetica, e dall’altro fungere da strumento di sicurezza rilevando eventuali fughe di gas, incendi o allagamenti e tenendo sotto controllo gli spazi domestici attraverso un sistema di video sorveglianza. Un vero e proprio hub intelligente, pensato per vivere fra le mure domestiche come un oggetto di design (assomiglia a una lampada) e perennemente connesso alle periferiche tramite un access point WiFi. La sua peculiarità? Essere utilizzabile anche da remoto tramite un’app che, fra le varie funzioni, offre anche quella di registrare le abitudini di consumo degli apparecchi domestici per anticipare di conseguenza i comandi degli utenti. Sotto il cappello dell’Internet of Things, la smart home (mercato che in Europa vale oggi 770 milioni di euro e che nel 2019 salirà fino a otto miliardi) fa un altro passo in avanti.

62


ESPERIENZE

SANITÀ, MODA, MANIFATTURIERO, AGROALIMENTARE: SONO SOLO ALCUNI DEI SETTORI CHE BENEFICERANNO DI UN ECOSISTEMA CHE CONNETTE OGGETTI, PROCESSI, DATI E PERSONE. UN ESEMPIO È GIÀ IN SCENA A EXPO. TESTO DI GIANNI RUSCONI

E

ntro il 2020, secondo le proiezioni di Gartner, la quasi totalità delle imprese private e delle amministrazioni pubbliche saranno digitali e dotate di competenze tecnologiche nel rispettivo settore. Di questa rivoluzione in corso, l’Internet of Everything (IoE) è una componente importante e va letta come insieme di tecnologie, servizi e best practice che allarga il fronte di applicazione dell’Internet of Things e del Machine-to-Machine. Collegare in Rete sensori e componenti non basta”, dice Agostino Santoni, amministratore delegato di Cisco Italia. “Si devono raccogliere i dati e analizzarli, mettere in relazione informazioni, processi e persone, generando valore aggiunto e creando un ecosistema. Con l’IoE si esplorano opportunità di sviluppo del mercato senza precedenti. La diminuzione dei costi dei sensori, per esempio, favorirà l’automazione a livello industriale, mentre i wearable diventeranno un elemento vitale per alcuni settori come sanità e fashion”.

LE STARTUP CHE FANNO PARLARE GLI OGGETTI Vestiario, mobili, elettrodomestici, segnaletica stradale, veicoli, robot: l’elenco delle cose che si possono collegare a una rete è praticamente infinito. Parliamo di un mondo che i guru della Silicon Valley ritengono fra i più interessanti da esplorare per le startup e non a caso il numero di “new company” hi-tech che nascono e si muovono nell’universo dell’IoT è in costante aumento. Anche in Italia. All’ultima edizione della IoT/M2M Innovation World Cup ha partecipato, entrando fra le quattro finaliste della categoria “security”, una piccola azienda di casa nostra: Ubiquicom. Nata nel 2004 e sorrettasi fin qui con l’autofinanziamento, ha saputo sviluppare una piattaforma open (SafeLocator Suite) per soddisfare gli specifici requisiti di sicurezza in ambienti di lavoro di tipo industriale. Come? Monitorando in tempo reale e in modo anonimo, tramite apposito “tag”, i dispositivi di protezione individuale in uso agli addetti e rilevando il loro stato fisico in caso di incidenti. Il fine della soluzione, al vaglio di un grande provider europeo in campo energetico, è presto riassunto: prevenire possibili situazioni di pericolo. E senza inficiare minimante la privacy dei lavoratori. Un altro esempio di impresa innovativa è BrainControl, realtà nata in pancia all’incubatore Breed Reply e salita alla ribalta per aver vinto l’eHealth Solution Eu Competition e il premio Marzotto. La startup ha partorito una tecnologia assistiva che permette a persone affette da patologie come la Sla (sindrome laterale amiotrofica) o da lesioni traumatiche e ischemiche di comunicare con il mondo circostante. Il tutto grazie a una speciale interfaccia uomo-macchina che, attraverso un dispositivo posizionato sulla testa del paziente, interpreta la mappa elettrica corrispondente a determinate funzioni celebrali. In questo modo si possono controllare sistemi vari, per esempio computer o tablet.

Ma parliamo ancora di teoria o di qualcosa che trova già concrete applicazioni dentro le aziende italiane? La risposta corretta è la seconda, declinata nell’impiego di questa “tecnologia” nelle industrie verticali, dalle utilitiy al manifatturiero, dal retail all’automotive. Nella lista c’è anche l’agroalimentare, un settore che conta di 890mila imprese e che vale il 17% del Pil italiano. Il progetto “Safety for food”, sviluppato da Cisco con la napoletana Penelope, è nato per garantire tracciabilità e rintracciabilità dei prodotti e il controllo dell’intera filiera. La soluzione tecnologica legata a questa iniziativa, cioè la piattaforma ValueGo, è stata adottata da Valori Italia, l’associazione (certificata dal Ministero delle Politiche Agricole) che riunisce le 33mila aziende vinicole italiane riconosciute Doc/Docg, e da Barilla. A Expo 2015 l’azienda emiliana porta due prodotti in edizione limitata, la pasta nel formato farfalle e il sugo al basilico (in vendita nel Supermercato del

Futuro di Coop all’interno del Future Food District), per i quali l’utilizzo della tecnologia digitale ha reso possibile il tracciamento di tutte le fasi di lavorazione degli stessi. Attraverso un QR code presente sulle confezioni, i consumatori possono accedere dal proprio smartphone a un sito Web che racconta “la storia” dello specifico lotto di produzione, dove è avvenuta la semina, gli impianti dove è stato lavorato. Soggetto al processo di digitalizzazione è anche il manifatturiero, un mondo che conta in Italia circa 550mila imprese e che soffre, secondo Santoni, di una dicotomia evidente: molte aziende dispongono di attrezzature allo stato dell’arte ma difettano sotto il profilo della governance dell’It. In questo campo, “l’IoE funge da collante virtuoso fra l’It e le operation. E permette di superare criticità rappresentate da protocolli proprietari, isole informative chiuse e bassi livelli di sicurezza, agevolando il raggiungimento di un obiettivo vitale che si chiama flessibilità”. 63


ESPERIENZE

Prove pratiche (riuscite) di agricoltura hi-tech IL FUTURE FOOD DISTRICT DI EXPO 2015 È SOLO UN ESEMPIO DI COME L’INDUSTRIA ALIMENTARE STIA CAMBIANDO PELLE GRAZIE ALLE TECNOLOGIE. NE SONO INTERESSATI TUTTI I COMPARTI E TUTTI I PROCESSI. ECCO ALCUNI CASI DI ECCELLENZA. TESTO DI GIANNI RUSCONI

T

racciabilità, sostenibilità, comunicazione trasparente al consumatore: il mondo dell’agroalimentare e la filiera del food stanno vivendo una fase di grande dinamismo, all’insegna del paradigma smart. Diventano più intelligenti i processi e più elevata è la qualità del servizio portato sul mercato. Ottimizzare l’uso di risorse quali acqua, fertilizzanti e

fitosanitari e tracciare il singolo lotto di produzione (partendo dalle informazioni sulla semina per finire con quelle attinenti il confezionamento e la distribuzione) sono solo due dei tanti cambiamenti che stanno interessando tutti i segmenti di questa industria, dal vitivinicolo al lattiero-caseario, dalla carne ai prodotti derivati dal grano. Le tecnologie che entrano in gioco sono più o

SMARTPHONE CONTRO LO SPRECO DELL’ACQUA IN CITTÀ Circa duecento litri al giorno: a tanto ammonta il consumo medio pro capite di acqua potabile in Italia. In questa speciale classifica il Belpaese non è secondo a nessuno in Europa e non è, ovviamente, un primato di cui vantarsi. La tecnologia può essere una risposta al problema? Sì, e la soluzione che hanno confezionato Vodafone e la danese Kamstrup ha il duplice obiettivo di facilitare il controllo delle risorse idriche da parte dei cittadini e di rendere più semplice l’individuazione dei guasti al sistema di distribuzione dei centri urbani. Il tutto attraverso lo smartphone. Parliamo quindi di un’applicazione di Cellular Internet of Things (CIoT), un’Internet delle cose integrata alla rete mobile, che consente di interconnettere in modalità wireless più dispositivi intelligenti tra loro (smart meter e telefonini) e di offrire a consumatori e utility gli strumenti per verificare in tempo reale i consumi idrici domestici. In tema di risorse idriche l’Unione Europea ha portato avanti in questi anni il progetto “Leakcure” con il fine di testare uno “smart water system” incaricato di recuperare circa nove miliardi di litri d’acqua all’anno.

64

meno note: Rfid, identificazione con QR code o tag Nfc. A queste va aggiunta, ovviamente, anche l’Internet of Things con tutto il suo corredo di sensori, apparati di connettività, Big Data, strumenti di analytics, app mobili e via dicendo. La “smart farm” o “connected farm” nasce, dunque, nel solco di un processo di trasformazione teso a migliorare la resa dei terreni agricoli e la produttività degli


ESPERIENZE allevamenti. Secondo Saverio Romeo, analista di Beecham Research, i problemi legati all’aumento della produzione alimentare necessaria per sostenere l’incremento demografico da qui al 2050 passa dal “reinterpretare le pratiche agricole esistenti attraverso l’uso di tecnologie basate sui dati”. L’agricoltura può diventare intelligente, in altre parole, grazie all’Information Technology e agli strumenti che raccolgono dati sul terreno, sulla coltivazione, sullo stato di salute degli allevamenti e sulla composizione chimica dei prodotti. Arrivando, come ultima tappa di questo percorso, alla possibilità di offrire ai consumatori tutti i dettagli di ogni singola referenza esposta in negozio. Il Future Food District di Expo 2015 è un esempio di concretizzazione del concetto di “smart agricolture”. Un’edizione limitata della pasta in formato farfalle e una del sugo al basilico di Barilla, in vendi-

ta sui banconi del supermercato digitale allestito da Coop, sono state tracciate in tutte le fasi della loro vita per offrire al consumatore un’esperienza di consumo nuova, fondata sulla possibilità di apprendere direttamente dal proprio smartphone la “storia” del prodotto attraverso un QR code posto sulla confezione. Andrea Belli, quality and food safety, technical project leader di Barilla, ha sottolineato che “non si tratta di una tracciabilità e rintracciabilità generica, ma di una fotografia trasparente di quello specifico lotto”. Tutto ruota intorno a una piattaforma informatica sviluppata da Cisco (con il supporto della napoletana Penelope) nell’ambito di Safety For Food, un’iniziativa tesa a creare un sistema virtuoso in cui far interagire i diversi soggetti del comparto e a realizzare una banca dati accessibile all’intera industria e agli enti preposti in

materia di sicurezza alimentare. I prodotti si dotano, in buona sostanza, di un “passaporto digitale” che li accompagnerà per tutta la loro vita, rendendoli più trasparenti ai consumatori. Le startup fanno scuola Parlando di innovazioni di Internet of Things che stanno modificando i modelli di business di interi settori, non potevano mancare le testimonianze delle startup. L’elemento di cambiamento che l’Iot rappresenta per i processi di imprese e professionisti lo si può vedere, per esempio, nelle storie di due giovani e piccole realtà come Melixa (di Trento) e Bioside (di Lodi), nate in seno al programma BizSpark di Microsoft e presenti entrambe a Expo 2015. Le arnie intelligenti della prima sono pensate, e brevettate, per monitorare lo stato di salute delle api (insetti vitali per una grande varietà di frutta e verdura) e l’equilibrio dell’ambiente in termini di biodiversità: nel gestirle concorrono sensori, reti wireless, tecnologie Gps, un’app mobile e dati memorizzati ed elaborati nel cloud di Microsoft Azure. L’obiettivo del progetto è quello di offrire agli apicoltori e ai centri di ricerca un sistema per il controllo, capace di garantire maggiore efficacia nelle operazioni di cura delle api. Il secondo è invece un caso di applicazione delle nanotecnologie al mondo agricolo, alimentare e veterinario. Bioside ha sviluppato un sistema di “diagnostica prêt-à-porter”, Qualyfast Q3, per effettuare analisi di biologia molecolare sul punto di bisogno, senza necessità di personale qualificato. Una sorta di laboratorio mobile per individuare e quantificare il Dna di differenti tipologie di campioni utilizzando specifici chip, che rilevano le informazioni da animali o alimenti facendo le veci dei sensori; i dati vengono poi per elaborati da un’app direttamente sullo smartphone, e infine i risultati ottenuti vengono archiviati nel cloud. Il vantaggio? La possibilità di completare la validazione di un’analisi da parte di un laboratorio direttamente nella nuvola, riducendo enormemente i costi e i tempi di diagnosi di un’infezione, e quindi il rischio che il contagio si propaghi. 65


ESPERIENZE

L’intelligenza connessa dei distributori automatici LA NUOVA PIATTAFORMA IOT DI INTEL RIVOLUZIONA IL SETTORE DEL VENDING. A BENEFICIO DI RIFORNIMENTI E RIPARAZIONI, MA ANCHE DEGLI ANALYTICS. TESTO DI PIERO APRILE

I

l comparto italiano del vending può vantare un primato mondiale: essere davanti a tutti sia per il numero di bevande e alimenti acquistati da distributori automatici, sia per quanto riguarda la produzione delle macchine (con la bergamasca N&W Global Vending a fare da portabandiera). C’è quindi un motivo preciso se Intel ha scelto proprio il Belpaese, in occasione della fiera Venditalia, per annunciare in anteprima la sua piattaforma per l’Internet delle cose, Iot Retail Gateway, dedicata a questo settore. Grazie a un variegato mix di tecnologie (chip, software, sensori di prossimità, controller) le “macchinette” diventano intelligenti e possono interfacciarsi con schermi touch e piattaforme di pubblicità digitale, con sistemi di telemetria e di pagamento mobile e contactless. Il fatto di essere collegate in Rete, inoltre, rende possibile il controllo da remoto e in tempo reale di ogni parametro: temperature di esercizio, inventario dei prodotti disponibili, eventuali anomalie, conto de66

gli incassi, e altro ancora. Per le aziende che operano in questo mercato, l’impatto di una tale soluzione è decisivo: i processi di rifornimento e manutenzione diventano più smart, perché i dati del distributore automatico vengono raccolti e stivati nel cloud e quindi resi accessibili (anche da smartphone e tablet) al personale, accorciando i tempi di intervento. Per i consumatori la rivoluzione promessa dall’IoT è tutta nell’esperienza d’uso. Le classiche pulsantiere, per esempio, verranno sostituite da schermi touch

sempre più grandi, attraverso cui selezionare i prodotti o fruire di contributi video (pubblicitari) mentre la macchina non è utilizzata. E ancora: una webcam potrà riconoscere il sesso dell’avventore per proporre prodotti diversi in base alle statistiche di consumo, mentre speciali access point WiFi (è il progetto cui ha dato vita la spagnola Beabloo) saranno in grado di tracciare gli smartphone presenti in un certo ambiente (nei pressi della singola postazione o all’interno di un centro commerciale) per estrarre, a scopi di marketing, dati sul flusso delle persone.

LA MOBILITÀ SMART PARTE DAGLI AEROPORTI DI ROMA Regolare in modo intelligente gli accessi dei taxi negli impianti di Fiumicino e Ciampino grazie alla tecnologia Rfid: il progetto realizzato da Paybay per Aeroporti di Roma è un esempio riuscito di applicazione del modello IoT alla smart mobility. L’essenza del progetto, portato a termine dalla sussidiaria digitale di Qui! Group, ha una finalità ben precisa e cioè quella di evitare intasamenti di auto davanti agli ingressi delle aree partenze e arrivi, gestendo il traffico dei taxi in base al numero di persone che possono aver bisogno di una corsa in un dato momento. I tag a radiofrequenza passivi posti sui parabrezza sono i componenti vitali di un sistema interconnesso, basato sulla raccolta di dati in tempo reale, e di una soluzione, tutta italiana, deputata a rendere più efficiente un flusso di vetture oscillante tra le duemila e le quattromila al giorno. Fra i tanti benefici aspettati ci sono anche quelli, non trascurabili, del rispetto delle precedenze nelle code dei taxi nelle aree arrivi e della completa eliminazione del problema dei tassisti abusivi. Solo le vetture autorizzate, infatti, sono riconosciute da un’antenna attiva che “comunica” con il chip Rfid e che assegna in automatico un numero progressivo al conducente per abilitarlo a dirigersi negli spazi riservati a caricare il cliente in attesa.


RETAIL SOLUTIONS

www.intel.com/retailsolutions


T I F O R P LEARN

FROM INNOVATION

La tecnologia ha il potere di trasformare il tuo business, ma l’innovazione non può nulla senza una visione concreta.

Vuoi spingere oltre il tuo business? Scopri come possiamo aiutarti Come and see: canon.it/business-bytes

Technopolis 14  

Magazine Technopolis N°14 giugno 2015

Read more
Read more
Similar to
Popular now
Just for you