TECHNOPOLIS 12

Page 1

NUMERO 12 | FEBBRAIO 2015

STORIE DI ECCELLENZA E INNOVAZIONE

LA NUVOLA CHE VALICA LE ALPI Karl Manfredi, amministratore delegato di Brennercom, racconta come, investendo su fibra ottica e data center, si può esportare il cloud italiano in Germania.

BANDA LARGA

16

Avanti tutta con le reti di nuova generazione. L'obiettivo dei 100 Megabit per tutti entro il 2020 sarà rispettato?

BIG DATA

20

Tutti li vogliono, pochi li analizzano. Le imprese, però, si preparano investendo in tecnologia e competenze.

FABBRICHE DIGITALI Un inserto monografico staccabile sul digital manufacturing applicato alle aziende italiane. Distribuito gratuitamente con “Il Sole 24 ORE”



SOMMARIO 4 STORIE DI COPERTINA STORIE DI ECCELLENZA E INNOVAZIONE

La nuvola tricolore si muove verso nord

N° 12 - febbraio 2015 Periodico bimestrale registrato presso il Tribunale di Milano al n° 378 del 09/10/2012. Direttore responsabile: Emilio Mango

9 IN EVIDENZA L’analisi: Internet of Things è il mantra Wearable, il cervello in un bottone Windows 10: la scomessa universale di Microsoft La nuvola smuove gli investimenti Ict

Coordinamento: Gianni Rusconi Hanno collaborato: Alessandro Andriolo, Piero Aprile, Valentina Bernocco, Carlo Fontana, Paolo Galvani, Giandomenico Nollo, Paolo Pasini, Maria Luisa Romiti, Laura Tore, Elena Vaciago, Emily Wojcik Progetto grafico: Inventium Srl Sales and marketing: Marco Fregonara, Francesco Proietto

La domotica italiana vince a Las Vegas L’opinione: sicurezza It in azienda, l’approccio risk-based

16 SCENARI Lo sprint delle reti di nuova generazione Le dorsali che fanno correre i distretti Big Data: Italia a passo lento I grandi dati in sanità: una grande occasione

Foto e illustrazioni: Istockphoto, Martina Santimone, Dollar Photo Club.

25 SPECIALE Cloud computing

35 ECCELLENZE.IT Comune di Venezia - Avigilon Editore, redazione, pubblicità: Indigo Communication Srl Via Faruffini, 13 - 20149 Milano tel: 02 36505844 info@indigocom.it www.indigocom.com

Enphase Energy - MultiTech/Telit Università Cattolica - Infor

38 ITALIA DIGITALE Agenda: sarà la svolta buona? Spesa in tecnologie: lo stallo del pubblico

Stampa: RDS Webprinting - Arcore © Copyright 2015 Indigo Communication Srl Tutti i diritti di proprietà letteraria e artistica riservati. Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto.

Archivi digitali: passo avanti, con cautela

42 OBBIETTIVO SU Abb Sace

47 VETRINA HI TECH Stampanti In prova: Yota Yotaphone 2

Pubblicazione ceduta gratuitamente.


STORIA DI COPERTINA | Brennercom

LA NUVOLATRICOLORE SI MUOVE VERSO NORD Grazie a importanti investimenti in tecnologia, tra cui spiccano le soluzioni di storage Emc, la società altoatesina punta a crescere in Italia ma anche nei Paesi di lingua tedesca.

Q

uella di Brennercom è la storia di una delle tante aziende che, avendo investito in tecnologia, sono riuscite a farsi trovare pronte all’appuntamento con una nuova opportunità di mercato. Questa opportunità, nel 2013, è stata la crescente domanda di servizi di cloud computing. “Per la verità”, racconta Karl Manfredi, amministratore delegato della società, “anche se il nostro core business era l’offerta di servizi di fonia e banda larga, prima del 2013 noi comunque erogavamo già alcune prestazioni in outsourcing, come le soluzioni per email aziendali e il farming dei server. Il cloud è stato quindi un passaggio quasi naturale”. Anche se Manfredi minimizza, con la signorilità e la concretezza tipiche degli altoatesini, le infrastrutture tecnologiche necessarie per fare il “salto” dal mondo dei servizi gestiti al cloud hanno richiesto notevoli investimenti in denaro e know-how; basti vedere i tre data center, situati a Bolzano, Trento e Innsbruck: tutti costruiti sfruttando le tecnologie più innovative (per gli addetti ai lavori, si tratta di strutture “tier 4”). Partendo dunque da fondamenta solide, tra cui una rete di telecomunicazioni proprietaria a banda larga da 10 Giga4

| FEBBRAIO 2015


DNA ALTOATESINO Con un organico di circa 200 dipendenti e un parco clienti di oltre 12mila aziende, Brennercom è oggi uno tra i più solidi e dinamici operatori Ict in Italia. La sede centrale è a Bolzano, un secondo centro nevralgico è situato a Trento, mentre filiali sono presenti a Milano, Verona, Rovereto, Innsbruck e Monaco di Baviera. Brennercom ha costruito negli anni una rete in fibra ottica di ultima generazione, in grado di collegare a 10 Gigabit al secondo i clienti italiani dell’area nord-est (dal Trentino Alto Adige, passando per il Veneto e la Lombardia) e quelli di Austria e Germania. I servizi cloud si basano su tre data center. Due, quelli di Trento e Bolzano, sono “gemelli” (entrambi classificati tier 4, il livello più alto di affidabilità e disponibilità) mentre il terzo, situato a Innsbruck, viene utilizzato per le funzioni di disaster recovery. Tutti sono collegati attraverso una rete da 100 Gigabit al secondo, con tempi di latenza di un millisecondo.

bit al secondo che si estende in tutto il Nordest, Brennercom ha potenziato di recente le sue infrastrutture per poter offrire livelli di servizio tali da espandere il business in ambito di cloud computing non solo in Italia, ma anche in Austria e Germania. “Avevamo l’esigenza di incrementare il livello di servizio”, racconta Manfredi, “e volevamo stringere una partnership con un brand multinazionale, che ci permettesse di avere un unico interlocutore e che fosse riconosciuto dai potenziali clienti (tra cui banche e Pubblica Amministrazione locale) come un fornitore affidabile”.

Dopo un’attenta valutazione delle alternative presenti sul mercato, Brennercom ha scelto di puntare sulla virtualizzazione, con la tecnologia Vmware, sugli apparati di rete di Cisco e sulle soluzioni storage di Emc, un partner strategico perché gli attuali tre Petabyte di dati (vale a dire 3.000 Gigabyte) sono destinati ad aumentare in modo esponenziale con l’avvento dei Big Data e con l’affermarsi di Internet delle cose. Flessibilità e affidabilità prima di tutto

Per poter offrire servizi cloud a valore aggiunto, ma soprattutto per farlo assi5


STORIA DI COPERTINA | Brennercom

curando il massimo livello di flessibilità e scalabilità ai propri clienti (che poi è il motivo principale per cui le aziende si indirizzano al cloud), Brennercom ha deciso di realizzare un’infrastruttura storage allo stato dell’arte. Ha scelto così di dotarsi di sistemi Emc Vnx unified storage dotati sia di dischi tradizionali, ma veloci e capienti, sia di memorie flash ad alte prestazioni, collegando i due data center di Trento e Bolzano con una linea da 100 Gigabit al secondo. “Volevamo essere in grado di realizzare per i nostri clienti”, dice Manfredi, “soluzioni cloud decisamente più affidabili di quelle che si possono già trovare sul mercato, ma volevamo anche salvaguardare la possibilità di costruirle su misura, lavorando fianco a fianco con il cliente insieme ai nostri partner. Emc è stato un interlocutore ideale da questo punto di vista, sia a livello tecnologico sia umano”. Proprio grazie all’attenzione che Brennercom ha dedicato all’innovazione e agli aspetti tecnici, la società è riuscita a imporsi in un mercato che, nonostante la giovane età, è già presidiato da una parte da grandi imprese nazionali e internazionali, dall’altra da piccoli ma agguerriti player locali. “Il rischio di non trovare il giusto spazio c’era”, confessa Manfredi, “ma l’abbiamo scongiurato, anzi, abbiamo approfittato del rinnovamento tecnologico per rafforzare il presidio territoriale che ci ha sempre caratterizzati, assumendo anche nel mercato del cloud computing un ruolo importante di cerniera tra il Nord Italia e i Paesi di lingua tedesca. Da parte nostra, poi, cerchiamo sempre di differenziare la nostra offerta puntando su un modello di cloud intelligente, cercando di non scordare mai che per gestire i dati in modo efficace (ad esempio memorizzando quelli più importanti e più utilizzati in dispositivi ad alte prestazioni), le infrastrutture devono essere a loro volta intelligenti e flessibili”. Emilio Mango 6

| FEBBRAIO 2015

LA SOLUZIONE Brennercom si è affidata a Emc per tutta l’infrastruttura di gestione e protezione dei dati, il cuore del business della società altoatesina. Nei due data center situati in Italia sono stati implementati sistemi Emc Vnx unified storage, configurati con dischi Sas veloci, Nl-Sas ad alta capacità e flash drive. Tutto viene gestito attraverso Emc Fast Suite di Vnx, che permette di ottimizzare la distribuzione dei dati tra le unità presenti nei sistemi. Brennercom ha anche scelto Emc Vplex Metro per realizzare una “storage federation” tra i sistemi Vnx dei

due siti, ed Emc Avamar per assicurare il backup e il ripristino veloce dei dati. Per la replica (asincrona) delle informazioni, triangolando tra i data center di Bolzano, Trento e Innsbruck, è stata scelta la soluzione Emc Recover Point. Quest’ultima permette, tra le altre cose, di impostare i livelli di servizio desiderati per ciascun cliente, simulando le attività di disaster recovery per verificare che corrispondano alle richieste. Emc Data Domain, infine, è il sistema selezionato per il backup e la deduplica su disco, che permette di accelerare il salvataggio e recupero dei dati.


Il segreto della crescita? I data center intelligenti Con l'introduzione dei servizi cloud è cresciuta la dimensione media dei clienti. L'elemento distintivo dell'offerta è la gestione "smart" dei dati, distribuiti in tre diversi centri fra Italia e Austria.

porti diversi. In questo senso abbiamo costruito, grazie ai nostri partner tecnologici, una serie di eccellenze, organizzando il nostro servizio su ben tre data center, di cui uno in Austria. Ci spiega la propensione verso un mercato apparentemente difficile come quello di lingua tedesca?

N

ella sua funzione di “ponte” tra due mercati geograficamente molto significativi, il Nordest italiano e l’area di lingua tedesca che comprende l’Austria e il sud della Germania, Brennercom ha un punto di osservazione molto particolare. Punto che Technopolis non poteva non sfruttare, intervistando Karl Manfredi, amministratore delegato della società.

Ci dà qualche numero per capire meglio Brennercom?

Nel 2013 il gruppo ha espresso un giro d’affari di 40 milioni di euro. Erano 37 nel 2012 e 34 nel 2011. Una crescita costante che sarà ratificata anche nel bilancio del 2014, nonostante tutte le difficoltà del mercato. Per l’anno in corso c’è qualche segnale di ottimismo sulla propensione agli investimenti delle aziende, che ci fa ben sperare. Partiamo comunque da basi solide: 200 dipendenti e circa 12mila clienti, che negli ultimi anni sono cresciuti in dimensioni grazie ai nuovi servizi cloud, rivolti a una fascia più alta di aziende rispetto all’offerta di telecomunicazioni precedente. Come avete fatto a distinguere la vostra

Karl Manfredi

Cominciamo col dire che, contrariamente a quanto si possa pensare, le aziende italiane sono più avanti di quelle tedesche sul fronte dei servizi cloud. Quindi in Austria e Germania abbiamo ancora parecchio margine di crescita. L’unico punto debole per un provider italiano in quei mercati è il tema della privacy e della sicurezza dei dati, nel quale ancora dobbiamo scontare alcuni pregiudizi.

proposta cloud rispetto alla già agguerrita concorrenza?

Che programmi di espansione avete, quindi?

Facciamo servizi cloud (come ad esempio la gestione della posta elettronica) da quando siamo nati, solo che allora nessuno ne parlava. Abbiamo anche sempre offerto i servizi legati ai data center, come l’housing o il farming. Avendo già le infrastrutture e notando una stagnazione del mercato della fonia (quello in cui operavamo prima in prevalenza) abbiamo deciso di dare una svolta al nostro business entrando ufficialmente nei servizi cloud. A differenza dei nostri competitor, abbiamo da subito capito che non volevamo mettere a disposizione dei clienti un cimitero di dati, vale a dire Petabyte di informazioni raramente e difficilmente accessibili, ma data center intelligenti, in grado di capire se i dati sono “morti” o “vivi” e di organizzarli quindi su sup-

Forti di ben cinque milioni di euro di investimenti in tecnologia legata ai data center (compresi i sistemi di sicurezza, condizionamento e antincendio) e di tutti gli sforzi fatti in precedenza per costruire una solida rete di telecomunicazioni, possiamo erogare livelli di servizio competitivi in qualsiasi settore, anche quelli più critici come il mercato delle grandi imprese e quello della Pubblica Amministrazione. Nel Nordest italiano siamo già leader, in Austria abbiamo un forte presenza e in Germania ci sono ottime premesse di espansione, obiettivo, quest’ultimo, che potremmo raggiungere anche attraverso acquisizioni. Recentemente, infine, abbiamo anche acquisito una società in Arabia Saudita, un altro mercato molto promettente. E.M. 7



IN EVIDENZA

l’analisi

LA TECNOLOGIE DEL 2015: L’INTERNET OF THINGS È IL MANTRA. NON ANCORA UNA PRIORITÀ

Se il numero uno di Samsung Electronics, Boo-Keun Yoon, battezza l’Internet of Things (IoT) come la più grande opportunità di business per l’industria tecnologica, sempre che tutti i player lavorino di comune accordo adottando un approccio aperto, un motivo ci sarà. Il presidente e Ceo del chaebol coreano in occasione del Ces di Las Vegas, a inizio gennaio, ha celebrato l’IoT come un fenomeno che rivoluzionerà la nostra vita, confermando come entro il 2020 ogni dispositivo a catalogo del produttore sarà griffato dall’etichetta “connected”. Le parole del manager asiatico sono da prendere quindi molto sul serio, anche perché vanno nel solco delle previsioni per il 2015 stilate dalle principali società di ricerca e consulenza. Secondo Idc, per esempio, l’anno appena iniziato sarà costellato soprattutto da grande dinamicità in segmenti già maturi come il cloud e in altri ancora agli albori come quello dell’Internet of Things, in attesa che le stampanti 3D e i wearable device conoscano realmente quel boom di cui sono accreditati. Analytics e IoT sono anche due facce dello stesso fenomeno, quello dei Big Data, e cioè i dati prodotti dalle connessioni fra oggetti e macchine, ma anche i contenuti (video, audio e immagini) generati dai device in mano a centinaia di milioni di individui. Dati, app, oggetti connessi, social media, il cloud: l’ecosistema digitale accoglie ormai diversi elementi convergenti e fra questi vi sono, inevitabilmente, anche persone e processi aziendali.

Big Data, analytics, cloud e mobile rimangono i temi caldi. Wearable e stampa 3D sono attesi al boom. Ma sono gli oggetti connessi a catalizzare il futuro. Anche se nella testa dei Ceo ci sono marketing digitale e customer experience. L’Internet delle cose, ed è la visione di Gartner, continuerà prenderà piede in campo industriale focalizzandosi su prodotti e processi. Di pari passo le applicazioni si doteranno di avanzate capacità analitiche e l’intelligenza “embedded” favorirà lo sviluppo di sistemi di rilevazione sensibili al contesto che ci circonda. Nei prossimi dodici mesi, insomma, assisteremo a un’ulteriore accelerazione verso quella società “full digital” in cui ogni cosa sarà connessa e in cui tecnologie smart di vario genere (dai robot agli assistenti virtuali) si affiancheranno ai tradizionali strumenti per lavorare e comunicare. Dal punto di vista privilegiato dei Ceo, e ce lo dice il report che Pricewaterhouse Coopers ha presentato all’ultimo World Economic Forum di Davos, la sensibilità verso il richiamo dell’Internet of Things è sicuramen-

te in crescita. Dietro data mining e analytics, mobile e sicurezza, una delle voci più gettonate per il 2015 è proprio l’Iot. Il che non significa però investimenti a go-go. Se guardiamo ai propositi dei chief executive officer da oggi al 2019 (li ha identificati sempre Gartner), ci accorgiamo che nella loro lista della spesa l’IoT non c’è. Marketing digitale, e-commerce, gestione della customer experience, business analytics e cloud sono le cinque strade tech che i numero uno dell’It aziendale hanno iniziato a percorrere per migliorare le prestazioni di business delle proprie organizzazioni nei prossimi anni. La priorità è quella di mettere in pratica le strategie “customer-centric” per attrarre nuovi clienti e a mantenere quelli esistenti. Per l’Internet of Things c’è tempo, ma non troppo. Gianni Rusconi

FEBBRAIO 2015 |

9


IN EVIDENZA

La nuova architettura al silicio di Intel per smartwatch e simili è un micro computer farcito di sensori. Ecco le criticità per lo sbarco in azienda dei dispositivi indossabili.

“Non ci vergogniamo di quanto siamo indietro nel mobile. Quando entri in un mercato la cui curva di maturità è molto lunga, devi proseguire per la tua strada”. Brian Krzanich, Ceo di Intel

IL SUPER CHIP PER L’ABITACOLO WEARABLE, IL CERVELLO IN UN BOTTONE Dovrebbe vedere il mercato nella seconda metà del 2015 ed è il nuovo passo in avanti di Intel nel mondo degli oggetti indossabili. La nuova scommessa per il computing di nuova generazione del colosso di Santa Clara si chiama Curie e al momento siamo ancora allo status di prototipo in attesa dell’approvazione da parte della Federal Communications Commission statunitense. Le premesse, almeno sulla carta, sono comunque interessanti. A cominciare dalla natura di Curie, un componente grande come un bottone che integra al suo interno il nuovo system-on-chip Quark Se, un modulo Bluetooth Low Energy, sensori a sei assi con accelerometro e giroscopio e una circuiteria per la ricarica della batteria. Un vero e proprio Pc in miniatura insomma, che nasce con relativo software developer Kit da distribuire agli sviluppatori. Date le minuscole dimensioni, e questo è sicuramente uno dei suoi pregi, Curie potrà essere integrato in dispositivi indossabili di ogni genere, dagli smartwatch ai ciondoli passando per anelli, braccialetti, fitness tracker e, appunto, bottoni. 10

| FEBBRAIO 2015

Dove troverà sbocco la nuova scommessa di Intel? I settori della moda, del fitness e del lifestyle rappresentano sin d’ora un terreno di sperimentazione consolidato per l’azienda di Santa Clara, e lo dimostrano gli accordi stretti nei mesi scorsi con marchi quali Luxottica, Basis Peak, Fossil Group e Vuzix. La partnership con Oakley (marchio di Luxottica Group), in particolare, porterà entro l’anno al lancio commerciale di un braccialetto intelligente studiato per migliorare le prestazioni degli atleti. Il previsto boom dei wearable (Idc stima un venduto di 112 milioni di gadget indossabili nel mondo per il 2018, di cui tre milioni solo in Italia) non interesserà, intanto, solo il mondo consumer. Stando infatti a una recente indagine condotta da Ipswitch, circa un terzo delle aziende europee (francesi e tedesche in testa) prevede di utilizzare device indossabili e di connetterli all’infrastruttura It esistente nel corso del 2015. Il rovescio della medaglia? Poco più di una su dieci dichiara di aver definito una policy per gestire l’impatto di questa tecnologia sulle prestazioni di rete e sulla sicurezza dei sistemi.

Che Nvidia sviluppi chip per i dispositivi mobili è noto. Che strizzi da tempo l’occhio al mondo automotive lo è altrettanto. All’ultimo Ces di Las Vegas è arrivato però un nuovo strappo in avanti dell’azienda californiana verso il mondo delle quattro ruote, con l’entrata in scena del processore grafico Tegra X1: un super cervello nato per pilotare i sistemi di car infotainment e i cruscotti delle vetture con funzionalità di guida autonoma. Il componente mette in campo avanzate capacità di visual computing e streaming video (grazie a prestazioni superiori al teraflop) ed è alla base di due applicazioni (Drive Cx e Drive Px) il cui compito sarà quello di gestire tutti i dispositivi digitali presenti nell’abitacolo e di elaborare in chiave “self driving” le informazioni provenienti dai diversi sensori installati a bordo.


LA SCOMMESSA UNIVERSALE DI MICROSOFT: UN SOLO WINDOWS PER PC, MOBILE E XBOX La nuova versione del sistema operativo si presenta: aggiornamento a costo zero, menu Start, assistente virtuale e visore per la realtà aumentata. Il frutto più atteso e forse il più importante di quella filosofia “crossdevice” che il Ceo Satya Nadella ha eletto fra i mantra del “new deal” di Microsoft. Windows 10, o meglio la sua Consumer Preview, ha visto la luce circa un mese fa con un deciso cambio di strategia del colosso di Redmond: l’aggiornamento al software, per chi utilizzi dispositivi con a bordo Windows 7, 8 e 8.1 e Windows Phone 8 e 8.1, sarà gratuito. Almeno per il primo anno dal rilascio del nuovo sistema. Novità tecniche a parte ‒ le più sfiziose sono la presenza dell’assistente virtuale Cortana e il visore olografico HoloLens ‒ appare

PERSONAL COMPUTER, IL PEGGIO È PASSATO

oggi ancora più evidente l’intento di Microsoft di fare proprio il modello di Apple e Google. Gli aggiornamenti periodici e gratuiti del software (major release comprese) e la convinzione di ascoltare di più e meglio l’utenza (vedi il ritorno del menu Start per uniformare e semplificare l’utilizzo delle applicazioni tradizionali e di quelle pensate per i dispositivi touch) sono due esempi del cambio di filosofia. Se

i Pc touch sono le macchine ideali per Windows 10, il vero “cambio in corsa” è la volontà di rendere comune l’esperienza del sistema operativo (e dei suoi programmi più diffusi, a cominciare da Office) a tutti i device dell’ecosistema Windows, dai personal computer agli smartphone, dai tablet alla console Xbox. Un prodotto universale, dunque, che rispecchia il proclama lanciato da Nadella: “Vogliamo fare innamorare gli utenti e non solo gli 1,5 miliardi di utenti che attualmente utilizzano Windows”. Cavalcando i paradigmi del mobile e del cloud e sposando anche le app (vedi Dropbox) e i prodotti che vanno per la maggiore (vedi la scelta di portare Office su iOs e Android) della concorrenza.

Metabolizzato il boom dei tablet, il mercato dei Pc tradizionali è in lenta risalita. Nell’ultimo trimestre del 2014, a detta di Idc, le consegne su scala globale sono arrivate a 80,8 milioni di unità, scendendo ancora del 2,4% rispetto all’ultimo quarter del 2013. Un calo comunque inferiore, dimezzato per la

precisione, rispetto a quanto previsto precedentemente dagli analisti. Il crescente interesse per i Chromebook (sulla fascia bassa) e per i modelli touch convertibili (sulla fascia media e alta), oltre agli sforzi promozionali di Microsoft per vendere Windows 8, hanno in parte risollevato la domanda. V.B.

11


IN EVIDENZA

NOKIA NETWORKS PUNTA SULLA NUVOLA TELCO

BOOM DELL’IOT, I RISCHI PER I CIO Poco meno di cinque miliardi di oggetti collegati a Internet già nel 2015, che nel 2020 diventeranno 25 miliardi. Sulle dimensioni del fenomeno Internet of Things i numeri fioccano. Stando all’ultimo rapporto stilato da Gartner, si scopre per esempio che, di questo esercito di dispositivi “always on”, oltre 250 milioni saranno automobili e che le case connesse (e in particolare le cucine e tutto il loro corredo di elettrodomestici intelligenti) contribuiranno nella misura minima del 15% al saving complessivo di cui godranno, grazie all’IoT e ai Big Data, il settore alimentare e quello del beverage. Numeri a parte, la verità “nascosta” descritta dagli analisti interessa da vicino Cio e manager aziendali in genere. Ed è la seguente: fino al 2018 non ci sarà un ecosistema e una piattaforma IoT dominante. I responsabili It, di conseguenza, dovranno confrontarsi con la mancanza di un insieme coerente di modelli di business e tecnologici per abbracciare l’Internet delle cose. Di standard, infatti, si parla da tempo ma le iniziative in tale direzione sono ancora allo stato iniziale e l’attuale assenza di service provider dominanti in campo IoT complicherà ulteriormente il lavoro delle aziende. Il rischio di fallimenti, di vendor e di ecosistemi che stanno nascendo sull’onda lunga di questo paradigma, è quindi tutt’altro che remoto.

12

| FEBBRAIO 2015

Il primo esempio pratico di telecomunicazioni nel cloud è stato il servizio VoLte (Voice over Lte), lanciato da Nokia Networks l’anno scorso. A partire da questo primo mattone, la multinazionale sta costruendo la sua nuova offerta, sfidando i temibili concorrenti che nel frattempo sono entrati nel mercato delle infrastrutture e dei servizi di rete per le telecomunicazioni. “Il punto cruciale”, dice Massimo Mazzocchini, country director di Nokia Networks Italia, “è che lo scenario attuale, lato clienti finali, è dominato dagli smartphone, e quindi non solo dalla richiesta di servizi voce ma anche e soprattutto dati”. Gli operatori devono quindi puntare su architetture innovative, come le reti virtualizzate e flessibili, basate possibilmente su standard aperti. Da questa esigenza nasce l’offerta Telco Cloud, che Nokia ha intenzione di arricchire sia sul fronte delle tecnologie (soprattutto software) sia su quello di partner e integratori, per i quali è previsto un intenso programma di certificazione. “Nokia sta implementando una metodologia pratica per consentire alle reti a banda larga mobile di erogare ef-

Massimo Mazzocchini

Virtualizzazione, software e flessibilità sono le nuove parole chiave dei finlandesi ficacemente un GB di dati per utente al giorno entro il 2020”, ha dichiarato Mazzocchini, “e persegue una strategia volta all’innovazione per consentire agli operatori di gestire adeguatamente la montante marea di dati nelle reti wireless”. “Per i nostri prodotti software”, gli ha fatto eco Dario Boggio Marzet, head of technology per l’Europa sud-orientale di Nokia Networks, “abbiamo adottato una strategia basata sull’indipendenza da hardware e cloud stack”. Solo il tempo dirà sa la multinazionale riuscirà a imporre la sua visione “laica” delle architetture.

VALUE LAB POLIGLOTTA NEL CRM La gestione del cliente è sempre più multicanale, ed è quindi obbligatorio restare al passo con la tecnologia. Per questo Value Lab ha rilasciato la versione 3.1 di Value Clienteling, una soluzione multilingua che si interfaccia tramite Api con software di cassa, di customer relationship management, marketing automation, enterprise resource planning

e altro, dalla gestione del magazzino all’e-commerce, passando dalle attività sui social network. “Abbiamo puntato su facilità d’uso e personalizzazione dell’interfaccia utente per uso mobile, e sull’integrazione con i sistemi già presenti in azienda”, ha commentato Costanzo Miglionico, head of Omnichannel Customer Experience Solutions di Value Lab.


SHOW ROOM HI-TECH PER BT È stato inaugurato a dicembre a Milano uno dei quattro centri di avanguardia che Bt ha progettato in Europa per mostrare a clienti e prospect le proprie eccellenze tecnologiche. Il customer innovation showcase (gli altri tre sono ad Amsterdam, Bruxelles e Madrid) costituiscono il nucleo di una rete globale di strutture dove i visitatori possono toccare con mano le innovazioni più recenti in tema di telecomunicazioni, data center, sicurezza, unified communication e Crm. “Gli showcase offrono ai Cio una grande opportunità di conoscere le soluzioni sviluppate nei laboratori di ricerca di Bt in tutto il mondo”, ha affermato Corrado Sciolla, presidente di Bt Global Services, “aiutandoli a diventare maestri in quella che chiamiamo ‘the art of connecting’”.

“Stiamo cercando di portare via Android da Google. Non ci baseremo più su nulla che arrivi da Mountain View entro i prossimi tre o cinque anni”. Kirt McMaster, Ceo di Cyanogen

HUAWEI ENTRA NELL’ERA DELLE IMPRESE AGILI La divisione Enterprise del colosso cinese punta alle infrastrutture convergenti e rinnova la sua offerta di storage.

Si muove con tutta la potenza che può mettere in campo Huawei, forte di 150mila dipendenti e di un fatturato di oltre 40 miliardi di dollari a livello mondiale. E se nel settore della telefonia cellulare l’azienda sta già percorrendo alla luce del sole la strada che prima di lei hanno attraversato le coreane Samsung ed Lg, nel settore più compassato delle infrastrutture Ict per le imprese gli sforzi in ricerca e sviluppo e l’impressionante numero di ingegneri schierati dalla multinazionale cinese stanno già dando frutti, anche se più in sordina. “Il mercato europeo delle imprese è strategico per noi”, ha dichiarato a Technopolis Pablo Cui, vice presidente della divisione enterprise di Huawei Technologies per l’Europa occidentale, “e se la corporate cresce a livello mondiale del 10% circa, il business-to-business nel Vecchio Continente dovrebbe chiudere il 2014 con un balzo del 40%. Questo vuol dire lavoro per i nostri partner ma anche assunzioni, pure in Italia”. I nuovi capisaldi di questa crescita, che ovviamente va a discapito dei player tradizionalmente presenti nel mercato delle telecomunicazioni e

delle piattaforme It, sono le infrastrutture convergenti, e in particolar modo apparati di rete, storage e server fortemente ottimizzati per erogare il massimo delle prestazioni a costi sostenibili. “Il vantaggio nel progettare sistemi integrati”, prosegue Cui, “sta nell’ingegnerizzare alla perfezione i componenti per lavorare insieme, eliminando così tutti i colli di bottiglia. Certo, le piattaforme rimangono aperte, tanto che noi siamo tra i membri più attivi di Openstack”. Alla fine del 2014, Huawei ha lanciato in Europa parecchie soluzioni convergenti per i clienti enterprise, tra cui Agile Branch Solution e Cloud Fabric Solution. La prima permette alle aziende di rilasciare nuovi servizi in breve tempo e in pochi clic, mentre la seconda, destinata ai data center, consente di offrire in modo rapido servizi cloud flessibili. Sul fronte dei prodotti, Huawei ha presentato la nuova linea di storage Oceanstore V3, in cui Nas e San convergono in un’unica piattaforma, e ha rilasciato il sistema operativo Oceanstore Os, completamente ridisegnato per supportare le architetture software-defined.

13


IN EVIDENZA

LA NUVOLA SMUOVE GLI INVESTIMENTI ICT. MA I TIMORI RESTANO In un Paese dove esiste ancora un 2% di imprese completamente “offline”, prive di connessione Internet, il cloud computing continua a crescere raggiungendo una penetrazione del 40% all’interno delle aziende. I dati, ambivalenti, sono dell’Istat e si riferiscono al 2014, anno in cui in Italia quasi il 70% (il 69,2% per la precisione) delle attività lavorative poteva contare su una presenza online attraverso un sito Web e il 32% anche attraverso i canali social. Zoccoli duri di resistenza all’innovazione a parte, la nuvola continua ad attrarre investimenti ed è già sfruttata per servizi di email (dal 34,5% delle organizzazioni), software per l’ufficio (16,5%), applicazioni di finanza e contabilità (13,4%), archiviazione

Secondo l’Istat, lo scorso anno il 40% delle imprese ha adottato il cloud computing per almeno un attività. di file (12,7%), hosting di database (11,1%), applicazioni di Crm (5,8%)

e risorse di calcolo per eseguire software (3,2%). A rallentare l’adozione del cloud, sempre secondo l’Istat, intervengono timori circa il furto dei dati, la difficoltà nel trasferirli in caso di recesso di contratto con il fornitore, problemi di compliance, difficoltà di accesso ai servizi e costi. A.A.

SPESA IT AVANTI ADAGIO

LA DOMOTICA ITALIANA VINCE SULLA PASSARELLA DI LAS VEGAS

Quante e quali tecnologie si compreranno nel 2015? Secondo Gartner nel mondo si spenderanno 3,8 trilioni di dollari, il 2,5% in più rispetto allo scorso anno, e il dato appare leggermente meno positivo di quanto non sia il realtà se si tiene conto delle fluttuazioni del dollaro. I budget aziendali si gonfieranno soprattutto a favore delle soluzioni e dei servizi cloud, in parte responsabili della crescita del 5,5% stimata per il segmento dei software aziendali (il cui valore raggiungerà 335 miliardi di dollari). Meno ottimistica la previsione per il mercato italiano di The Innovation Group: nel 2014 gli investimenti Ict sono calati del 2% ed altrettanto faranno quest’anno, scendendo a 67,9 miliardi di euro.

Le soluzioni per la “casa intelligente” hanno spopolato durante l’ultimo Ces, la più importante fiera internazionale dell’elettronica di consumo. Non è un caso, perché la domotica è e sarà parte corposa del boom dell’Internet of Things atteso dagli analisti (Idc, fra gli altri, prevede si conteranno 30 miliardi di oggetti connessi nel 2020). In questo campo spicca un’eccellenza italiana, Easydom Next, un software creato da Easydom, azienda comasca premiata a Las Vegas nella categoria Software e Mobile Apps. Attraverso un’interfaccia di facile uso e piante interattive degli ambienti domestici, tramite questa app è possibile controllare tutti gli impianti – riscaldamento, elettricità, siste-

14

| FEBBRAIO 2015

ma antifurto, home theatre e via dicendo – monitorando i consumi e creando profili personalizzati. Il tutto da Pc, tablet, smartphone (Android, iOs o Windows Phone) o da smart Tv. V.B.


l’opinione SICUREZZA IT IN AZIENDA: L’APPROCCIO GIUSTO È QUELLO RISK-BASED C’è un rischio molto specifico su cui aziende e istituzioni pubbliche risultano non preparate: quello relativo alle tecnologie Ict e alla gestione dei dati e delle informazioni critiche. Al giorno d’oggi non sono più soltanto le organizzazioni “information intensive” (banche, utilities, pubbliche amministrazioni) a risultare sensibili a queste tematiche, in quanto il tema interessa oramai tutte, comprese le piccole aziende che partecipando a supply chain estese possono diventare l’anello debole in una catena più ampia. Nella realtà complessa in cui ci si trova a operare, molti fattori hanno impatto sulla capacità di un’azienda di proteggersi dal rischio cyber: dalla crescita degli assalti mirati all’errore umano, passando per le nuove superfici di attacco (data center e Internet delle cose) e per le tecniche di difesa basate sull’intelligence. Per seguire un corretto approccio nella defini-

zione di una strategia per la cybersecurity, che sia correlata ai bisogni del business, le aziende devono partire da un risk assessment prendendo in considerazione almeno le seguenti classi di “pericolo” specifiche per il mondo Ict: il rischio di non-compliance, quello associato a incidenti, quello reputazionale e, infine, quello legato ai fornitori di servizi e tecnologie digitali. Il passo successivo è la scelta della più corretta strategia di risk management, che parte dalla valutazione delle va-

rie alternative: dal trasferimento del rischio a terze parti, all’evitare il rischio, al ridurne gli effetti negativi e infine all’accettare in parte o totalmente le conseguenze. Un approccio di tipo risk-based alle problematiche di cybersecurity, oltre a riportare nel suo corretto alveo la gestione di uno dei più importanti pericoli che un’azienda si trova oggi ad affrontare, presenta vantaggi dal punto di vista economico perché permette di definire un giusto investimento per la sicurezza delle informazioni e delle risorse Ict. Inoltre, è oggi promosso dalle stesse norme dei legislatori europei (European Data Protection Regulation, Direttiva su Network and Information Security) oltre che dal National Institute of Standards and Technology statunitense. Elena Vaciago, research manager, The Innovation Group

EVENTI E COMMUNITY PER DIFENDERSI MEGLIO Come possono le aziende definire con il giusto approccio la loro strategia di sicurezza? La “ricetta” di The Innovation Group (Tig) si chiama “Cybersecurity and risk management leadership program” e comprende diversi “ingredienti”: workshop e tavole rotonde, webinar, una serie di appuntamenti, un canale tematico con news, commenti sulle evoluzioni normative in corso, interviste a Cso, security e

risk manager. E poi, ancora, una selezione di ricerche e studi costantemente aggiornata, oltre a indagini e approfondimenti prodotti dagli analisti di Tig e dal partner tecnico Deloitte Italia, e alla possibilità di partecipare a dibattiti con gli altri iscritti al programma. Questo è rivolto a tutte le figure professionali interessate al tema della cybersecurity (Cio e insurance manager inclusi) e si propone di costruire una community

di persone che condividono esperienze per poter trasferire le indicazioni più importanti al board e i decision maker aziendali. Il “Cybersecurity and risk management leadership program”, di cui Technopolis è main media partner, è stato messo a punto da Tig, Deloitte Italia e un advisory board di esperti e di aziende leader del settore. http://channels.theinnovationgroup.it/cybersecurity

15


SCENARI | Banda larga

LO SPRINT DELLE RETI DI NUOVA GENERAZIONE Gli ingredienti sul tavolo dell’ultra broadband sono parecchi. Ci sono i fondi europei e le risorse pubbliche, le manovre degli operatori, i piani del governo. L’obiettivo è noto: portare entro il 2020 la connettività a 100 Megabit alla quasi totalità della popolazione, dell’industria e della Pa nazionale.

L

a soglia del nuovo digital divide è oggi quella dei 30 Megabit per secondo (e non più quella dei 2 Mbps) ed è pronta a scalare da subito verso la vetta dei 100 Megabit, almeno in ambito pubblico. Si può partire da questo parametro tecnico, e quindi dalla velocità delle connessioni, per inquadrare il piano nazionale che vuole dotare il Belpaese di quelle “autostrade informatiche” oggi disponibili solo a macchia di leopardo. Il piano in questione è stato definito sotto la regia del Ministero dello Sviluppo economico: Ngi gestirà gli interventi in Liguria, Emilia Romagna, Marche ed Umbria, Telecom Italia in 16

| FEBBRAIO 2015

Toscana, Veneto, Lazio, Campania, mentre a Infratel (tra opere infrastrutturali condotte in proprio e affidate a terzi) andranno le restanti regioni. La corsa contro il tempo è in pieno svolgimento: vanno, infatti, rispettati i tempi imposti dalla Commissione Europea per la spesa dei fondi strutturali 2007-13. E se tutto andrà come previsto sulla carta, il Mezzogiorno potrà vantare un indice di penetrazione della banda ultralarga superiore alla media europea. Rilanciare l’economia puntando sul digitale, del resto, è uno dei pallini del premier Matteo Renzi. Sulla questione Ngn (Next Generation Network),

il Governo ha però il compito di sciogliere diversi nodi che attanagliano da anni lo sviluppo delle telecomunicazioni “made in Italy”. Il più importante e noto riguarda la costituzione di un nuovo soggetto pubblico-privato che possa assicurare la governance necessaria per garantire un accesso paritetico alla rete per tutti gli operatori. Il ruolo giocato da Telecom Italia (al momento in cui scriviamo non si conoscono gli esiti del Cda in programma il 19 febbraio), a cominciare dall’ipotesi di integrazione con Metroweb, è ovviamente uno degli snodi fondamentali. Renzi, da parte propria, ha spesso ripe-


Entro il 2015, circa 800 città saranno raggiunte da linee a 30 Mbps e tutti gli uffici pubblici, comprese scuole e plessi sanitari, saranno collegati a 100 Mbps

che il Governo metterà a disposizione: oltre sei miliardi di euro, pescando qua e là da finanziamenti europei (fondi Feasr e Fesr) e dal Fondo per lo Sviluppo e la Coesione (da anticipare con la Banca europea degli investimenti). I soggetti privati, da parte loro, metterano sul piatto due miliardi nel triennio 2014-2016. I risultati aspettati

Secondo quanto riportato dal Piano Strategico, circa 800 città saranno raggiunte entro il 2015 da linee a 30 Mbps mentre per gli uffici pubblici (comprese tutte le scuole, i plessi sanitari e le sedi periferiche del Ministero della Difesa) i collegamenti in via di realizzazione nei prossimi mesi saranno invece a 100 Mbps. Nel 2016, secondo l’obiettivo dichiarato dal Piano, si salirà a 1.130 centri, sommando la copertura garantita dagli interventi pubblici (657 città) e quella (482 città) prevista dai piani di intervento autonomi degli operatori privati. Se guardiamo alla situazione del 2013, quando l’Italia occupava mestamente l’ultimo posto della classifica europea sulla “next generation access broadband coverage” redatta da Screen Digest and Point Topic, qualcosa è effettivamente

tuto lo slogan secondo cui “la grande opera infrastrutturale di cui ha bisogno oggi come il pane l’Italia è la banda larga”. L’obiettivo del Piano Strategico nazionale per la banda ultralarga, in tal senso, lo conosciamo: portare entro il 2020 la connettività a 100 Mbps ad almeno l’85% della popolazione italiana attraverso una copertura che dovrà coinvolgere anche le sedi della Pa, aree di interesse economico o ad alta concentrazione demografica, snodi logistici e industriali. Il restante 15%, che interessa sostanzialmente le aree rurali e a fallimento di mercato, conterà invece su velocità a 30 Mbps. Note sono anche le risorse

cambiato. O sta per cambiare. Tornando in casa Telecom, l’ex operatore incumbent ha confermato a più riprese le sue velleità in fatto di banda larghissima, prevedendo nel piano industriale 2014-2016 circa tre miliardi l’anno di investimenti per sviluppare le reti Ngn. L’idea è quella di sperimentare su larga scala prima i sistemi vectoring per le linee Vdsl2, per velocità fino a 100 Megabit, e quindi abbracciare già da quest’anno Fast, la tecnologia trasmissiva su doppino di rame che abilita capacità fino al Gigabit. Anche Fastweb e Vodafone, dal canto loro, hanno deciso di basare l’espansione del proprio network ultrabroadband su un mix di fibra e rame con due reti parallele, mentre la maggior parte dei Paesi Europei punta in modo esteso sulla tecnologia ottica e su reti su cavo coassiale. Se, come giustamente dice il Presidente di Telecom, Giuseppe Recchi, “è decisivo adeguare subito le infrastrutture su cui viaggiano i dati perché è in atto la quarta rivoluzione industriale, quella dell’Internet of Things”, non ci sono più margini di attesa. Lo sviluppo e la diffusione delle reti di nuova generazione non possono più aspettare. Piero Aprile

IN TOSCANA IL COMUNE PIÙ VIRTUOSO È Capannori, cittadina di 45mila abitanti in provincia di Lucca, il Comune vincitore dell’edizione 2014 del contest “Italia Connessa” indetto da Telecom Italia. Il suo programma di digitalizzazione del territorio, finalizzato a diffondere l’utilizzo dei servizi informatici fra cittadini, aziende e pubbliche amministrazioni, è risultato il più innovativo tra quelli degli altri 118 centri di medie dimensioni in gara. Le sue peculiarità? La capacità di valorizzare il patrimonio culturale loca-

le tramite un sistema informatizzato per la gestione dei servizi turistici, e l’avvio di progetti partecipativi di social government e di mobilità sostenibile. Telecom, da parte propria, realizzerà nel territorio comunale tutte le infrastrutture fisse e mobili di ultima generazione (comprese le reti 4G Plus) in anticipo rispetto al piano di sviluppo che prevede oltre 3,4 miliardi di euro dedicati all’ultrabroadband (a oggi sono oltre cento le città italiane cablate dalla fibra ottica dell’operatore).

17


SCENARI | Banda larga

LE DORSALI CHE FANNO CORRERE I DISTRETTI Sulla fibra ottica corrono i servizi digitali di nuova generazione. Le connessioni a banda larghissima possono incrementare sensibilmente la produttività delle imprese attive sul territorio. È solo un problema di governance?

I

l ritornello è noto: il Belpaese paga un’evidente carenza infrastrutturale in fatto di diffusione delle reti (fisse) a banda larga e larghissima, e tale handicap si ripercuote sulla competitività delle imprese che operano lontano dai centri metropolitani. Eppure le prove che la disponibilità di collegamenti a Internet ad alta velocità possa migliorare le prestazioni economiche delle aziende non mancano. Fra queste ci sentiamo di segnalarne una che, per quanto non recentissima, ha misurato l’impatto delle reti “broadband” su scala locale. La ricerca, a firma della Fondazione Bruno Kessler, ha calcolato nello specifico che, fra il 2010 e il 2012, un mese di disponibilità delle connessioni superveloci (su tecnologia Adsl 2 di Telecom Italia, portata via via in tutti i comuni trentini grazie alla dorsale in fibra ottica di collegamento delle centrali implementata da Trentino Network) si è tradotto per le imprese attive nel territorio in un aumento stimato del volume d’affari del 4,7%. Estendendo a 15 mesi l’accesso ai servizi a banda larga a 20 Megabit, la crescita delle performance economiche è salita al 19%. Questo per dire che, là dove esiste una rete che funziona bene e velocemente, le imprese ne traggo18

| FEBBRAIO 2015

no giovamento. Dove sta il problema, dunque? Nel fatto che gli operatori di telecomunicazioni privati non sono sempre nelle condizioni di garantire la copertura ad alta velocità in tutte le aree, causa la limitata profittabilità degli investimenti necessari per realizzare le nuove infrastrutture nelle aree cosiddette rurali. La presenza di un “backbone” in fibra ottica in grado di assicurare connettività ad alte prestazioni in modo capillare (cablare l’intera Penisola avrebbe un costo stimato di 15 miliardi di euro) è non a caso uno dei “nodi” su cui sta lavorando su più piani il Governo in sede di attuazione dei piani dell’Agenda Digitale e del decreto Crescita Digitale. Il ruolo degli operatori alternativi

A giocarsi la partita per conquistare la domanda di connettività e servizi cloud del tessuto aziendale italiano ci sono gli operatori di prima fascia (e quindi Telecom Italia, Fastweb, Vodafone, Bt) e tutte le telco alternative (Interoute, Between, CloudItalia, Infracom, Retelit e Tiscali tanto per fare dei nomi) che lavorano sul territorio con una propria infrastruttura di rete. Proprio queste ultime, con all’attivo dorsali e reti metropolitane di migliaia o di decine di migliaia di chilometri sviluppati in


alcuni casi su scala paneuropea, sono più o meno concordi sull’idea che occorra creare una nuova infrastruttura di rete in fibra ottica capillare, di proprietà di un soggetto unico e pubblico, da mettere a disposizione di tutti gli operatori di telecomunicazione a parità di condizioni tecniche ed economiche. Una rete che favorirebbe, se sfruttata a dovere, una crescita del Pil nell’ordine dell’1,5%. La corsa in avanti, dal punto di vista tecnologico, è quella di garantire sui backbone basati su tecnologia di trasporto Dwdm (Dense Wavelength Division Multiplexing) capacità a 100 Gigabit, e di conseguenza la massima affidabilità (per azzerare il rischio di congestionamento della rete) e disponibilità nei servizi di connettività e data center (appoggiandosi a server farm di proprietà dislocate nei principali snodi di rete del territorio nazionale), nelle soluzioni cloud di comunicazione voce e dati, nel full outsourcing di sistemi It. A dispetto delle ambizioni “monopolistiche” degli operatori di prima fascia, anche i provider alternativi vanno quindi considerati una risorsa vitale

per completare lo sviluppo dell’informatizzazione dei distretti produttivi italiani. Il principio vale soprattutto per quelle aziende che prediligono l’aspetto della flessibilità, dando per scontata l’affidabilità del servizio, rispetto a quello di una potenza di fuoco (leggi: capacità di banda) sulla carta superiore. Se l’Italia vuole recuperare il gap che paga a molti Paesi europei in fatto di infrastrutture di connettività, e se le reti di nuova generazione vanno

Una nuova infrastruttura di rete in fibra ottica da mettere a disposizione di tutti gli operatori favorirebbe una crescita del Pil nell’ordine dell’1,5%

intese come punto fermo del piano di crescita digitale, serve probabilmente un cambio di governance (quindi anche politico) sulle politiche di sviluppo della banda larga e larghissima. E, forse, serve anche un atteggiamento più propositivo delle aziende verso le tecnologie che già oggi sono disponibili sulle dorsali telematiche che attraversano lo Stivale. Piero Aprile

IL WIFI A 4,6 GBPS ARRIVA NEL 2015? Navigare su reti wireless con velocità cinque volte superiori rispetto a quelle garantite dalle tecnologie attuali. È la possibilità che prospetta Samsung sfruttando il nuovo standard WiFi 802.11ad, capace di garantire connessioni fino a 4,6 Gigabit per secondo, su una frequenza di 60 GHz, eliminando le interferenze fra i dispositivi collegati sullo stesso router. Le problematiche relative alle scarse capacità di penetrazione degli ostacoli, causa di basse prestazioni e instabilità della rete in determinate circostanze, vengono aggirate mediante l’uso

di antenne direzionali ad ampio raggio d’azione, supportate da sistemi in grado di ottimizzare il flusso delle onde millimetriche. La tecnologia messa a punto dal gigante coreano dovrebbe trovare applicazione nelle piattaforme di domotica (le cosiddette smart home) e più in generale nelle soluzioni Internet of Things. I primi dispositivi con a bordo la soluzione, e quindi apparecchi audio/video e medicali e apparati di telecomunicazione, dovrebbero arrivare in commercio forse già entro la fine dell’anno.

A CHE PUNTO È LA RIVOLUZIONE 4G La telefonia mobile di quarta generazione è di fatto una sfida a due: Tim e Vodafone si contendono lo scettro del 4G con oltre tremila comuni coperti a testa, un dato che equivale a circa il 75% della popolazione. L’obiettivo di entrambi gli operatori è quello di raggiungere fra l’80% e il 90% degli italiani entro la fine del 2016. E per quanto riguarda Wind e 3 Italia? La prima dichiarava di aver installato le proprie antenne, al 31 ottobre 2014, in 217 centri, con una copertura nell’ordine del 30%; 3 Italia si posiziona poco sopra, con una diffusione della propria rete Lte 4G pari al 36%. Il numero di utenti che sfrutta connessioni Lte è però lontano dai dati di copertura, complice anche la scarsità di smartphone omologati. Telecom Italia dichiara 860mila clienti di offerte Tim 4G, mentre si arriva a 1,2 milioni per Vodafone. Quest’ultima con la propria infrastruttura 4G+ (Lte Advanced) ha raggiunto oltre 150 comuni. In casa Telecom, invece, la connessione mobile super-veloce da 225 megabit al secondo si è estesa a fine novembre scorso a 120 città con l’obiettivo di arrivare a 200 con l’inizio della primavera. 3 Italia e Wind, da parte loro, promettono di voler quadruplicare nel corso del 2015 il numero dei siti in tecnologia 4G Lte attivati nel 2014. Sullo sfondo c’è anche la lotta per i servizi Voice over Lte, terreno dove Vodafone si è mossa per prima ed è presente attualmente a Milano, Roma e Ivrea (To).

19


SCENARI | Big Data

ITALIA AVANTI ADAGIO NEL MARE DI INFORMAZIONI I volumi non sono l'aspetto più rilevante dei Big Data, più importante è la capacità di generare informazioni utili attraverso nuove figure professionali. Ma in Italia partono solo progetti pilota. Paolo Pasini

L

o scenario dell’adozione delle tecnologie dei Big Data in Italia è piuttosto desolante, perché poco o nulla è stato fatto negli ultimi due anni se non sotto forma di sperimentazioni. Talvolta, le tecnologie pensate per i grandi dati sono state introdotte in realtà solo per innovare precedenti, più tradizionali sistemi di analisi, con l’obiettivo di ridurre costi di acquisto e di esercizio delle tecnologie di gestione delle informazioni. Tutto ciò, nonostante le imprese italiane attribuiscano un valore potenziale molto rilevante ai Big Data, in particolare in alcune aree specifiche di applicazione, quali le analisi delle dinamiche del comportamento d’acquisto dei clienti (al fine di valutare la loro 20

| FEBBRAIO 2015

customer experience multicanale), gli insight a supporto delle decisioni strategiche dell’impresa (predizioni, scenari e previsioni di medio-lungo termine), le analisi di dati strutturati e non strutturati che derivano dai documenti aziendali dematerializzati (fascicoli sanitari, gestione sinistri) e l’ottimizzazione dei processi aziendali. Il continuo aumento dei volumi e delle tipologie di dati di cui le aziende possono (potenzialmente) disporre è un dato di fatto, ma è inutile continuare a lanciare scenografici proclami con l’intenzione di colpire la suggestione del pubblico, come il fatto che ogni secondo si generino su Web o tramite le reti di sensori digitali fissi o mobili, Tera o Peta byte di dati (ben inteso,

non di informazioni!). I volumi, spesso confusi col termine “big”, tra l’altro, non sono l’aspetto più qualificante ed interessante dei Big Data; la varietà e la velocità sono molto più importanti nel generare nuove informazioni utili nel mondo fisico-scientifico (ad esempio meteorologia o medicina) e nel mondo manageriale (decisioni di marketing o di rischio). Il valore aziendale dello sfruttamento di un tale potenziale informativo è difficilmente quantificabile ma non è sicuramente in discussione. Dove risiede, quindi, il problema? Perché quella che sulla carta risulta essere un’opportunità unica e imperdibile non viene colta al volo dalle aziende italiane? A parte la fisiologica “prudenza” del-


le nostre aziende nell’essere pionieri dell’innovazione It (e al netto della congiuntura ancora difficile), la criticità risiede nella difficoltà di dotarsi delle opportune tecnologie da un lato, e delle necessarie competenze di analisi e interpretazione dei Big Data dall’altro. La sensazione emergente da questi ultimi due anni è che le imprese italiane, prima di lanciare veri e propri progetti, si stiano dotando per l’appunto del necessario mix di competenze che può creare le condizioni di base, da un lato, per ottenere i reali benefici promessi dai Big Data e, dall’altro, per far leva sull’esperienza fatta con le generazioni precedenti di strumenti e applicazioni di Business Intelligence. Parlando di competenze collegate al mondo dei grandi dati, non si può non citare il data scientist: non è un It manager, non è uno statistico, non è un matematico, non è un programmatore. Non è nemmeno un analista di processi e dati per le decisioni aziendali e funzionali, nè un esperto di data modeling o di decision making process modeling, e non è un risk manager. È, invece, una figura manageriale che combina diverse professionalità fondate su un mix armonico di conoscenze e competenze che presentano gradi di intensità diversi, oltre a una base comune di soft skill. Queste ultime riguardano, da una parte, le abilità creative di problem solving, la curiosità e l’originalità nella ricerca e nell’uso dei dati, la capacità di trovare l’inaspettato, il pensiero laterale, il teamworking, la gestione del cambiamento (soprattutto di natura cognitiva); dall’altra parte, con pari rilevanza, riguardano le abilità di comunicazione e relazione per narrare in modo intellegibile che cosa suggeriscano i dati e per fornire risposte coerenti con i fabbisogni informativi espressi. Paolo Pasini, direttore Unit Sistemi Informativi, Sda Bocconi School of Management e responsabile dell’Osservatorio BI di Sda Bocconi.

SCAVARE NEI DATI PER TROVARE L'ORO I “dark data” accumulati in anni di attività possono rivelarsi una vera miniera di informazioni preziose per il business.

Emily Wojcik

C

onservati in archivi polverosi e magazzini off-site, i volumi di “dark data” sono presenti in quasi tutte le aziende, in genere sottovalutati e non presi in considerazione. I recenti sviluppi tecnologici e l’adozione di dispositivi mobili hanno dato vita a una nuova aspettativa da parte degli utenti: accedere alle informazioni ovunque e in ogni momento. Questa collaborazione sta consentendo agli utenti di creare e condividere i dati a piacimento, e ai “dark data” di fluttuare liberamente fra una ampia gamma di dispositivi, tra cui smartphone, tablet e laptop “tradizionali”. Il problema è che molte aziende non dispongono delle policy e delle tecnologie necessarie per determinare best practice mirate alla protezione e all’archiviazione efficiente dei dati al di fuori del data center aziendale. Gli It manager sono spesso in difficoltà per il fatto di avere scarsa (o nulla) visibilità su quali dati vengano creati, oltre a disporre di un controllo limitato sulla loro modalità di archiviazione e mancata conoscenza del loro valore di business. Nonostante tutto questo non si traduca in un’interruzione di business, può senz’altro causare un aumento dei costi e il mancato sfruttamento di numerose opportunità. In una recente indagine, il Compliance, Governance, and Oversight Counsel (Cgoc) ha scoperto che, in media, il 69% dei dati aziendali non ha valore. Sostanzialmente le aziende

potrebbero spendere fino al 20% del proprio budget annuale per l’archiviazione di dati inutili. Oltre al costo dello storage di dati superflui, i rischi legati all’individuazione di dati necessari in caso di una violazione o in risposta a un’azione legale sono considerevoli. Tutto questo può rubare tempo e budget agli It manager, sottraendo banda alle esigenze di business immediate o richiedendo costose risorse esterne. La chiave per soddisfare l’esigenza di accumulo delle informazioni sta nell’identificare quali dati abbiano valore per un determinato dipartimento aziendale e per quanto tempo. Una volta che i dati sono stati valutati e indicizzati in modo appropriato, le aziende possono decidere meglio come e quando archiviarli – sia che questo avvenga localmente, nel cloud, fuori sede o utilizzando una combinazione di queste possibilità. I “dark data” rappresentano opportunità mai sfruttate di trasformare un’azienda. Emily Wojcik, senior product marketing manager, information management di CommVault.

21


SCENARI | Big Data

I GRANDI DATI IN SANITÀ: LA VERA OCCASIONE Device e app mobili, m2m e Big Data: i processi di cura e terapeutici possono migliorare grazie alle tecnologie. L’esperienza delle agenzie Usa e il caso dei “Pdta” in Italia.

I

l nuovo paradigma si può così sintetizzare: milioni e milioni di persone sono dedite a tracciare i parametri delle attività fisiche e di recupero e gli operatori sanitari sono sempre più stimolati ad adottare sistemi per analizzare questi dati e migliorare l’efficienza delle prestazioni mediche. La cartella clinica di ogni singolo individuo tenderà ad aggiornarsi in real time (grazie a specifiche app mobili) e si renderà disponibile sempre e dovunque. Il percorso teso a portare i dati delle attività personali di ogni cittadino/utente all’interno dei servizi sanitari è, però, solo all’inizio. La maggior parte della spesa in fatto di Big Data nel settore healthcare, infatti, è attualmente orientata alla realizzazio22

| FEBBRAIO 2015

ne dei framework e delle infrastrutture necessarie a sostenere i progetti di studio in campo farmaceutico. Ma le applicazioni capaci di raccogliere, catalogare e analizzare la grande mole di informazioni relative alla salute personale sono già ora un fenomeno in forte ascesa. Stando a uno studio commissionato da Emc a MeriTalk, un’associazione americana pubblico-privata attiva nel campo dell’e-government, l’impatto che i grandi dati avranno nel settore sanitario è tutt’altro che trascurabile. Saranno in particolare le nuove tecnologie, a cominciare dal mobile (device e app) per finire con il machine-to-machine (inteso come apparati per raccogliere e distribuire i dati medici senza l’intervento uma-

no), ad alimentare questo cambiamento. Il 60% dei dirigenti sanitari intervistati afferma che i Big Data aumenteranno la capacità di fornire cure preventive e si dichiara convinto che il raggiungimento dei propri obiettivi nei prossimi cinque anni dipenderà dal saper massimizzare con successo le informazioni a disposizione. Le agenzie sanitarie, dal canto loro, stanno pian piano abbracciando la materia: una su tre ha lanciato almeno una iniziativa sui Big Data, una su tre li utilizza per migliorare la cura dei pazienti e per ridurre i costi di assistenza e circa una su cinque vi ricorre per aumentare il numero di diagnosi precoci. Ma c’è un problema: meno del 20% delle agenzie sanitarie censite si dice pronto


ALLA SCOPERTA DELLA NETWORK PHYSIOLOGY Oltre al volume, alla velocità di generazione e alla varietà di formato, un elemento che caratterizza trasversalmente i Big Data è la complessità. La generazione di grandi dati prevede l’utilizzo di sensori, la misura e il monitoraggio di fenomeni che evolvono con differenti scale temporali, la necessità di individuare relazioni tra sistemi, la definizione di modelli descrittivi e interpretativi. La gestione di queste nuove fonti di dati richiede più evolute capacità di immagazzinamento e recupero degli stessi, nonché lo sviluppo di metodologie di analisi e rappresentazione. Applichiamo questo assunto al corpo

umano, una macchina complessa in cui diversi sistemi fisiologici interagiscono continuamente e in cui il cattivo funzionamento dell’uno può influire sugli altri, causando un deterioramento del sistema nel suo complesso. Sino a oggi si è privilegiato lo studio del singolo organo e della sua funzionalità. Serve quindi una più approfondita conoscenza delle capacità di interazione dei diversi organi. L’invecchiamento della popolazione e la capacità di cura rispetto a molte patologie sta determinando un cambio dei profili di salute, con soggetti sempre più anziani e affetti da malattie croniche multiorgano. Questo nuovo quadro epidemiologico

a lavorare con le tecnologie abilitanti per i Big Data e solo un terzo ha investito in sistemi e soluzioni It per ottimizzare il data processing e ha preparato il personale informatico a gestire i grandi dati. Limiti che, stando agli orientamenti degli addetti ai lavori, dovrebbero essere presto superati, al pari delle criticità legate alla protezione dei dati dei pazienti. E in Italia?

a circa 8 miliardi di euro. Il problema è che solo il 16% dei Pdta si avvale di supporti informatici e ben 18 aziende su 43 non hanno alcun percorso informatizzato. Se si integrassero con la cartella sanitaria elettronica, peraltro ancora poco diffusa, i Pdta porterebbero a una riduzione di circa il 20% dei giorni di ricovero per le infezioni e le polmoniti e del 42% delle complicazioni prevenibili in ospedale. Un saving vitale per il sistema sanitario nazionale, che conferma come l’applicazione delle tecnologie nei percorsi assistenziali possa tagliare i costi dei processi di cura, e in particolare quelli legati alla documentazione e all’adesione del paziente alle terapie. I dati, i Big Data, nelle aziende sanitarie ci sono. Basterebbe “solo” utilizzarli al meglio, rendendo pervasivo e sistemico, come dice espressamente Walter Locatelli, Vice presidente Fiaso e Dg della Asl di Milano, il ricorso alle tecnologie informatiche pensato per i Pdta. Con l’idea, perfetta sulla carta, di costruire sistemi che traccino costi e percorsi assistenziali e terapeutici di ogni singolo paziente. Piero Aprile

Più terapie e minori costi

Un quadro di come e quanto le tecnologie Ict in genere siano utilizzate nella sanità italiana l’ha disegnato di recente un’indagine a firma della Fiaso, la federazione che riunisce Asl e ospedali del Belpaese. Il dato su cui ragionare è quello relativo ai cosiddetti Pdta, acronimo che sta per Percorsi Diagnostico Terapeutici e Assistenziali. Quelli dichiarati attivi o di prossima attivazione dalle 43 aziende campione sono circa 340; di questi, 293 risultano già funzionanti mentre altri 45 lo saranno entro l’anno. Il risparmio stimato dal Ministero della Salute derivante dall’uso di questo strumento, solo evitando le prescrizioni farmaceutiche improprie, ammonta

rappresenta una delle principali cause di ripetuta ospedalizzazione e sta determinando importanti cambiamenti nell’approccio clinico. Lo studio di questo universo di dati e relazioni, che guarda alla fisiologia dei sistemi, passa sotto il nome di “network physiology”. L’attenzione dei ricercatori è quindi rivolta allo sviluppo di nuove tecnologie di analisi volte all’identificazione delle diverse reti fisiologiche e all’applicazione dei Big Data a uno spettro sempre più ampio delle patologie che accompagnano il nostro invecchiamento. Giandomenico Nollo, BIOtech dip. ing. industriale Università di Trento

ANALYTICS INDOSSABILI ll mercato delle soluzioni di analytics in campo healthcare potrebbe valere oltre 52 milioni di dollari entro il 2019. Un valore risibile rispetto ai circa 30 miliardi spesi nel complesso da aziende e governi per i Big Data (hardware, software e servizi) nel 2014? Sì, ma il dato espresso da Abi Research indica una tendenza ben precisa, e cioè che l’utilizzo dei grandi dati interesserà sempre di più il mondo della sanità. Anche grazie a un fenomeno molto di moda quale quello dei wearable (wireless) devices. Tutte le informazioni raccolte dai dispositivi indossabili dedicati al fitness e alla cura della salute costituiranno, infatti, una parte importante dell’universo di “byte” che via via verranno integrati nei sistemi di health management e di assistenza sanitaria.

23


il o t i b ri su

Scop

CYBERSECURITY & RISK MANAGEMENT

LEADERSHIP PROGRAM 2015 ||€l9ld&Gb*dŠlĂ˜ 9l€b ­Gld*Ă˜ <<Gl€d b*dŠl l…Š dŠ*

CYBERSECURITY & RISK MANAGEMENT LEADERSHIP PROGRAM ÂŽÄš ŞųŅÄ?ų¹ľľ¹ ĂšÄœ üďüƴ¹ƋŅ ŞųŅĀďŅ Şüų ß¹ƴĹ…ĹłÄœųü ÄŹÂą ĂšÄœĂ˝ĆšŸÄœĹ…Ěü ĂšÄœ Ă?ŅĚŅŸĂ?üĚDŽ¹ ĂĽĂš ĂĽĆťĹžĂĽĹłĆ‹ÄœŸü ŸĆšÄŹ Ć‹üľ¹ Úüď controllo e mitigazione del Rischio Cyber, che si articola in varie attivitĂ strutturate nel corso del 2015. Cosa trovi nel Program? Un sito tematico con news, interviste e analisi, ĂĽĆ´ĂĽÄšĆ‹Äœ Ä€ŸÄœĂ?Äœ e digitali in cui sono trattati i temi piĂš attuali legati all’evoluzione del rischio Cyber. Inoltre, il Program è arricchito con contenuti sviluppati dagli analisti di The Innovation Group, con l’ausilio di un Partner Tecnico, un Advisory Board di esperti e dai Program Partner, Aziende Leader del settore ICT. A cura di

Partner Tecnico

The Innovation Group Innovating business and organizations through ICT

Program Partner

Scoprilo subito su http://channels.theinnovationgroup.it/cybersecurity Per ulteriori informazioni: security@theinnovationgroup.it - tel. 02 87285500 - www.theinnovationgroup.it


SPECIALE | Cloud computing

IL PUBBLICO VINCE SUL PRIVATO Nonostante permangano alcuni timori legati alla sicurezza e alla riservatezza dei dati, il public cloud sta crescendo a tassi superiori rispetto al private. Il motivo? Piace soprattutto alle piccole e medie imprese, anche italiane.

L

e aziende italiane sono le più propense a optare per la nuvola pubblica (53% contro una media europea del 46%). Questo secondo una ricerca commissionata da Barracuda Networks a Techconsults, che conferma un trend positivo e in forte crescita rispetto all’andamento in Europa. Nel Vecchio Continente è soprattutto il reparto It a promuovere

l’utilizzo dei servizi di cloud pubblico nella maggior parte delle aziende (54%), seguito dai responsabili delle business unit (30%). L’Italia è abbastanza allineata, con un’unica significativa differenza: il management lo promuove meno che nel resto d’Europa (9% contro la media del 30%). Secondo quanto riportato da Netconsulting, il cloud continua nella sua in-

cessante ascesa, sia per la componente pubblica sia per quella privata. Ma se il modello “private” cresce con un tasso superiore al 20%, con quello “public” si arriva quasi al 50%. L’incremento registrato nei primi sei mesi del 2014, e riportato da Assinform, va a conferma dei trend notati già nell’anno precedente. Un’importante crescita del cloud pubblico emerge anche dai dati FEBBRAIO 2015 |

25


SPECIALE | Cloud computing

resi noti dall’Osservatorio Cloud & ICT as a Service, edizione 2014, promosso dalla School of Management del Politecnico di Milano: +40% rispetto al 2013 e un mercato che vale 320 milioni di euro. In base all’indagine di Barracuda Networks lo scambio e trasmissione dei dati, messaggistica e storage sono le aree in cui oggi come oggi si nota maggiore propensione ad adottare il cloud pubblico. L’unico dato in controtendenza per l’Italia riguarda il trasferimento dei dati (9% rispetto al 15% della media europea). Dal report dell’Osservatorio del Politecnico risulta che, tra i settori in cui le aziende italiane hanno maggiormente investito, ci sono il document management, il finance & accounting e il Crm & sales. Sono ambiti dinamici anche l’enterprise social collaboration, la business intelligence, il marketing demand generation, il social & web analytics e le soluzioni verticali per specifici ambiti di business. Timori per la sicurezza

Dalla ricerca di Barracuda Networks emerge che poco più della metà degli It

manager coinvolti ritiene che la sicurezza sia uno dei principali timori quando si implementa un servizio di cloud pubblico: il 39% sostiene che esistano problemi di compliance e il 35% non vuole rinunciare al controllo. L’Italia non fa eccezione ma, rispetto agli altri Paesi, la sfiducia generale verso questo genere di servizi è meno rilevante (6% contro una media europea del 18%). La prevalenza degli intervistati (66%) è convinta che le informazioni aziendali non siano maggiormente tutelate nella propria infrastruttura. Infatti, se il 27% ritiene che le agenzie di intelligence governative possano accedere inosservate ai dati su cloud pubblico, circa il 22% (in Italia la quota si dimezza all’11%) pensa che questo possa accadere anche per i server aziendali. Anche secondo Microsoft uno dei temi cruciali è la sicurezza. “È tra i maggiori ostacoli, insieme alla localizzazione dei dati e all’eccesso di standardizzazione delle soluzioni, per l’adozione del cloud pubblico”, spiega Andrea Cardillo, direttore della divisione cloud & enterprise di Microsoft Italia. “Per quanto riguarda la sicurezza abbiamo un fortissimo posizionamento sul mer-

AZIENDE E SERVIZI DI CLOUD PUBBLICO

Fonte: Barracuda Networks e Techconsults, 2014 26

| FEBBRAIO 2015

cato attestato da una serie di certificazioni Eu Model Clauses”. Remore sì, ma superabili e superate, come afferma Stefano Sordi, direttore marketing di Aruba: “Quando le aziende hanno capito che i propri dati erano custoditi da professionisti esperti dotati di hardware di classe professionale e in grado di occuparsi autonomamente di tutta la parte di aggiornamenti e bug, hanno iniziato ad affidarsi con sempre maggiore fiducia al cloud, liberandosi dell’infrastruttura”. Grande spinta dalle Pmi

Dall’indagine Barracuda Networks emerge che la “nuvola” pubblica si sta rapidamente diffondendo in Italia e Spagna, ovvero dove prevalgono le organizzazioni di piccole e medie dimensioni che sono state maggiormente colpite dalla crisi economica. Queste preferiscono il public cloud per varie ragioni, tra le quali innanzitutto l’ottimizzazione dei costi, la flessibilità e la semplificazione. Lo conferma Simone Battiferri, direttore business di Telecom Italia e presidente di Olivetti: “Nell’ultimo anno è stato il cloud pubblico ad avere il maggiore incremento, rispetto a quello privato, più maturo e comunque cresciuto in modo costante. Una forte spinta arriva dalle piccole e medie imprese, grazie all’adozione di servizi ‘ready to use’ come office automation, posta certificata, unified communication e così via. Servizi che nel modello tradizionale non erano accessibili a causa degli elevati investimenti necessari”. Telecom Italia ha potuto constatare come le Pmi italiane apprezzino che questi servizi siano proposti, spiegati e venduti da una persona in grado di offrire anche supporto e assistenza alla configurazione, perché spesso il livello di informatizzazione è basso, almeno su alcuni settori in cui permane un gap culturale e tecnologico. Per Giuseppe Sini, direttore commerciale di Retelit, “Le Pmi sono sem-


GLI AMBITI DI ADOZIONE SCAMBIO/TRASMISSIONE DEI DATI

COMUNICAZIONE

PAGINE WEB

STORAGE

CRM

PAGAMENTI

SICUREZZA IT

NESSUNO

37,6% 15,4% 34,5%

UTILIZZO PREVISTO

14,9% 33,6%

UTILIZZO ATTUALE

14,5% 34,4% 13,9% 29,6% 11,6% 23,8% 10,8% 23,7% 9,3% 26,2% 71,7%

Fonte: Barracuda Networks e Techconsults, 2014

pre più convinte che le caratteristiche dell’infrastruttura cloud, soprattutto la rapidità e la facilità di utilizzo, possano migliorare notevolmente il loro business”. Dello stesso avviso anche Roberto Patano, senior manager systems

engineering di NetApp: “Tra le aree emergenti ci sono gestione e amministrazione del personale, Erp/gestionali e posta elettronica certificata. Proprio da questi elementi emerge il fatto che il cloud è un settore in cui si comincia a

vedere la presenza crescente delle pmi, che prima erano più restie per una serie di motivazioni, tra cui anche la mancanza degli skill necessari per approcciare determinati argomenti”. Maria Luisa Romiti

IL MODELLO IBRIDO AIUTA LA TRANSIZIONE Negli ultimi dodici mesi si è assistito a un’accelerazione importante nell’adozione del cloud da parte delle aziende italiane e internazionali. Oggi sta avendo un’ulteriore trasformazione verso modelli ibridi che uniscono ciò che c’era prima, sistemi on prEmise, con quello che ci sarà dopo (cloud), in un concetto allargato di azienda estesa, sempre più orientata a trovare il modo di colloquiare con i propri clienti, a carpirne i comportamenti e realizzare servizi competitivi da portare

velocemente sul mercato. Così dice Filippo Rizzante, Cto di Reply. “L’esperienza maturata sul campo in progetti cloud importanti, la ricerca, la formazione di competenze in innovazione tecnologica, metodologica e di processo, ci consentono oggi di supportare il cliente in tutte le fasi di un progetto cloud. Per fare degli esempi, grandi aziende nel retail, così come i telco operator, sono tra quelli ad essersi maggiormente attivati nell’adozione del cloud a supporto di servizi quali l’e-commerce e sistemi di Crm”.

Filippo Rizzante

27


TECHNOPOLIS PER DELL

VIOLAZIONI IT: LE IMPRESE E LA VALUTAZIONE DELLA SICUREZZA

Florian Malecki, director product marketing di Dell Software

Negli ultimi anni gli attacchi alla sicurezza sono costati milioni di euro ad aziende pubbliche e private. Un recente sondaggio svolto da Dell su circa 1.500 aziende in tutto il mondo ha rivelato che l’87% di queste ha sperimentato un attacco nei dodici mesi precedenti, con perdite per circa un miliardo di dollari. È quindi abbastanza evidente che le imprese stanno adottando un approccio alla security basato su un rapporto costi/benefici. Tutti sanno che la sicurezza è importante, quasi tutti hanno vissuto una violazione di qualche sorta, e tuttavia meno del 20% è disposto o è in grado di fare investimenti che rendano la sicurezza proattiva invece che reattiva. Per utilizzare una terminologia tipica del risk management, alcune perdite vengono considerate un rischio accettabile, e cioè un rischio compreso e tollerato poiché il costo o la difficoltà legati all’implementazione di una contromisura efficace eccedono le aspettative di perdita. Tutto questo discorso è un po’ vago e non tranquillizza i chief information officer. 28

| FEBBRAIO 2015

La sicurezza è lungi dall’essere una scienza esatta e il motivo è semplice: si tratta di un ambito molto complesso. Le aziende intervistate che hanno sperimentato un attacco citano violazioni dall’esterno, errori dell’utente, manchevolezze del service provider e phishing come alcune delle cause. Le società di servizi finanziari hanno evidenziato gli attacchi dall’esterno come principale causa di violazione e considerano gli hacker professionisti il rischio principale da combattere nei prossimi cinque anni. Le minacce si nascondono in reti, endpoint e dispositivi, spesso celate in setting e permessi mal configurati, o in policy di data governance, di accesso e di utilizzo inefficaci. Queste minacce non identificate fino a poco tempo fa arrivano dall’intero perimetro dell’organizzazione e possono facilmente permeare processi, asset e account individuali. Proviamo a immaginare un costo per ciascuna di queste violazioni e minacce. Ognuna potrebbe causare un outage It minimo oppure un malfunzionamento critico. Pensiamo a un istituto finanziario che “perde” un email server per una giornata: come si calcolano i danni? Il 58% di queste realtà ritiene che il rischio maggiore sia legato alla perdita di dati critici, ma come conteggiare realmente questo costo? Il primo passo è quello di fare un audit a livello aziendale. Se il budget è limitato, assegnare delle priorità agli asset principali è un buon punto di partenza. Poiché le minacce arrivano sia dall’esterno sia dall’interno dell’azienda, valutare la protezione del perimetro è un’operazione che comprende l’ambiente It fisico, la rete virtuale, l’accesso alle applicazioni da parte di utenti, partner e clienti, oltre al sabotaggio – intenzionale o meno – da parte dei dipendenti. Solo monitorando e analizzando ogni failure, calcolandone il costo per l’azienda, è possibile farsi un’idea chiara delle perdite causate dalle violazioni. Forse va contro la natura dei Cio affermare che le perdite derivano da un malfunzionamento dell’It. Attualmente, un istituto finanziario spende in media il 16,5% del proprio budget totale sulla sicurezza It. Dimostrando in maniera più accurata il collegamento tra le violazioni e le perdite di fatturato, i chief information officer potrebbero ottenere molto di più quando si tratta di definire le allocazioni di budget.


SPECIALE | Cloud computing

TUTTO SULLA NUVOLA Pubblico, privato o ibrido, per offrire infrastrutture, piattaforme e software. Tante combinazioni e proposte differenti, adatte a soddisfare le esigenze delle grandi aziende così come quelle delle piccole e medie imprese.

N

el cielo delle aziende italiane si allarga la nuvola del cloud pubblico. Negli ultimi mesi questo modello è stato adottato non solo da start up o da aziende nativamente digitali, ma anche da società di grandi dimensioni che stanno intraprendendo progetti di It transformation, spesso guidate dalla ricerca di maggiore flessibilità infrastrutturale e di minori costi. I servizi più ricercati sono le soluzioni Infrastrucutre-as-a-Service (IaaS), apprezzate per ragioni di costi, e quelle che consentono di realizzare i progetti di

Big Data, altrimenti troppo complessi da gestire in house. È questo il pensiero di Andrea America, head of cloud platform in Google for Work Italia, che così illustra l’offerta dell’azienda: “A fianco dei servizi di messaging & collaboration, Google Apps for Work, negli ultimi anni Google ha lanciato e arricchito gradualmente la propria piattaforma, costituita da un set di servizi modulari cloud-based, e fondata su una componente IaaS, Compute Engine, che mette a disposizione oltre quaranta configurazioni di virtual machine su sistemi operativi Linux (free e 29


30

| FEBBRAIO 2015

ANDREA CARDILLO - MICROSOFT

NICOLA PREVIATI - AMAZON WEB SERVICES

FRANCESCO BARONCELLI - CLOUDITALIA

FEDERICO RIBOLDI - FUJITSU

ANDREA BERTOLDO - BT

ALESSANDRO GABRIELI - HP

delle aziende italiane al cloud pubblico, almeno per una parte della propria infrastruttura, è possibile e facilitato se affrontato con un approccio adatto al nostro Paese. “Per questo”, spiega il manager, “proponiamo un cloud di prossimità, non affidato ai player internazionali ma a un provider locale con riferimenti sul territorio e con soluzioni non solo standard. Un processo già sperimentato con successo nelle Tlc e adesso integrato con i servizi cloud”, Clouditalia offre soluzioni Iaas (virtual data center, disaster recovery, backup e servizi professionali), oltre a soluzioni Paas e Saas a progetto. “Disponiamo di un e-commerce per la vendita di virtual machine, che è anche una piattaforma white label per la rivendita di servizi da parte dei partner”, conclude Baroncelli. Le offerte di IaaS e di PaaS sono sfruttate dalle aziende per migrare o per modificare applicazioni già esistenti. Il Software-as-a-Service è, invece, il modello dominante nell’area della collaboration. Nel caso di Microsoft Ita-

MARCO SPROVIERO - KPNQUEST

MARCO PENNAROLA - FASTWEB

GIUSEPPE SINI - RETELIT

a pagamento) e Windows. C’è poi una componente Platform-as-a-Service, App Engine, che consente di eseguire le applicazioni in un ambiente completamente gestito e, quindi, di focalizzarsi sullo sviluppo degli applicativi anziché sulla parte infrastrutturale”. Amazon Web Services sta continuando a espandere la propria proposta: attualmente sono disponibili più di quaranta servizi che vanno dall’offerta di capacità di calcolo, storage, database, networking fino a sistemi per l’analisi di dati, per il deployment, management, monitoring e per lo sviluppo di applicazioni mobile. “Abbiamo la capacità di eseguire hardware dedicato a un singolo cliente, ottimizzare l’investimento e gestire la capacità con istanze on-demand, reserved, e spot”, afferma Nicola Previati, territory manager di Amazon Web Services per l’Italia. Il Marketplace offre attualmente più di 1.600 prodotti software da eseguire su Aws e disponibili su base oraria da Isv come Sap, Oracle o Adobe. “Parlando di Paas”, prosegue Previati, “proponiamo Amazon Elastic Beanstalk, che consente agli sviluppatori di avviare semplicemente la propria applicazione nel cloud ed eseguirla automaticamente. Per quanto riguarda invece la necessità di gestire operazioni più sofisticate, due sono i sistemi che possono aiutare i nostri clienti: Aws Cloud Formation e Aws OpsWorks”. Nella visione di Clouditalia, come spiega Francesco Baroncelli, direttore mercato e operations, il passaggio

ANDREA AYMERICH - GOOGLE

SPECIALE | Cloud computing

IBRIDO È MEGLIO, ECCO PERCHÉ Poter utilizzare un mix di risorse on premise ed esterne, spostando dinamicamente i carichi di lavoro a seconda della tipologia e delle necessità, rappresenta un vantaggio operativo e di business. Secondo Andrea Bertoldo, responsabile servizi cloud, Europe di Bt Global Services, le ricerche sul campo mostrano che le aziende hanno necessità di soluzioni cloud flessibili e capaci di comprendere elementi diversi: ed è per questo che le preferenze, in fase di scelta dei fornitori, si stanno orientando verso provider in grado di orchestrare la gestione di data center e reti. “Potendo contare sulle proprie riconosciute competenze di ‘networked It service provider’, con una rete globale e una consolidata strategia cloud che l’ha portata ad avere oggi venti piattaforme cloud locali in quattro continenti”, afferma il manager, “Bt ha nel tempo costruito un’offerta (la famiglia di servizi Bt Cloud Compute) che permette alle aziende di gestire l’inevitabile complessità delle loro infrastrutture It con architetture cloud ibride”.


IaaS pubblico e privato

Aruba propone soluzioni di cloud pubblico e privato fornite in modalità Iaas per graddi aziende, Pmi e Pubblica Amministrazione. “Lo scorso anno

STEFANO SORDI - ARUBA

SIMONE BATTIFERRI - TELECOM ITALIA

“A partire dal 2012 l’offerta cloud di Fastweb, FastCloud, è evoluta per essere sempre più competitiva”. Parola di Marco Pennarola, manager of Marketing Enterprise dell’azienda, che spiega: “Questo è avvenuto grazie alla realizzazione di una piattaforma infrastrutturale proprietaria, base irrinunciabile per l’erogazione di un servizio dotato di elevati gradi di performance, affidabilità, unitamente alla diffusione geografica della rete, all’evoluzione tecnologica della virtualizzazione, ai data center di nuova generazione, a skill e know-how del competence center interno. La strategia di eccellenza su tutta la proposizione di servizi It si è concretizzata con un notevole investimento per la realizzazione di nuovi data center, il primo a Milano, unico in Italia certificato Tier IV dall’Uptime Institute”. La proposizione end-to-end di servizi pensata per il mondo aziendale si è sviluppata con soluzioni IaaS di virtual server, storage, backup, disaster recovery, virtual data center, e con soluzioni SaaS di unified communication & collaboration. KpnQwest Italia ha attivi quattro data center all’interno del campus di via Caldera a Milano. “La nostra architettura cloud è totalmente ridondata in due data center distinti collegati in fibra ottica”, spiega il direttore commerciale, Marco Sproviero. “Grazie alla partnership da poco siglata con Hp, stiamo per abilitare l’infrastruttura per offrire anche servizi di virtual data

rativa ai nostri servizi gestiti”, precisa Federico Francini, presidente e amministratore delegato di Fujitsu Italia. “Il nuovo data center completa la nostra offerta perché permette di superare alcuni dei maggiori ostacoli all’adozione del cloud, come la preoccupazione per il rispetto delle normative connesse alla gestione dei dati locali e per il controllo dell’accesso”.

SALVATORE TURCHETTI - EMC

Data center “nazionali”

center: il nostro cliente potrà controllare in piena autonomia tutte le componenti della propria architettura virtuale, contando sempre su un supporto specialistico diretto e personalizzato”. Lo scorso anno Fujitsu ha rafforzato la strategia di investimento in Italia, nel settore della nuvola e dei servizi gestiti, con l’annuncio dell’infrastruttura Fujitsu Cloud IaaS Private Hosted erogata da un data center situato a Milano. “In questo modo riusciamo a dare maggiori garanzie ai clienti locali privati e pubblici dal punto di vista della prossimità territoriale dei dati, nonché a fornire una notevole potenza elabo-

ROBERTO PATANO - NETAPP

lia, come spiegato dal direttore della divisione cloud & enterprise, Andrea Cardillo, “l’offerta SaaS legata alla collaboration e alla produttività include Office365 e Dynamics Crm Online. Per quanto riguarda le modalità IaaS e PaaS, a guidare è Azure, che a oggi presenta più di quaranta servizi di piattaforma che vanno dall’evoluzione dei data center, ai servizi Web e mobile, ai Big Data e all’Internet of Things”.

SOLUZIONI A 360 GRADI Le piattaforme tecnologiche di Telecom Italia permettono di offrire servizi a tutti segmenti di mercato, dall’enterprise alla piccola impresa. qualche che cambia è il packaging, ossia come sono strutturate le offerte. A dirlo è Simone Battiferri, direttore business di Telecom Italia e presidente Olivetti. “Le grandi aziende”, spiega, “prediligono servizi IaaS, in cui solidità e dimensione delle infrastrutture di Telecom Italia giocano un ruolo fondamentale, e utilizzano le piattaforme per far girare software di loro proprietà. Le piccole e medie imprese, invece, tendono a preferire servizi ‘chiavi in mano’ (ovvero SaaS)

perché difficilmente hanno risorse e know-how per configurare i servizi, installare o sviluppare internamente gli applicativi. L’offerta di Telecom Italia è strutturata per soddisfare tutte queste esigenze”. Da ottobre 2014 l’operatore di telecomunicazioni ha messo a disposizione delle piccole e medie imprese e di professionisti il nuovo portale Nuvola Store: un marketplace di servizi che vanno dall’offerta IaaS di base al dominio, all’antivirus, fino a Office 365. Tutti possono essere acquistati con carta di credito, PayPal e altre modalità che comprendono, per i clienti Telecom Italia, anche l’addebito sul costo della bolletta telefonica.

31


SPECIALE | Cloud computing

abbiamo lanciato numerosi servizi per ampliare l’offerta, dal Cloud Object Storage al Cloud Unified Storage, fino all’Extra Control Monitoring, pensato per le imprese che vogliono controllare nel dettaglio il consumo delle proprie virtual machine e di Cloud Backup per la gestione e il mantenimento in piena sicurezza dei propri backup, anche di interi server dedicati o virtuali”, afferma Stefano Sordi, direttore marketing di Aruba. “Credendo fortemente nella multicanalità abbiamo anche lanciato l’applicazione Aruba Cloud Computing, che consente di visualizzare le caratteristiche dei data center e di effettuare operazioni sui cloud server via smartphone e tablet”. Il marchio di Retelit per il mercato corporate, e-via, propone una soluzione cloud con connettività Ethernet privata o Internet pubblica alle aziende bisognose di estendere gli ambienti di storage in modo facile e trasparente. L’offerta consente di realizzare in autonomia, o con il supporto del team di progettazione, soluzioni di disaster recovery e business continuity personalizzate, potendo contare sulle prestazioni delle connessioni in fibra ottica. “Il cloud di e-via”, spiega Giuseppe Sini, direttore commerciale di Retelit, “viene erogato all’interno dei nostri data center in modalità IaaS. L’estrema flessibilità è garantita anche dal modello pay per use”.

premise”, afferma Roberto Patano, senior manager systems engineering di NetApp. “Si possono anche sostituire le tradizionali soluzioni di backup, archiviazione e recupero con lo storage integrato nel cloud NetApp SteelStore, per fare il backup e recuperare i dati aziendali su Aws in modo sicuro ed efficiente”. Emc ha adottato un programma spe-

livello locale o internazionale. In qualità di membro Platinum tra i fondatori di OpenStack Foundation, Hp ha assunto un ruolo guida nello sviluppo di offerte indirizzate alle grandi aziende e basate sulle tecnologie OpenStack. “A livello internazionale”, aggiunge Alessandro Gabrielli, cloud director di Hewlett-Packard Italiana, “lo scorso anno Hp ha finalizzato l’acqui-

cifico per i cloud service provider che prevede lo sviluppo e l’analisi dei servizi secondo i loro differenti target e le richieste del mercato, attraverso una piena partnership. A detta di Salvatore Turchetti, responsabile divisione service provider di Emc Italia, il programma “sta ottenendo un rilevante successo” e si pone come obiettivo “la parnership con grandi player internazionali e realtà regionali, per soddisfare le specifiche esigenze delle aziende”, operino esse a

sizione della piattaforma Eucalyptus, che permette di creare un’infrastruttura cloud privata, ma compatibile con l’offerta di Amazon Web Services. Nello Stivale, invece, l’azienda statunitense ha stretto di recente un accordo commerciale con Telecom Italia per proporre alle grandi aziende e alla Pubblica Amministrazione, “un’offerta integrata di servizi di cloud transformation erogati in modalità end-to-end”, conclude Gabrielli. M.L.R.

Tecnologie e soluzioni per i fornitori di servizi cloud

NetApp collabora con i principali player di mercato per fornire soluzioni che semplifichino la transizione verso il cloud. Recentemente ha reso disponibili su Amazon Web Services due nuovi prodotti. “Il sistema NetApp Cloud Ontap su Aws permette ai clienti di controllare i propri dati in cloud con le stesse funzioni di gestione del sistema operativo NetApp Data Ontap e con una serie di semplici interfacce e strumenti che utilizzano anche on 32

| FEBBRAIO 2015


TECHNOPOLIS PER BT

SFRUTTARE LE POSSIBILITÀ OFFERTE DAL CLOUD

La grande varietà di opzioni offerte dal cloud permette di fare sempre la scelta migliore e di perseguire la soluzione ottimale, con il vantaggio di pagare solo per quello che si utilizza potendo comunque contare su prestazioni e affidabilità. È possibile anche continuare a sfruttare gli investimenti in It già compiuti, collegando le architetture on-site ai data center per poter accedere ai servizi cloud più rapidamente e facilmente, e senza dover riprogettare completamente le infrastrutture aziendali. Grazie a venti data center cloud-enabled, distribuiti in tutto il mondo, BT può aiutare le imprese a sfruttare pienamente i benefici del cloud, offrendo servizi prossimi alle sedi delle aziende, in modo da favorire sia le performances sia la compliance normativa. BT ha messo a punto un’offerta in cui l’approvvigionamento dei servizi è semplice, la capacità può essere adattata in modo flessibile e lo spostamento di dati tra cloud pubblici e privati è facile. Le aziende possono anche avvalersi dei servizi “enterprise class” di backup, sincronizzazione e condivisione di file basati su cloud, evitando i rischi di perdite di dati e i data leak che caratterizzano i servizi di archiviazione consumer, spesso meno sicuri. L’offerta IaaS di BT, denominata BT Cloud Compute, prevede un’infrastruttura di data center preconfigurata che consente di creare, implementare, monitorare e gestire i servizi cloud aziendali. Un portale self-service garantisce

gli strumenti, le risorse, l’esperienza e soprattutto la flessibilità, per mettere a punto soluzioni cloud personalizzate e perfettamente coerenti con le sfide di mercato che le aziende devono affrontare. BT Cloud Compute supporta le esigenze di business specifiche grazie all’ampia gamma di opzioni disponibili, dal public al private cloud, e può essere integrato e gestito in ambienti ibridi. BT ritiene, infatti, che il cloud ibrido sia l’architettura ottimale per gestire l’inevitabile complessità di un’infrastruttura It aziendale, poiché consente all’azienda di selezionare il modello più opportuno di delivery dei servizi per ciascuna applicazione. Cloud Compute permette di migliorare il time-to-market e di ridurre i costi operativi del servizio grazie al self-service, che permette di impostare l’infrastruttura più adatta con tempi di provisioning quasi immediati, alle economie di scala e all’utilizzo di tecnologie standard. Il delivery automatizzato consente quindi di lanciare nuovi servizi in modo rapido ed efficiente, con i più alti livelli di scelta, flessibilità e controllo. BT Cloud Compute è stato progettato per offrire la massima resilienza e la massima disponibilità (99,95%) grazie anche a capacità di “self healing”, con costante separazione fisico/logica per assicurare l’integrità. Rispetto agli approcci tradizionali, BT Cloud Compute permette di risparmiare fino al 40% e di avere l’affidabilità necessaria, grazie a un’infrastruttura enterprise-class che è in grado di scalare a livello globale, con presenza “locale” (uno dei venti data center cloud-enabled si trova in in Italia). Il cloud richiede un nuovo tipo di It e un nuovo approccio da parte dei Cio. Si tratta di creare nuove possibilità affinché le imprese possano innovare e sperimentare, continuando a svolgere le proprie funzioni essenziali in modo affidabile e sicuro. Per questo le imprese si aspettano che i provider assumano un ruolo di guida per l’innovazione e che sappiano gestire, e orchestrare, l’insieme dei servizi forniti da un ecosistema di partner. Nessuno conosce meglio di BT il funzionamento di reti e It. Grazie alle nostre competenze e capacità operative, possiamo mettere a disposizione tutto quello che occorre per liberare la creatività e sfruttare le possibilità che il cloud offre. Per approfondire l’offerta cloud di BT: http://www.globalservices.bt.com/it/it/products/cloud_ compute 33


TECHNOPOLIS|PER ECCELLENZE.IT SedBROTHER ut perspiciatis

BROTHER HL-S7000DN: INNOVAZIONE, RISPARMIO E RISPETTO PER L’AMBIENTE Brother, multinazionale nipponica fortemente orientata all’innovazione, vanta un’offerta ampia e variegata di apparecchiature per la stampa. Fiore all’occhiello è una stampante monocromatica unica nel suo genere: HL-S7000DN. Questo apparecchio, oltre a soddisfare le esigenze di ambienti di lavoro caratterizzati da ingenti volumi di stampa, si distingue per perfomance elevate, innovative funzionalità e massima tutela per l’ambiente. Caratteristica fondamentale e fortemente differenziante di questo modello è la velocità strabiliante: ben 100 pagine al minuto. E, come se non bastasse, il costo pagina è altamente competitivo grazie alle cartucce da 30.000 pagine. La capacità carta è altrettanto elevata: la macchina può infatti gestire fino a 2.100 fogli. Oltre al design moderno e lineare e alla configurazione modulabile in base alle specifiche necessità, HL-S7000DN si caratterizza per l’elevata robustezza e l’affidabilità, elementi che accomunano tutti i prodotti Brother. HL-S7000DN si basa su una tecnologia “ibrida” che la rende unica in termini di prestazioni e rispetto per l’ambiente. Il fulcro è la combinazione di tre componenti: acqua, inchiostro e Primer. Quest’ultimo è un rivoluzionario sistema di pre-rivestimento della carta che fissa l’inchiostro riducendo così i rischi di sbavatura. Questo processo di stampa a freddo genera un consumo energetico pari a soli 130W, ben al di sotto dei 920W che caratterizzano una stampante laser tradizionale paragonabile come produttività. La tecnologia ibrida consente quindi di risparmiare notevolmente sui costi energetici e sul livello di emissioni di anidride carbonica. Questa particolare attenzione all’ambiente conferma l’impegno di Brother che, attraverso nuove tecnologie, realizza prodotti sempre più efficienti, funzionali e in grado di attuare uno sviluppo sostenibile. Per HL-S7000DN, come per altri dispositivi professionali, Brother ha recentemente formulato Pagine+, un programma di stampa gestita semplice e immediato. Pagine+ permette di amministrare il dispositivo di stampa in maniera snella e con costi di esercizio certi, convenienti e fissi per ben tre anni. La qualità delle pagine prodotte è inoltre garantita dall’utilizzo di soli consumabili originali. Il programma Pagine+ consente all’utilizzatore di ordinare i 34

| FEBBRAIO 2015

consumabili mediante un semplice portale, con una consegna in tempi brevi e garantiti. Il portale fornisce inoltre una visione chiara sulla gestione del dispositivo, sui suoi ritmi di funzionamento e sui costi legati a tali attività. Il programma Pagine+ basa i suoi conteggi sul numero di pagine prodotte e garantisce dunque un controllo totale dei costi oltre al monitoraggio costante dell’investimento economico legato ai sistemi di stampa. HL-S7000DN e Pagine+ concretizzano tutto l’impegno di Brother nella proposta di prestazioni elevate per il lavoro d’ufficio, nella semplice e chiara gestione dei dispositivi di stampa e nella tutela dell’ambiente!


ECCELLENZE.IT | Comune di Venezia

Le videocamere Hd di Avigilion sono state installate in punti chiavi della città e nella piazza principale di Mestre. Grazie alla possibilità di zoomare, sono un valido strumento di sorveglianza e di indagine nella lotta alla criminalità e al vandalismo.

L’OCCHIO VIGILE SULLA LAGUNA È DIGITALE E IN ALTA DEFINIZIONE

M

ilioni di turisti (55mila ogni giorno) e di residenti e un patrimonio artistico e paesaggistico unico al mondo meritano di essere protetti senza sosta. Fra gondole e canali, l’occhio della videosorveglianza non può mai dormire, ma quello del Comune di Venezia fino a poco tempo fa era un occhio miope, lento e non abbastanza vigile. La città lagunare disponeva, infatti, di mezzi ormai obsoleti. “Il sistema di videosorveglianza precedente, di proprietà comunale, era costituito da circa sessanta videocamere analogiche a bassa risoluzione, molto difficili da analizzare”, spiega Luciano Marini, comandante della Polizia Municipale di Venezia. “Gli apparecchi di registrazione video si guastavano spesso, con perdita parziale dei feed e conseguente difficoltà a utilizzarli come prove”. La svolta è arrivata con Avigilon: un’azienda specializzata in sistemi di videosorveglianza, consigliata al Comune veneziano da un suo partner, Venis. “Gli altri produttori non offrivano soluzioni comparabili in termini di risoluzione e neppure offrivano un’adeguata scelta di lenti per i diversi tipi di fotogramma”, sottolinea Marini. Diverse videocamere con risoluzione da 16 e da 8 megapixel

sono state installate in punti chiave della città, da Piazza San Marco al Ponte di Rialto, per trasmettere immagini verso il centro operativo di telecomunicazioni e videosorveglianza della polizia locale e verso ulteriori punti di controllo (in Piazza San Marco, nel comando operativo provinciale dei Carabinieri di Venezia e nel centro operativo della Polizia di Stato di Venezia). La trasmissione dei dati in Hd si appoggia alla rete in fibra ottica di proprietà del Comune. I risultati? Il sistema è un’arma potente nella lotta alla criminalità, al vandalismo e al commercio abusivo, un’arma basata su uno sguardo d’insieme in cui si può zoomare fino ad arrivare al dettaglio. “L’utilizzo di telecamere ad alta risoluzione, come quelle da 16 Mp, ci consente di ottenere immagini estremamente dettagliate che è possibile visualizzare anche durante l’analisi delle registrazioni”, spiega Marini. “Per ottenere gli stessi risultati, avremmo dovuto installare più telecamere sui monumenti vicini, con tutte le complicazioni del caso”. Impiegando il software Avigilon Control Center Enterprise, inoltre, le forze dell’ordine hanno ridotto drasticamente i tempi di ricerca dei fotogrammi. “I vantaggi si riscontrano quotidia-

namente”, testimonia il comandante Marini. “Per esempio, per contrastare le attività commerciali non autorizzate in precedenza dovevamo verificare tutte le segnalazioni, mentre ora possiamo monitorare le aree interessate e compiere interventi mirati”. LA SOLUZIONE Due telecamere Hd Pro di Avigilon da 16 e 8 Mp sono state installate nel Campanile di San Marco, celate negli archi, e altre sono state collocate sul Ponte di Rialto e a Mestre, in Piazza Ferretto. Il Comune utilizza inoltre il software Avigilon Control Center per le funzioni di ricerca e i registratori video in rete Network Video Recorder di Avigilon per archiviare un minimo di sette giorni consecutivi di riprese. Gli encoder Avigilon permettono di convertire in Hd tutti i feed video prodotti dalle telecamere analogiche esistenti. L’intero sistema poggia su un’infrastruttura di fibra ottica Multiprotocol Label Switching costruita da Venis ma di proprietà del Comune.

FEBBRAIO 2015 |

35


ECCELLENZE.IT | Sed Enphase ut perspiciatis Energy

LE CASE PIÙ ECOLOGICHE HANNO TETTI PIÙ CONNESSI Il produttore di pannelli fotovoltaici utilizza i router di MultiTech Systems, basati su moduli Telit per le connessioni m2m: l’energia green diventa, così, più facilmente monitorabile e gestibile da remoto.

U

n futuro più eco-friendly passa anche da una migliore connettività. Le comunicazioni machine-to-machine possono migliorare l’utilizzo dei pannelli solari come fonte di energia in grado di alimentare e riscaldare le case: lo sta dimostrando Enphase Energy, azienda californiana che distribuisce in tutto il mondo i suoi apparati fotovoltaici, insieme a MultiTech Systems e a Telit. Come? Integrando un sistema per il trasferimento dati all’interno dei pannelli, e superando il vecchio metodo che prevedeva di appoggiarsi a una rete WiFi o cablata domestica. Appoggiandosi alla rete di AT&T, i prodotti di Enphase possono trasferire centinaia di milioni di messaggi al giorno verso i server della società, con numerosi vantaggi: diventa possibile gestire da remoto i pannelli solari, monitorandone le attività e diagnosticando eventuali problemi. Questi sistemi fotovoltaici non sono soltanto meglio connessi, ma anche più abili e onnicomprensivi rispetto ai “vecchi” pannelli che limitavano i loro compiti al 36

| FEBBRAIO 2015

riscaldamento dell’acqua: oltre a raccogliere il 25% di energia in più rispetto al passato, possono convertire i raggi solari in elettricità utilizzabile per vari scopi nel contesto domestico. Questa evoluzione si traduce in un aumento della quantità di dati: dai pannelli partono oltre 500 milioni di messaggi al giorno, diretti verso i server di Enphase. Per gestire questo traffico, nei suoi prodotti l’azienda ha scelto i dispositivi System MultiConnect rCell 100 di MultiTech: integrati all’interno dei pannelli, portano direttamente “sul tetto” la connettività che in passato doveva sfruttare, con peggiori risultati, le reti domestiche WiFi o cablate. Il cuore di questi router è rappresentato dai moduli Telit della famiglia xE910, specifici per le connessioni machine-to-machine. Molti i vantaggi di questa triplice combinazione di tecnologie: i sistemi fotovoltaici possono essere monitorati e gestiti da remoto, e possono fare affidamento su connessioni stabili e ininterrotte. Inoltre, rispetto all’impiego di una rete WiFi, scompare il disagio di dover riconfigu-

rare la connessione in caso di cambio di una password o di altre modifiche. Secondo la visione di Enphase, i bassi costi connessi all’utilizzo di applicazioni cellulari affidabili e i progressi delle tecnologie m2m aiuteranno a portare energia pulita su due miliardi di tetti di abitazioni e luoghi di lavoro. LA SOLUZIONE II pannelli fotovoltaici di Enphase utilizzano i router industriali System MultiConnect rCell 100 di MultiTech, i quali incorporano moduli m2m di Telit della serie xE910 (i modelli CE910, DE910, GE910, HE910 e LE910). Attraverso la rete di AT&T, il sistema di gestione Envoy-S Gateway di Enphase permette di monitorare e amministrare da remoto i pannelli solari. L’utente può accedere ad alcune funzioni gestionali attraverso Enlighten, un’app per smartphone, tablet e Pc.


ECCELLENZE.IT | Sed Università ut perspiciatis Cattolica del Sacro Cuore

UN PATRIMONIO DA TUTELARE CON L’ASSET MANAGEMENT Il più grande ateneo cattolico d’Europa ha catalogato i suoi 13mila asset con il software Infor Eam, personalizzato con funzionalità di visualizzazione delle mappe planimetriche e di accesso da mobile. Dalla riparazione dei guasti si è passati alla manutenzione pianificata.

LA SOLUZIONE Il software Infor Enterprise Asset Management ha permesso di catalogare e monitorare 13mila asset, di registrare la storia del loro ciclo di vita e di produrre statistiche su Kpi, operatività ed efficienza degli interventi delle ditte esterne. Il modulo OpenCad, sviluppato da CadService, copre le esigenze di space management dell’Ateneo. La soluzione integra anche una suite di applicazioni mobili, usate dal personale addetto alla manutenzione su una trentina di smartphone e tablet Android per consultare mappe planimetriche e segnalare se l’intervento è andato a buon fine.

U

na storia iniziata nel 1921. Cinque campus universitari, fra Milano, Cremona, Brescia, Piacenza e Roma, 46 istituti, 25 dipartimenti, 76 centri di ricerca. Nella sola sede meneghina, oltre 140mila metri quadrati di aule, laboratori, mense, aree di servizio e spazi carichi di valore storico e architettonico. Per far superare la prova del tempo e mantenere al top tutto questo patrimonio, l’Università Cattolica del Sacro Cuore si è rivolta all’asset management: un approccio che si adatta agli ambienti complessi delle grandi aziende o – in questo caso – a quello del più importante ateneo cattolico d’Europa. Il corredo dell’Università comprende impianti di condizionamento, di illuminazione e di sicurezza, con migliaia di dispositivi come estintori e altre apparecchiature antincendio, ascensori, porte e uscite di emergenza, quadri elettrici, sistemi di continuità con componenti e servizi correlati. A complicare ulteriormente le operazioni, il fatto che in molti casi questi dispositivi sono collocati in aule e spazi di grande valore storico e architettonico.

Nel 2012 è emersa l’esigenza di un cambiamento: “Gli strumenti su cui potevamo contare per supportare queste attività di gestione erano ormai obsoleti, dal punto di vista sia tecnologico sia funzionale”, testimonia Stefano Vincini, capo servizio manutenzione e sviluppo applicativi della Direzione di area sistemi informativi dell’Università. “Disponevamo infatti di un sistema dedicato per il ticket management che non permetteva in alcun modo la gestione degli asset, ma si limitava a raccogliere le segnalazione di guasto e attivare le ditte esterne per gli interventi di manutenzione”. Da qui è nata l’idea di realizzare un sistema di asset management, capace di gestire con efficienza un ambiente complesso e di ridurre gli interventi di riparazione dei guasti a favore di una manutenzione pianificata e preventiva. Il sistema, inoltre, doveva consentire di monitorare in modo continuo e preciso gli edifici e gli asset architettonici

presenti, anche sfruttando tecnologie di gestione grafica. Il software Infor Enterprise Asset Management (Eam) ha permesso di catalogare circa 13mila asset in base a un duplice punto di vista, tecnologico e di ubicazione geografica: ogni voce può essere ricercata a partire dalla posizione planimetrica oppure dalla tipologia (categoria di impianto o singolo componente). Due partner di Infor, CadService e KnowHow, hanno realizzato rispettivamente l’integrazione di un modulo grafico, OpenCad, e della componente mobile. “Ogni anno”, sottolinea Vincini, “abbiamo in gestione circa 7mila interventi di manutenzione ordinaria e straordinaria e 25mila interventi di manutenzione programmata e di controllo sicurezza; riuscire a combinare queste attività in spazi quotidianamente vissuti da 40mila studenti è una sfida che ci è possibile affrontare con successo avendo a disposizione gli strumenti adeguati”. FEBBRAIO 2015 |

37


ITALIA ITALIA DIGITALE DIGITALE |

AGENDA DIGITALE: SARÀ LA SVOLTA BUONA? Il 2015 sarà un anno fondamentale per la buona riuscita del progetto Agenda, ma ne vedremo i frutti solo nel 2016. Sul tavolo, la questione del nuovo quadro normativo e la gestione dei fondi europei. In gioco c’è un contributo al Pil di mezzo punto l’anno.

M

ale che vada, il 2015 una novità per l’Agenda Digitale l’avrà portata. Quella di un nuovo nome: Crescita Digitale. Perché così si chiama il piano che il governo ha faticosamente messo a punto per avviare la trasformazione della macchina pubblica e ottemperare alle richieste dell’Unione Europea. Quest’anno, secondo gli addetti ai lavori, è l’anno chiave per l’Agenda: si entra, anzi si deve entrare, nella fase di realizzazione di quei cambiamenti, pensati e più volte rielaborati negli anni scorsi, che nel prossimo futuro (dal 2016 in poi) dovranno migliorare la vita dei cittadini e delle aziende italiane. In fatto di “riforme” già concretizzate per ora siamo fermi alla fatturazione elettronica e poco altro. Sulla banda larga, i primi effetti del nuovo piano che mira a diffondere in tutta Italia connessioni a 30 Megabit si vedranno probabilmente solo a fine anno. Sulle startup innovative si è discusso molto e il quadro regolatorio (finanziamenti compresi) dedicato alle nuove imprese tecnologiche non è lontano, mentre anagrafe unica e identità digitale saranno un vanto (quest’anno) solo di pochi comuni e, dicono i bene informati, di un numero limitato di servizi. Sul tavolo non mancano, inoltre, le pratiche relative a sanità e scuola digitale e alle smart city, per cui è lecito aspettarsi maggiore concretezza in termini di attuazione dei progetti messi su carta. E 38

| FEBBRAIO 2015

non meno importante è la questione delle competenze che servono a pilotare la trasformazione digitale. La “fase due” dell’Agenda parte almeno da alcune certezze. Il ruolo più definito dell’Agenzia per l’Italia Digitale (e del nuovo direttore generale, Alessandra Poggiani), i piani strategici per la banda ultralarga e per la Crescita Digitale, oltre a circa tre miliardi di euro per iniziare a completare alcune azioni programmatiche, dalla connettività WiFi di tutti

gli edifici pubblici alla razionalizzazione delle risorse It della Pa fino alle varie piattaforme che dovranno abilitare i processi telematici di aziende ospedaliere, scuole e tribunali. Un altro miliardo abbondante è stato stanziato per i cosiddetti programmi di accelerazione, che comprendono Italia Login (il sistema attraverso il quale cittadini e imprese potranno gestire online le loro identità e tutte le interazioni con l’amministrazione pubblica), le compe-


tenze digitali e i progetti per le città e le community intelligenti. Progetti, finora, tutto fuorché concreti. I fondi ci sono, gli alibi sono finiti

“Oggi ci sono i presupposti per cambiare il passo, ma nel 2015 devono partire i progetti di digitalizzazione della PA in cantiere, deve essere completato il quadro normativo e impostata una gestione efficiente dei fondi europei e disponibili per il periodo 2014-2020. In gioco ci sono potenziali risorse per 18 miliardi di euro (di cui 9 elargiti dalla Ue, ndr) in sei anni che, per l’effetto moltiplicatore dell’Ict, possono significare un contributo al Pil di mezzo punto l’anno”. Parole pronunciate a fine gennaio da Elio Catania, presidente di Confindustria Digitale. Un messaggio chiaro, assai condivisibile, ricco di buoni propositi e di nodi da sciogliere, ma che lascia sempre adito a dubbi e domande. Se al governo tocca (giustamente) il compito di gestire il cambiamento, come deve affrontare questo passaggio il tessuto imprenditoriale del Belpaese? E quale ruolo devono giocare le aziende dell’Information and communications technology? Che queste ultime debbano contribuire all’innovazione del Paese è qualcosa di scontato (chi, se non loro?); quanto siano state capaci di accompagnare le imprese nostrane, e le Pmi in particolare, nell’adozione delle nuove tecnologie lo è forse un po’ meno. Sul fatto che l’obiettivo, come ha detto Catania, sia quello di spingere sull’accelerazione dei processi di trasformazione digitale e di far emergere nuove opportunità di crescita, siamo tutti d’accordo. Lo stato dell’arte dell’Italia al digitale può essere così riassunto: l’industria Ict tricolore conta oggi circa 600mila addetti e sviluppa un mercato (in contrazione) di oltre 65 miliardi di euro. Il primo problema è che la nostra spesa in tecnologie incide (dato aggiornato al 2013) sul 4,8% del prodotto interno lordo, rispetto a una media Ue del 6,6% e agli indicatori decisamente migliori

EUROPA BENE A METÀ È uno scenario a luci e ombre quello che descrive lo stato di avanzamento dei lavori dei Paesi dell’Unione rispetto alle linee guida dell’Agenda Digitale. I dati dicono, infatti, che esiste estrema disomogeneità tra i diversi Paesi e che accanto a segnali positivi emergono ritardi preoccupanti, che coinvolgono purtroppo anche l’Italia. Se, in generale, la Ue può compiacersi del fatto di aver già raggiunto alcuni target fissati per il 2015 (fra questi la percentuale di popolazione che utilizza servizi di eGovernment e trasmette moduli online alla Pubblica Amministrazione, salita al 26,1% rispetto all’obiettivo del 25%) e di essere vicina a smarcarne altri (per esempio la fetta di popolazione che usa Internet regolarmente, arrivata al 74,6% rispetto al 75% prefissato) deve anche misurarsi con parametri poco incoraggianti. Il numero delle Pmi che vendono i propri prodotti sul Web, fermo al 14,5% e lontano dal target per il 2015 fissato al 33%, è uno di questi. Un dato che si specchia in un’Euro-

di Germania (6,9%), Francia (7,0%) e Regno Unito (9,6%). Il gap è di 25 miliardi di euro l’anno di mancati investimenti in innovazione rispetto al resto dell’Europa. Che cosa fare, dunque, per invertire la tendenza? La ricetta di Catania è sulla carta molto chiara: riportare il settore in crescita nel 2015 e raggiungere un rapporto Ict/Pil del 5,5% nel 2017 e del 6,6% nel 2020, creando 700mila nuovi posti di lavoro e allineando la spesa per il digitale alla media Ue entro cinque anni. Secondo l’ex manager di Ibm, Atm Milano e Ferrovie dello Stato, “i presupposti ci sono”, sotto forma di se-

pa che viaggia, come detto, a velocità differenti, in un ecosistema spaccato in due fra Paesi virtuosi e ritardatari verso l’adozione del verbo digitale. Il buon risultato conseguito nei servizi di eGovernment, questo l’esempio più indicativo, si deve sostanzialmente alle virtù delle nazioni scandinave (Danimarca, Finlandia e Svezia) e dell’Olanda, tutte oltre il 50%; Italia, Repubblica Ceca, Bulgaria e Romania, tutte sotto il 12%, sono l’altra faccia della medaglia. Lo stesso dicasi per le piccole e medie imprese impegnate nell’e-commerce: Repubblica Ceca, Danimarca e Croazia viaggiano nell’ordine del 25% mentre Bulgaria e Italia sono il fanalino di coda fermo al 5%. Fra le luci dell’Agenda c’è quella relativa all’uso “nomade” della rete, fuori da casa e dalla sede di lavoro, con Pc e tablet. Segno che la tendenza dello “smart working” è sempre più forte. Peccato che fra le eccezioni ci sia ancora una volta l’Italia, stazionaria in penultima posizione (con una diffusione pari al 13,6%) e davanti alla sola Romania.

gnali macroeconomici e di positiva collaborazione tra pubblico e privato. Sarà, ma i dubbi circa l’effettivo status della salute del sistema Paese rimangono. E quel “non ci sono più alibi” pronunciato dal numero di Confindustria Digitale suona da stimolo diretto alle capacità di reazione alla leadership pubblica e privata. Se il processo di trasformazione digitale del Paese non sarà messo in moto neppure quest’anno, e se il raggiungimento degli obiettivi della Digital Agenda europea per il 2020 risulterà una mera utopia, sapremo a chi dare la colpa. Gianni Rusconi 39


ITALIA DIGITALE | PA

SPESA IN TECNOLOGIE: LO STALLO DEL PUBBLICO I budget It della Pa sono in netta flessione. Colpa della spending review, ma non solo. I Cio stanno alla finestra, in attesa di capire gli impatti del piano di Crescita Digitale. Le buone notizie arrivano solo dalla sanità.

I

dati sono quelli dell’Osservatorio Netics, redatto sulla base di un’indagine che ha coinvolto un'ottantina di chief information officer di enti della Pubblica Amministrazione centrale, di Regioni e grandi Comuni. Un campione qualitativo più che quantitativo (comunque rappresentante il 60% del budget It complessivo degli enti pubblici italiani) e fucina di indicazioni che non lasciano adito a facili entusiasmi. Anzi, tutt’altro. Le spese alla voce CapEx, e quindi quelle destinate all’acquisto in conto capitale di asset durevoli, quest’anno saranno in flessione rispetto a un 2014 già non particolarmente brillante. A destare preoccupazione (a sorpresa, ma forse fino a un certo punto) è il dettaglio relativo alle Regioni e ai grandi Comuni del Centro-Nord, tradizionalmente catalogati come big spender pubblici per l’informatica. Ebbene, in quattro amministrazioni con livelli di spesa superiori ai 40 milioni di euro il salto all’indietro del budget destinato alle tecnologie sarà del 35%. Meglio va con gli indicatori relativi alle spese operative OpEx. Le politiche di spending review hanno ovviamente la loro incidenza e il calo stimato è nell’or40

| FEBBRAIO 2015

SOLDI SPRECATI? ORA SI CAMBIA Promesse e attese sono un leitmotiv quando si parla di Agenda Digitale, e il tema delle smart city non fa eccezione. Fra il 2011 e lo scorso anno sono stati investiti circa 800 milioni di euro di fondi pubblici per sostenere imprese, università ed enti di ricerca impegnati in progetti sperimentali di smart community, incluse attività di formazione e sviluppo di competenze. Risultato: le sperimentazioni sono rimaste tali, senza trovare un’applicazione su

vasta scala ad opera delle amministrazioni locali. È da qui che, con un Decreto Legislativo varato nel 2012, il Comitato Smart Communities è stato chiamato a intervenire, con lo scopo di trasformare prototipi e progetti pilota in realtà. A contribuire alla causa interverrano i 400 milioni di euro di fondi strutturali e ulteriori risorse previste dal Piano Nazionale delle Comunità Intelligenti che il governo Renzi presenterà entro la fine di febbraio.


ARCHIVI DIGITALI: PASSO AVANTI, CON CAUTELA L’addio alla carta da parte della Pubblica Amministrazione italiana è stato sancito da un decreto pubblicato sulla Gazzetta Ufficiale: nel giro di diciotto mesi, i documenti elettronici dovranno diventare lo standard. “Si tratta di un atto importante”, commenta Roberto Pozzi, regional director Southern Europe di Check Point Software Technologies, “che ci mette sullo stesso piano di altre nazioni tipicamente più aperte verso la tecnologia e che porterà a numerosi vantaggi in termini di disponibilità e fruizione dei documenti, nonché di aggiornamento e conformità alla normative”. Ma c’è un ma: quello verso la smaterializzazione documentale, a detta di Pozzi, “è un passaggio che ri-

dine del 4,5%, un dato più o meno omogeneo a livello nazionale. In soldoni si tratta di circa 140 milioni di euro sottratti alle tecnologie e all’aggiornamento dei sistemi informatici. Sempre che le uscite coincidano realmente con quelle messe a budget, perché il gap fra somme impegnate e somme effettivamente spese, soprattutto nelle Regioni e gli enti locali del Mezzogiorno, è tutt’altro che trascurabile. Analizzando le diverse dinamiche che descrivono l’adozione delle soluzioni It nelle Pa, Netics ha messo in evidenza una tendenza che certo non gioca a favore dell’innovazione: le tariffe per i servizi professionali erogati da società terze sono in caduta libera. In altre parole, sotto la pressione della spending review le amministrazioni continuano a perseverare nel giro di vite sui compensi riconosciuti ai fornitori e l’Italia, a livello europeo, si vede sempre più spinta verso il fondo di questa speciale classifica. Il ricorso alle piattaforme open source operato da molti Cio, dice

chiede una certa attenzione sotto il profilo della sicurezza, perché gli archivi digitali devono essere trattati in modo del tutto differente rispetto a quelli cartacei. Devono essere stabilite regole chiare per l’archiviazione e la conservazione dei documenti, ma anche per garantirne la sicurezza e inviolabilità. E si dovrà agire in modo da poter di fatto rendere disponibili i documenti alle persone che ne hanno diritto, e solo a loro”. Come agire? Per prima cosa, serve un diverso atteggiamento “culturale”: la sicurezza dev’essere il cuore pulsante della Pubblica Amministrazione digitale, da integrare da subito all’interno dei processi di gestione documentale. Bisogna poi considerare le questioni più tecniche. “I si-

lo studio, sembra più il frutto di mosse tattiche per risparmiare sui costi di licenza e ridurre il Tco (total cost of ownership) nel medio periodo, che non la conseguenza di virate strategiche dal punto di vista tecnologico. L’atteggiamento di chi gestisce l’informatica della macchina pubblica è, in buona sostanza, quello della prudenza, dello “stare a

Le pubbliche amministrazioni continuano a perseverare nel giro di vite sui compensi riconosciuti ai fornitori e l’Italia è sempre più spinta verso il fondo della classifica europea

guardare” perché ci sono meno risorse e perché non esistono certezze sulle linee di evoluzione governative in materia di digitalizzazione della Pa. Qualche esempio? Gli investimenti nei data center e in nuovi progetti cloud latitano in funzione dei piani di razionalizzazione dei Ced pubblici previsti dall’ex Agenda e ora ereditati dal nuovo “Piano Cresci-

stemi di sicurezza perimetrale di cui molte amministrazioni dispongono sono una buona base, che non sarà più sufficiente quando i dati verranno resi disponibili online”, spiega Pozzi. “Sarà importante in questa fase dotarsi di un sistema di Data Loss Prevention per tenere sotto controllo i dati cosiddetti sensibili, evitando che escano dalla rete dell’organizzazione. E quindi abbinare un sistema di Access Control per stabilire dei privilegi di accesso ai vari livelli dell’infrastruttura, in modo da abilitare i diversi utenti ad accedere solo ai sistemi di propria competenza”. I dati, inoltre, devono essere accessibili senza rischi da qualsiasi dispositivo, inclusi smartphone e tablet. V.B.

ta Digitale”. Aggiungiamoci lo scarso entusiasmo con il quale i vendor, multinazionali in testa, stanno gestendo la situazione di stallo (per non parlare della questione dei pagamenti arretrati) e il quadro è completo. Certo poco edificante per un Paese che deve correre se vuole completare in tempi brevi la necessaria trasformazione digitale. L’unica buona notizia arriva dalla sanità. Netics prevede un incremento della spesa It dell’1,2% in questo settore dopo che il 2014 si è chiuso con investimenti di oltre 1,5 miliardi di euro, di cui 964 milioni attribuibili ai vari enti del mondo pubblico (aziende ospedaliere, Asl e Regioni). Siamo di fatto in uno status di calma piatta o quasi, ma visto in prospettiva il dato previsionale per quest’anno fa ben sperare. Soprattutto se le Regioni cavalcheranno a dovere l’onda dei progetti ascrivibili direttamente o indirettamente al Fascicolo Sanitario Elettronico e alle piattaforme per le prescrizioni elettroniche. Piero Aprile 41


OBBIETTIVO SU | Abb Sace

DALLA RICERCA NASCE LA FUTURA DOMOTICA Anche in Italia il Gruppo Abb investe e supporta la nascita di nuove soluzioni, soprattutto nel settore dell'automazione impiantistica di edifici e appartamenti.

42

| FEBBRAIO 2015

A

bb Sace, una delle cinque divisioni del Gruppo multinazionale con sede in Svizzera, produce e commercializza apparecchiature e sistemi per l’impiantistica elettrica e per l’automazione. Sembrerebbe un’area di business piatta e poco attraente, per chi si occupa di alta tecnologia, e invece nasconde un fascino inaspettato. Primo, perché, almeno in Italia, raccoglie la tradizione di un’industria che ha fatto la storia del nostro Paese (sono confluiti nel Gruppo Abb, negli anni, oltre a Sace,

nomi come Ercole Marelli, Elsag Bailey e Ansaldo Trasformatori); secondo, perché il manufacturing 4.0 e il building (e home) automation stanno vivendo un momento di grande interesse e impulso, non più solo sulla carta ma anche e finalmente sul mercato. Così, in questi anni, il business di Abb Sace si sta evolvendo velocemente proprio verso l’automazione e le soluzioni per il residenziale, che sulla spinta di Internet delle cose diventano sempre più intelligenti e richiedono un maggior valore aggiunto sia in fase di produzione sia di post-vendita.


CON SEIMILA DIPENDENTI E OLTRE 2,3 MILIARDI DI EURO DI FATTURATO, ABB ITALIA INVESTE IL 3,2% DEL PROPRIO GIRO D'AFFARI IN RICERCA E SVILUPPO.

Mentre il quartier generale italiano di Abb è a Sesto San Giovanni, alle porte di Milano (foto grande in apertura), Abb Sace ha recentemente inaugurato la sua nuova sede di Bergamo (qui sopra) che include anche i laboratori prove, dotati di strumenti moderni e sofisticati per la ricerca e i test.

43


OBBIETTIVO SU | Abb Sace

LA DIVISIONE "LOW VOLTAGE" DI ABB HA UNA GAMMA ENORME DI PRODOTTI: DALLA SEMPLICE FASCETTA AL QUADRO DI POTENZA SONO OLTRE 44MILA.

44

| FEBBRAIO 2015


MYLOS PER LA CASA Mylos è il sistema integrato di Abb in grado di offrire soluzioni evolute per la moderna impiantistica nel rispetto dello standard internazionale Knx. I dispositivi disponibili a catalogo sono oltre 150 e possono essere abbinati a quattro diverse tipologie di cornici, rettangolari o arrotondate. La programmazione è semplice e intuitiva, grazie a menu configurabili e visualizzabili su ampi display touch da 5,7 pollici.

Per la gestione della casa sono disponibili due diverse interfacce: il pannello di controllo Mylos Touch e un cronotermostato programmatore. Quest’ultimo consente di controllare fino a quattro diverse zone. 45


ABBONATI GRATIS A TECHNOPOLIS! Registrati subito e potrai ricevere gratuitamente in formato Pdf tutti i numeri di Technopolis e la newsletter settimanale di ictBusiness.it!

Per abbonarti vai a questo link: http://eepurl.com/Y9qHP Oppure utilizza il QR Code che trovi qui accanto

I tuoi dati saranno trattati secondo quanto previsto dalla nostra informativa per la privacy e per nessuna ragione saranno ceduti a terze parti. In qualunque momento potrai decidere di cancellarti dalla nostra ÃÌ> ` wV>Ài ÌÕ `>Ì °


VETRINA HI-TECH

LA FORZA DELLA STAMPA STA NEL SOFTWARE A fare la differenza nei sistemi aziendali sono sempre più le soluzioni di gestione, invece dell’hardware, che permettono di ottimizzare i flussi di lavoro, ridurre i costi e aumentare la sicurezza.

I

l mercato della stampa aziendale è passato negli ultimi anni attraverso varie trasformazioni, tutte guidate dalla necessità di ottenere maggiore efficienza e abbassare i costi. Non è un mistero, infatti, che le spese di stampa siano uno degli aspetti in cui è possibile ottenere grandi risultati in termini di risparmi ottimizzando le soluzioni adottate. Le tendenze viste negli ultimi anni sono tutte confermate: minore numero di dispositivi, possibilità di stampare direttamente da mobile, grande attenzione alla gestione delle autorizzazioni di stampa e diffusione più generalizzata del cosiddetto “follow me printing”. Questo concetto – a volte definito an-

che come “pull printing”, “find-me printing” o “release printing” – permette di eseguire la stampa qualunque postazione di lavoro e di ritirarla su uno qualunque dei terminali di printing aziendali, previa autenticazione dell’utente. Non si tratta di una funzione specifica del dispositivo di stampa, ma di una opportunità offerta da software di gestione sempre più sofisticati, che ogni produttore sviluppa in proprio o, a volte, integra nella propria soluzione partendo da quanto creato da terze parti. È quello che accade per esempio con Hp, che ha scelto di appoggiarsi a una delle soluzioni più note, la Follow Me di Ringdale. FEBBRAIO 2015 |

47


VETRINA HI-TECH

Le opportunità sono nei servizi

Il tema della stampa aziendale è diventato così complesso che molte volte conviene rivolgersi a fornitori di servizi di printing gestiti. Tanto che Idc – nelle sue previsioni annuali dedicate al mondo dell’imaging, della stampa e delle soluzioni documentali – vede nuove opportunità proprio nei servizi, nelle soluzioni e nei mercati verticali legati alla gestione dei documenti in generale. Sul fronte hardware, la società di ricerche di mercato focalizza la sua attenzione sullo spazio conquistato dalla tecnologia a getto d’inchiostro, dalla stampa 3D e dalla cartellonistica digitale. Già nel 2014 si è assistito a una maggiore attenzione da parte delle aziende per l’ottimizzazione del flusso di lavoro e dei documenti digitali, molto più che per la semplice eliminazione della carta, come avveniva in passato. Secondo una ricerca Idc di qualche mese fa, i documenti aziendali venivano gestiti per il 55% in formato cartaceo e per il 45% in digitale. Tra la fine del 2015

e l’inizio del 2016 queste percentuali dovrebbero diventare rispettivamente il 39 e il 61%. Le aziende produttrici di dispositivi per la stampa si stanno adeguando a questi cambiamenti, non limitandosi a potenziare l’hardware, ma lavorando soprattutto sulla componente software. Canon, per esempio, consente di gestire le sue ultime multifunzione A4 ImageRunner (C1335iF, C1225iF e C1325iF) attraverso la soluzione UniFlow, che supporta la funzionalità My Print Anywhere e che identifica l’utente tramite una card. La nuova serie di multifunzione, disponibile da marzo, pone un occhio di riguardo anche alla sicurezza, gestendo tra l’altro la crittografia dei file Pdf generati in fase di scansione. Ricoh, pinzatrice senza graffette

Tra le novità di casa Ricoh va invece segnalata la gamma Mp C (Mp C4503(A)Sp, Mp C5503(A)Sp e Mp C6003Sp) in grado di stampare sul formato Sra3. (Per saperne di più sui for-

mati carta si veda il box nella pagina a fianco). Questi multifunzione, insieme a quella della famiglia Mp C2000 per il formato A3, possono essere gestiti dal controller Gwnx, che consente di utilizzare l’Active Directory di Windows Server 2008 R2 per non duplicare i profili utente. Esclusiva delle macchine Ricoh è poi la possibilità di unire fino a cinque fogli senza ricorrere a graffette. Brother permette di personalizzare il display touch dei suoi modelli. Grazie alla tecnologia Brother Solutions Interface, gli sviluppatori possono mettere a punto soluzioni utili per gestire al meglio il workflow, per monitorare l’utilizzo delle macchine, per ridurre i costi e per garantire la sicurezza. Il software B-Guard permette di attivare le funzioni di “follow me printing”, Mail2Print e ScanDirect. A puntare molto sullo sviluppo di software personalizzato è anche Kyocera, che mette a disposizione la sua piattaforma HyPas. Quest’ultima si caratterizza per la possibilità di lavorare sia con i kit di sviluppo Java sia

BROTHER MFC-L9550CDWT

CANON IMAGERUNNER C1225IF

HP COLOR LASERJET ENTERPRISE M680

Display da 4,8 pollici del multifunzione Brother è completamente personalizzabile grazie alla Brother Solutions Interface. Il dispositivo utilizza cartucce di toner ad alta capacità (fino a seimila copie nella dotazione base) e dispone di una funzione per la riduzione del consumo di energia.

L’ultima generazione di multifunzione Canon supporta la tecnologia AirPrint e la modalità di stampa mobile Mopria. File Pdf crittografati, possibilità di gestione tramite la piattaforma UniFlow, card reader per la funzionalità “follow me printing” garantiscono la sicurezza dei documenti.

Disponibile in tre versioni, questo multifunzione può essere equipaggiato con sistemi modulari per il caricamento della carta in grado di accogliere fino a 3.100 fogli. In opzione è disponibile anche un raccoglitore con cucitrice a tre scomparti, la cui capienza arriva a 900 fogli.

48

| FEBBRAIO 2015


CARTA, IL FORMATO È STANDARD Quando ci si riferisce ai formati carta si pensa subito ai classici A4 e A3. In effetti, questi sono i due standard più diffusi in assoluto sulle printer da ufficio, ma la necessità della stampa senza bordi ha aguzzato l’ingegno dei progettisti, che in alcuni casi scelgono di ricorrere a formati leggermente più grandi che possano essere rifilati in un secondo momento. Per farlo, la carta deve avere dimensioni leggermente superiori, che sono codificate dallo standard Iso 217. I formati ulteriori

con quello dei servizi Web. Unendo le due tecnologie si può aumentare notevolmente la versatilità dei sistemi di gestione della stampa. Infine, va segnalata la tendenza a spingere l’acceleratore sul fronte della tecnologia a get-

vengono definiti con il prefisso R (che sta per Raw) ed Sr (Supplementary Raw). Le misure dei tagli più utilizzati sono indicati nella tabella qui sotto. Se la stampa su questo tipo di formati è aziendalmente importante, bisogna porre attenzione alla scelta dei dispositivi. Non tutti i produttori, infatti, propongono

modelli compatibili con gli standard Ra ed Sra. In generale, le stampanti o i multifunzione che arrivano fino alle dimensioni A3 solitamente sono in grado di usare carta Sa4 ed Sra4, ma non tutti possono comprendere il formato Sra3. Tra i vendor con dispositivi capaci di gestire queste dimensioni ci sono Canon, Ricoh, Hp.

I FORMATI CARTA PIÙ DIFFUSI SECONDO LE SPECIFICHE ISO Codice (Iso 216) Formato (mm)

Codice (Iso 217) Formato (mm)

Codice (Iso 217) Formato (mm)

A0

841 × 1.189

RA0

860 × 1.220

SRA0

900 × 1.280

A1

594 × 841

RA1

610 × 860

SRA1

640 × 900

A2

420 × 594

RA2

430 × 610

SRA2

450 × 640

A3

297 × 420

RA3

305 × 430

SRA3

320 × 450

A4

210 × 297

RA4

215 × 305

SRA4

225 × 320

to d’inchiostro, fino a poco tempo fa considerata adatta solamente a piccoli o piccolissimi volumi di stampa. Epson e Hp, in particolare, stanno invece cercando di spostare l’asticella verso l’alto, proponendo prodotti capaci di

cicli mensili importanti. La gamma WorkForce di Epson è in grado di arrivare a 65mila pagine mese, mentre le OfficeJet Enterprise di Hp possono toccare le 80mila. Paolo Galvani

KYOCERA TASKALFA 2551CI

RICOH MP C2503SP

XEROX WORKCENTRE 6655

Grazie alla compatibilità con la piattaforma HyPas, i multifunzione Kyocera possono essere integrati con applicazioni software per la gestione documentale. Il modello TaskAlfa 2551ci può arrivare a gestire fino a 4.100 fogli combinando diversi cassetti opzionali.

Consumi elettrici contenuti (un solo Watt in modalità stand-by), possibilità di gestire opzionalmente il formato SRA3 e capacità (sempre a richiesta) di unire fino a cinque fogli senza l’utilizzo di graffette rendono questa unità ideale per gruppi di lavoro che hanno bisogno di versatilità.

Grazie a un accordo con McAfee e Cisco, questo multifunzione Xerox è uno dei pochi a disporre di un sistema incorporato di protezione da potenziali minacce esterne. Che si aggiunge a strumenti per la gestione delle macchine come ConnectKey e alla compatibilità AirPrint e Mopria.

49


VETRINA HI-TECH

SMARTPHONE A DUE FACCE Due schermi sono meglio di uno? Se uno di questi è basato su e-ink probabilmente sì: aumentano la versatilità e (un po’) l’autonomia. Ma il prezzo elevato dello YotaPhone 2 è una barriera che bisogna essere molto motivati a superare…

Di questi tempi trovare vere innovazioni su uno smartphone non è facile: sistemi operativi, processori, schermi hanno ormai raggiunto livelli tali da rendere difficile l’effetto “wow!”. Nella battaglia tra i top di gamma – dall’iPhone 6 di Apple al Samsung Galaxy S5, fino ai Lumia di ultima generazione – è però entrato un nuovo contendente che ha delle carte da giocarsi: lo YotaPhone 2 è infatti l’unico prodotto del suo genere a vantare un doppio schermo. Il principale è un cinque pollici Amoled Full Hd (di qualità superba), mentre sul retro del telefono è stato adottato un display a “inchiostro elettronico” (e-ink) da 4,7 pollici con risoluzione di 960 per 540 punti. Si tratta della stessa tecnologia comunemente utilizzata per i lettori di libri elettronici. La presenza di due schermi aumenta la versatilità dello smartphone e, nelle intenzioni del produttore, dovrebbe prolungarne la durata della batteria, grazie al consumo estremamente contenuto dell’e-ink. Per poter sfruttare adeguatamente il secondo schermo, la russa Yota Devices ha studiato delle

50

| FEBBRAIO 2015

YOTA

YOTAPHONE 2

estensioni del sistema operativo Android 4.4 KitKat che ne permettono l’uso in diverse situazioni. Sul secondo schermo possono essere visualizzate delle schermate, chiamate Pannelli, che raggruppano dei widget personalizzabili, oppure una mera copia dello schermo principale (YotaMirror) o delle foto personali da visualizzare in maniera statica o come presentazione. Lo schermo e-ink viene definito “sempre attivo”, perché quanto visualizzato non scompare mai, nemmeno a batteria completamente scarica. Grazie ai widget è possibile tenere sotto controllo lo stato delle notifiche, gli aggiornamenti di Twitter o un feed Rss senza la necessità di accendere lo schermo principale. Questo, abbinato a una modalità di gestione dell’energia battezzata YotaEnergy, dovrebbe aumentare notevolmente l’autonomia complessiva del dispositivo. Nella realtà, questo si verifica solo in parte: è vero che notifiche e posta elettronica possono essere controllate sullo schermo secondario, ma è anche vero che la sua reattività al tocco non è all’altezza di quello primario e quindi alla fine spesso si ricorre a

quello a colori. Il risultato è quello di arrivare a sera senza troppi patemi, ma un secondo giorno di autonomia rimane una chimera. Chi viaggia molto, ed è quindi costretto a porre maggiore attenzione all’autonomia, può “forzarsi” a usare spesso l’e-ink e trarne quindi il massimo vantaggio, così come chi vuole leggere libri elettronici con applicazioni tipo Kindle può significativamente aumentare la durata della batteria. Utile in generale è la modalità di risparmio energetico che esclude le connessioni WiFi, 2G, Bluetooth e dati cellulari per prolungare la vita della batteria quando si è in condizioni di necessità. Il vero limite dello YotaPhone 2 (a cui serve una nano Sim) sta però nel prezzo: 749 euro lo rendono lo smartphone più caro di tutti. Vale la pena investire una tale cifra per avere un secondo schermo e un po’ di autonomia in più? Se vi piace distinguervi la risposta può essere positiva, ma se cercate un rapporto qualità/prezzo che non vi deluda, affiancare uno smartphone di fascia medio-alta a un lettore di e-book potrebbe essere la scelta vincente. Paolo Galvani LE CARATTERISTICHE A COLPO D’OCCHIO Dimensioni: 144,9x69,4x8,95 mm Peso: 145 grammi Schermo Amoled: 5”, 1.920x1.080 pt Schermo e-ink: 4,7”, 960x540 pt Memoria: 32 GB non espandibili Processore: Quad-Core 2,2 GHz Radio: Gsm, Umts, Hspa+, Lte Connettività: Wi-Fi 02.11ac,

Bluetooth 4.0, Gps, Nfc Fotocamera: 8 megapixel principale, 2,1 megapixel anteriore Altro: accelerometro, bussola, giroscopio, sensore luminosità e prossimità PREZZO: 749 EURO


shaping tomorrow with you

The Innovation Engine

Trasforma l’IT con il Business-Centric Computing

L’infrastruttura IT delle aziende deve essere adeguata alle prioritĂ del business, garantire risultati sostenibili e consentire una continua innovazione. Grazie alle soluzioni Business-Centric Computing è possibile allineare la capacitĂ di calcolo alle esigenze aziendali e rendere l’elaborazione H O¡DQDOLVL GHL GDWL SL YHORFH H SL HIĂ€FLHQWH FKH PDL ,QROWUH :LQGRZV 6HUYHU 5 JDUDQWLVFH PDJJLRUH Ă HVVLELOLWj H DJLOLWj SHU OD YLUWXDOL]]D]LRQH JHVWLRQH DUFKLYLD]LRQH FRQQHWWLYLWj GL UHWH infrastruttura desktop virtuale, accesso e protezione dei dati, piattaforma Web e applicazioni. INFO Âť http://business-datacenter.it.fujitsu.com/ NUMERO VERDE Âť 800 466 820 E-MAGAZINE Âť http://tech4green.it


HL-S7000DN

Il futuro della tecnologia

0 1p0pm

5\V]H HL-S7000DN, SH Z[HTWHU[L TVUVJYVTH[PJH H [LJUVSVNPH PIYPKH JOL NYHaPL HP Z\VP WWT KP ]LSVJP[n KP Z[HTWH HP JVZ[P JVWPH JVU[LU\[P L HSSL IHZZL LTPZZPVUP MH KLJVSSHYL PS SH]VYV PU \MÄJPV

brother.it


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.