Technopolis 10

Page 1

NUMERO 10 | OTTOBRE 2014

Storie di eccellenza e innovazione

La giusta alchimia fra IT e business Alessandro Pizzoccaro, fondatore di Guna, racconta la passione per la medicina omeopatica e per l'innovazione tecnologica. Nella sua azienda trionfano outsourcing e mobilità.

data center

18

Come sono cambiati i "vecchi" Ced: meno ingombranti, meno assetati di energia e più performanti.

speciale cloud

29

Le nuvole hanno coperto il cielo dell'It, ma hanno portato efficienza, risparmi e flessibilità. La rassegna di servizi e soluzioni.

quaderno Smart city Un inserto monografico staccabile dedicato al fenomeno delle città intelligenti e ai vantaggi per cittadini e imprese. Distribuito gratuitamente con “Il Sole 24 ORE”



SOMMARIO Storie di eccellenza e innovazione

N° 10 - Ottobre 2014 Periodico bimestrale registrato presso il Tribunale di Milano al n° 378 del 09/10/2012. Direttore responsabile: Emilio Mango Coordinamento: Gianni Rusconi Hanno collaborato: Piero Aprile, Valentina Bernocco, Alexander Bufalino, Sergio Colella, Carlo Fontana, Paolo Galvani, Maria Luisa Romiti, Laura Tore Progetto grafico: Inventium Srl Sales and marketing: Marco Fregonara, Francesco Proietto Foto e illustrazioni: Istockphoto, Martina Santimone.

4 storiA di copertina Outsourcing e mobilità: meglio la leggerezza

9 IN EVIDENZA L’analisi: Pc, cloud e software crescono, ma il mercato zoppica Tablet e indossabili, il silicio di Intel va oltre il computer Windows riparte da 10, il software universale

Ellison lascia il timone, Oracle sempre più cloud Startup: l’Europa fa il pieno di risorse. L’esempio di Google Dopo la scissione: due Hp faranno meglio di una sola?

18 SCENARI

Il centro si trasforma: il dilemma dei Cio

La complessità è rinchiusa in un box

Il data center del futuro? Sarà liquido

Di corsa verso il nuovo social paradigma Il cliente top smascherato dagli analytics

29 speciale CLOUD

Aziende tra le nuvole Guida pratica al cloud computing Il terzo elemento

Editore, redazione, pubblicità: Indigo Communication Srl Via Faruffini, 13 - 20149 Milano tel: 02 36505844 info@indigocom.it www.indigocom.com Stampa: RDS Webprinting - Arcore © Copyright 2014 Indigo Communication Srl Tutti i diritti di proprietà letteraria e artistica riservati. Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto. Pubblicazione ceduta gratuitamente.

Le linee guida della commissione europea

39 ECCELLENZE.IT Dati al sicuro, pazienti connessi: l’ospedale guarda al futuro Il contact center naviga verso l’efficienza Helpdesk centrale, la marcia in più per lettori e dipendenti 42 italia digitale

Il difficile cammino sulla strada del Paese digitale

L’Ict non basta: è colpa della spending review?

47 VETRINa HI TECH Smart e interconnesso, ecco il gadget 3.0 In prova: Microsoft Surface Pro 3


STORIA DI COPERTINA | Guna

OUTSOURCING E MOBILITà: meglio la leggerezza Guna è uno dei casi sempre più frequenti in cui l'It e il business viaggiano insieme per affrontare le sfide tecnologiche ma anche quelle del mercato. Il risultato: meno costi operativi e più efficienza della forza vendita.

N

ata nel 1983, Guna è riuscita a diventare in pochi anni un punto di riferimento nel mercato italiano e mondiale delle preparazioni omeopatiche. La sede di Milano e il vicino stabilimento, progettati per rappresentare l’immagine ma anche la sostanza di un’azienda impegnata in prima linea sul fronte della scienza e dell’innovazione, sono l’emblema della media azienda italiana di successo. Uno dei segreti, come spesso capita in questi casi, è la sintonia tra business e It, una combinazione vincente che per fortuna si osserva sempre più di frequente nel panorama delle imprese nazionali. La sintesi di questa comunione di in-

tenti può essere espressa con due parole: outsourcing e mobilità. “Il progetto di outsourcing”, dice Carlo Paschetto, Ict director di Guna, “è inquadrato all’interno di un rinnovamento dell’infrastruttura tecnologica aziendale, un processo in continua evoluzione che segue la crescita anno su anno dell’azienda e la complessità del mercato di riferimento. La linea strategica che ne consegue è demandare ai servizi in outsourcing la gestione in esercizio delle componenti infrastrutturali e applicative principali (rete locale, server, posta, servizi di backup e disaster recovery, sistemi gestionali), mentre si investe all’interno dell’azienda in competenze maggiormente focalizzate sull’analisi della domanda tecnologica e nel supporto alle funzioni di business”. In questo scenario, i sistemi informativi interni diventano quasi una funzione di consulenza al servizio delle controparti aziendali impegnate direttamente nello sviluppo del business: ne intercettano il fabbisogno in termini di tecnologia, analizzano l’offerta del mercato, valutano le soluzioni, propongono gli investimenti in sede di budget, coordinano i progetti di sviluppo e diventano quindi un attore chiave nella gestione della complessità. “L’investimento previsto”, dice Paschet-

4

| OTTOBRE 2014


media impresa è bello Nata nel 1983, Guna è la più importante azienda italiana nel settore della produzione e distribuzione di farmaci omeopatici, con una quota di mercato del 25% e un fatturato di oltre 57 milioni (nel 2013). L’azienda, che oggi conta oltre 250 dipendenti (di cui 98 informatori medico-scientifici e 30 consulenti tecnico commerciali per le farmacie), svolge inoltre un’intensa attività all’estero. Negli Stati Uniti opera con una filiale (Guna Inc.) ed è presente in altri 30 Paesi con distributori in esclusiva. La sede dell’Azienda è a Milano, accanto al suggestivo stabilimento inaugurato nel settembre 2008 in occasione del 25° anniversario della fondazione, uno dei più innovativi al mondo per la ricerca scientifica e la produzione di medicinali biologici. Guna produce anche integratori alimentari d’avanguardia e cosmetici di sofisticata concezione, alcuni di essi basati sulla ricerca dedicata alle cellule staminali.

to, “mira a una diminuzione dei costi operativi dell’Ict aziendale valutabile fra il 10 e il 15% su un arco di cinque anni, ma soprattutto a mettere in sicurezza la dorsale tecnologica dell’azienda, garantendone la continuità e l’aggiornamento a fronte di una richiesta sempre maggiore di risorse e competenze adeguate”. La vendita è mobile

Se l’outsourcing è stato un processo pianificato e studiato, l’accelerazione sul fronte della mobilità si è resa necessaria per motivi contingenti: pressata da una concorrenza sempre più agguerrita, l’at-

tività della forza vendita impegnata sul territorio era diventata qualche mese fa un pericoloso collo di bottiglia, limitata spesso nella sua azione dagli strumenti informatici che invece avrebbero dovuto amplificarne l’efficacia. “I device mobili in dotazione agli agenti di vendita e gli informatori”, racconta Paschetto, “soffrivano già da tempo di una scarsa capacità di calcolo e di una limitata connettività, che costringeva addetti e clienti a lunghi tempi di attesa nella consultazione dei cataloghi e che obbligava gli agenti a trasmettere gli ordini solo una volta rientrati nelle proprie abitazio-

ni, magari utilizzando il Pc di casa, spesso più potente e veloce di quello portatile”. Si trattava di un parco macchine inadeguato anche se non vecchio, che comprendeva in larga misura computer portatili di tipo netbook, scelti a suo tempo per l’ottima portabilità (peso e dimensioni limitate) e per il costo accessibile, senza però tenere conto delle esigenze che si sarebbero manifestate nell’immediato futuro in termini di potenza di calcolo e connettività. Scartata quasi subito l’opzione “tablet” per via della scarsa offerta di dispositivi Windows e per le limitazioni in termini di prestazioni, Paschetto e il suo team si 5


STORIA DI COPERTINA | Guna

Sotto, Carlo Paschetto, Ict director di Guna. Più in basso e a sinistra, alcune immagini dei laboratori e della produzione.

il convertibile Equipaggiati con processori Intel Core di terza e quarta generazione, gli Hp EliteBook Revolve 810 pesano 1,4 chilogrammi inclusa la tastiera (staccabile) e hanno un’autonomia di circa sei ore di lavoro. Il punto di forza è sicuramente la connettività, unitamente alla presenza di porte e slot, tra cui spicca quello per scheda micro Sd. Guna ha ottimizzato il processo

6

| OTTOBRE 2014

di configurazione e di gestione dei dispositivi: Elmec ha fornito alla società farmaceutica la piattaforma già dotata di un’immagine di base (il sistema operativo e gli altri software standard), i portatili sono stati poi trattati dal fornitore del Crm che ha installato anche quest’ultimo applicativo. In questo modo, Guna ha trasferito in outsourcing il 95% delle attività di manutenzione e configurazione, risparmiando tempo prezioso.

orientano verso i convertibili, in grado di soddisfare sulla carta tutte le esigenze di autonomia, flessibilità e potenza. Attraverso Elmec, un partner di Hp, Guna ha l’opportunità di provare il nuovo EliteBook Revolve 810. Per andare sul sicuro e avere la conferma di trovarsi di fronte al portatile giusto, Paschetto consegna il Revolve 810 al più esigente degli agenti di vendita per una prova “su strada”, e in breve tempo la prima impressione viene confermata. “Il convertibile racchiudeva tutte le caratteristiche che stavamo cercando”, spiega Paschetto, “una potenza di calcolo paragonabile a un desktop, un’estrema portabilità e lo schermo touch (in pratica ruotando il display sulla tastiera, il device si trasforma da ultrabook a tablet). Il tutto condito da una prolungata autonomia e da un’ottima connettività grazie al 3G”. Guna si equipaggia con 137 EliteBook, sostituendo totalmente il parco macchine precedente e prevedendo un ciclo di vita di quattro anni; in questo modo l’azienda decide di adottare la formula del noleggio (proposta da Elmec) per 48 mesi, evitando anche di impattare sul fronte finanziario. Dopo pochi giorni di training e configurazione degli applicativi, i portatili vengono distribuiti agli agenti e agli informatori: il software Crm (Pharmabusiness, un prodotto molto diffuso nel settore farmaceutico) gira in modo fluido, i cataloghi possono essere sfogliati con grande efficacia sullo schermo touch e gli ordini di acquisto vengono inviati in tempo reale grazie alla connettività 3G. “L’entusiasmo è tale”, chiosa Paschetto, “che stiamo pensando di portare sul Revolve altri applicativi; al momento abbiamo già ampliato il raggio d’azione dei device dematerializzando una serie di documenti medico-scientifici e distribuendoli in forma digitale sui portatili. Inoltre, siamo talmente contenti di questo prodotto che lo abbiamo inserito come opzione anche per l’equipaggiamento di altre figure aziendali, non solo della forza vendita”. Emilio Mango


Nata per passione, cresciuta con l'hi-tech e la ricerca

Un'attenzione maniacale per la qualità, un occhio di riguardo per la ricerca e per l'innovazione tecnologica e la voglia di espandersi sempre più all'estero. Questa la ricetta di Guna.

G

una si muove in un settore complicato, per la giusta presenza di vincoli normativi e per la concorrenza internazionale. Però cresce e si impone anche grazie all’accurato utilizzo delle soluzioni hi-tech. Technopolis ha intervistato Alessandro Pizzoccaro, fondatore della società. Ci racconta Guna in breve?

Guna è stata fondata nel 1983 da mia moglie e da me, allora giovani neolaureati, profondamente appassionati del messaggio medico e culturale omeopatico. Oggi l’azienda è leader in Italia nel settore. Il successo è dovuto in particolare alla produzione di un’innovativa serie di farmaci omeopatici di altissima qualità studiati e messi a punto dai nostri laboratori, oltre che alla distribuzione di una vasta gamma di medicinali e integratori

delle più prestigiose aziende straniere. Guna svolge inoltre un’intensa attività all’estero, dove è presente in oltre trenta Paesi con distributori in esclusiva (negli Usa c’è una filiale diretta) e dove ci aspettiamo la crescita maggiore in futuro. Quali sono i vostri punti di forza rispetto alla concorrenza?

Sicuramente l’arma vincente è la qualità, a partire da quella delle persone che compongono il nostro team; l’azienda conta oltre 250 dipendenti, di cui 98 informatori medico-scientifici, oltre a 30 agenti in farmacia. Inoltre la nostra caratteristica peculiare è la vasta gamma di farmaci, unica sul mercato e all’avanguardia. Quanto è importante la tecnologia nel vostro business?

Per ottenere prodotti innovativi è molto importante affidarsi a strutture produtti-

ve di primissimo livello, non a caso i nostri laboratori sono considerati all’avanguardia tecnologica non solo rispetto alle altre aziende del settore omeopatico, ma anche rispetto all’industria farmaceutica convenzionale. La tecnologia, d’altra parte, interviene in misura sempre maggiore in tutti gli elementi della catena del valore aziendale, dal contributo nel veicolare opportunamente l’informazione medicoscientifica attraverso differenti canali di divulgazione al supporto all’ambito commerciale, dall’automazione dei processi logistici alla condivisione dei dati e alla collaborazione tra le varie funzioni aziendali, fino a fornire gli strumenti necessari per rispondere in modo congruo alla molteplicità degli obblighi normativi e amministrativi che l’industria del settore richiede: una complessità gestionale ragguardevole per un’azienda certificata come Guna, che si muove su uno scenario internazionale. E quanto conta la ricerca?

Da sempre l’azienda destina un cospicuo budget alla ricerca scientifica e allo sviluppo. Nel 2007 è stato istituzionalizzato il progetto di Ricerca Clinica Guna, con l’obiettivo di verificare e di documentare l’efficacia di numerosi farmaci omeopatici di nostra produzione. Gli studi sono condotti dall’Unità di Ricerca Clinica Guna, attualmente unica nel mondo delle medicine complementari, che ha il compito precipuo di organizzare, registrare, coordinare, monitorare e portare a termine studi clinici di medicinali omeopatici secondo le norme della Good Clinical Practice, collaborando di volta in volta con svariate Università e centri di ricerca in Italia e all’estero. E.M. 7



IN EVIDENZA

l’analisi

PC, CLOUD E SOFTWARE CRESCONO MA IL MERCATO DIGITALE ITALIANO ZOPPICA ANCORA

Primo semestre in rosso per il digitale italiano, macro comparto in cui rientrano le soluzioni e i servizi di informatica, ma anche gli smartphone e la pubblicità online. Lo dice il periodico rapporto stilato da Assinform, l’Associazione di Confindustria che riunisce le aziende Ict del Belpaese: il giro d’affari è sceso del 3,1%, poco sopra i 31 miliardi di euro. Una contrazione minore rispetto a un anno fa (quando fu del 4,3%) ma comunque un dato negativo, su cui ha pesato parecchio il calo dei prezzi dei servizi di telecomunicazione (ricavi in picchiata del 9,2%). Non mancano le buone notizie, come il ritorno alla crescita del settore Pc e server (+6,5%) e del software applicativo (+4%) o la conferma del fenomeno cloud (+35,7%). Parlare però di “nascente innovazione digitale italiana in risposta alle esigenze di cambiamento e di apertura di nuove opportunità economiche del Paese”, come ha fatto il presidente di Assinform, Agostino Santoni, ci sembra un tantino esagerato. Per varie ragioni. La proiezione di fine anno, stando a quanto assicura NetConsulting, parla di un rallentamento della spesa limitato all’1,8%, mentre a luglio ipotizzava un incremento dello 0,6%. È giusto considerare che al netto della componente “servizi telco” il bilancio di metà anno del mercato digitale sarebbe in positivo dell’1,1%: le tariffe più convenienti per la connettività mobile, e quindi la maggiore penetrazione degli smarphone (in salita del 15% a 1,3 miliardi), sono però un elemento vitale dell’industry digitale, e quindi una voce inscindibile. I 774 milioni di

Dal rapporto Assinform emerge come il mercato delle tecnologie in Italia sia ancora in difficoltà, nonostante le buone prestazioni di alcuni segmenti. I vendor professano però fiducia. Giusta o fuori luogo? fatturato (+7,4% secondo Assinform) investiti dalle aziende italiane per i servizi di data center e cloud non sono pochi, ma fotografano lo stato di immaturità di questo mercato. E infine, l’insieme delle soluzioni catalogate sotto il cappello dell’Internet delle cose (controllo della produzione, energy management, automotive e via dicendo) cresce sì del 15,4%, ma in valori assoluti le cifre in gioco - circa 600 milioni di euro - sono ancora modeste. “La trasformazione del settore”, dice ancora Santoni, “evidenzia segnali molto interessanti pur in una congiuntura economica sfavorevole […]e tutto fa pensa-

re che la ripresa del mercato digitale nel suo complesso si avvicini”. Ci auguriamo tutti che sia così, ma se le condizioni affinché questa speranza si avveri (e presto) sono la ripresa di fiducia nelle imprese e l’attuazione dei progetti di digitalizzazione previsti dall’Agenda Digitale, qualche dubbio sorge spontaneo. Anche perché ci sono altri dati che non inducono all’ottimismo. Secondo The Innovation Group, il digital market italiano (Tlc, It ed elettronica di consumo) resterà nel 2014 sostanzialmente in linea con il 2013, fermandosi sotto quota 80 miliardi. Cresceranno solo cloud, Internet delle cose e dispositivi smart, ma a tassi ridotti rispetto a quelli di altri Paesi. Un mercato in stallo, insomma, su cui grava una zavorra, rilevata da Anie: il 18% delle imprese non si interessa alle nuove tecnologie informatiche e a Internet, e solo il 25% considera l’innovazione tecnologica come un generatore di produttività. Gianni Rusconi

OTTOBRE 2014 |

9


IN EVIDENZA

“Un prodotto rivoluzionario che potrà arricchire la vita delle persone. Apple Watch è il dispositivo più personale che abbiamo mai realizzato”. Tim Cook Ceo di Apple

TABLET E INDOSSABILI, IL SILICIO DI INTEL VA OLTRE IL COMPUTER L’accordo con Fossil, azienda che opera nel campo degli accessori per il fashion, per lo sviluppo di nuove soluzioni wearable da indirizzare all’industria della moda, è solo la punta dell’iceberg. E dicasi lo stesso per Mica, My Intelligent Communication Accessory, il bracciale intelligente progettato da Opening Ceremony (di cui At&t sarà il gestore telefonico esclusivo). Le ultime mosse di Intel vanno decisamente oltre il tradizionale campo di azione del colosso di Santa Clara, quello dei processori e dei chipset per Pc e server, e anche l’ultimo Idf (il summit degli sviluppatori) è stato un evento ricco di annunci in tal senso. Il silicio e le soluzioni di Intel, in altre parole, non guardano più solo ai Pc, ai device mobili e ai data center, ma abbracciano universi ancora vergini o quasi (per chi produce chip su larga scala) come l’Internet delle cose e i dispositivi indossabili. Il mantra che ispira il lavoro di sviluppo dell’azienda è stato riassunto in poche parole dal Ceo, Brian Krzanich: dare vita a nuovi segmenti di mercato in cui ogni oggetto è intelligente e connesso. In questo filone si inseriscono, in modo diverso, programmi per gli sviluppatori come il Reference Design per Android, pensato in orbita tablet, o come l’Analytics for Wearables (A-Wear) fi10

| OTTOBRE 2014

Il gigante di Santa Clara è sempre più focalizzato sulle tecnologie per wearable e tavolette. Con un occhio di riguardo agli sviluppatori. nalizzato ad accelerare la creazione e l’implementazione di nuove soluzioni indossabili basate sull’analisi dei dati. Edison, il microcomputer con connettività wireless integrata rivolto a inventori e innovatori (ora disponibile per chi desidera sfruttarlo), è un’altra faccia che popola il nuovo orizzonte dell’innovazione secondo Intel. Quanto alle novità in campo computing, la promessa di costruire “macchine” dotate di funzionalità cognitive si è in parte materializzata con un tablet (il Dell Venue 8 Serie 7000, che sarà in commercio già prima di Natale) con a bordo la tecnologia fotografica RealSense. Di cosa si tratta? Di una soluzione capace di creare una mappa di profondità ad alta definizione per rendere possibili misurazioni, messa a fuoco a posteriori e filtri selettivi con il semplice tocco di un dito. Tecnicismi a parte, è il primo passo mosso in direzione degli sviluppatori di app per aprire una nuova frontiera dell’interazione fra gli utenti e le loro immagini digitali.

LA BUSINESS MOBILITY SI FA QUADRATA Si chiama Passport, ha i tasti fisici ed è la nuova proposta BlackBerry per l’utenza professionale. La peculiarità estetica di questo smartphone? Lo schermo quadrato da 4,5 pollici. Quella funzionale? Poter visualizzare righe da 60 caratteri contro i 40 degli altri telefonini. Un pregio, sommabile all’assistente vocale e alla possibilità di modificare documenti muovendo il dito sulla tastiera, su cui la casa canadese ripone le speranze per “imporre” questo dispositivo (prezzo sui 600 dollari) all’attenzione di chi predilige dispositivi Android o iOs. A questi utenti l’azienda propone anche Blend, un’app che permette di portare i contenuti e la messaggistica del proprio BlackBerry su un massimo di cinque tra tablet (iOs o Android) e computer (Pc Windows e Mac). Su Passport sarà preinstallata.


WINDOWS RIPARTE DA 10. IL SOFTWARE UNIVERSALE Niente Windows 9, come tutti credevano. La nuova creatura di Microsoft si chiama Windows 10 e la sorpresa sul nome di battesimo è fra le pochissime novità rispetto alle indiscrezioni (in primis, il ritorno del Menu Start e la possibilità di gestire le app in una tradizionale finestra sul desktop) emerse in queste ultime settimane. Il nuovo Windows sarà rilasciato nel 2015, si parla di aprile, mentre la Technical Preview è già disponibile (per un selezionato panel di utenti) dal primo ottobre. Perché 10 e non 9? Perché, si dice, a Redmond vogliono prendere le distanze da Windows 8 e far dimenticare, al mondo business soprattutto, i mal di testa conseguenti la fatica di digerire i cambiamenti imposti da “8” e dalla sua interfaccia a mattonelle animate. “Windows 10”, ha proclamato non a caso Terry Myerson, numero uno dell’Operating Systems Group, “rappresenta il punto di partenza per la nuova generazione di Windows” e “sarà la miglior versione del nostro sistema operativo per i nostri clienti aziendali”. Dove sta la peculiarità? Nell’essere, almeno sulla carta, un software realmente universale, in grado cioè di funzionare su qualsiasi tipo di device, mobile e non. Un ponte che copre il

Microsoft ha battezzato il nuovo sistema operativo. La promessa: funzionerà sulla più ampia gamma di dispositivi di sempre. solco di interoperabilità fino a oggi esistente fra i diversi dispositivi, dagli smartphone agli “all in one” da 27 pollici. Microsoft parla anche di Xbox e di dispositivi connessi per l’Internet delle cose (senza citare gli indossabili), ma il senso è chiaro: il nuovo Windows nasce per essere una piattaforma aperta e collaborativa, che promette vantaggi sia per gli utenti sia per gli sviluppatori. Per questi ultimi sarà infatti possibile scrivere un’unica app adatta a tutti i device, da poter scaricare in un unico store digitale. Le scommesse da vincere sono due, una di natura funzionale e l’altra in chiave business (Windows pesa a bilancio circa 19 miliardi di dollari, un quarto dei ricavi di Microsoft). Windows 10 entra in campo in uno scenario in cui Windows 7 è ancora il software operativo più utilizzato (cattura il 50% del mercato globale dei sistemi per Pc, tablet ovviamente esclusi) e le due versioni di Windows 8 ancora ferme a un installato complessivo del 13%. G.R.

FRA MINECRAFT E IL NODO NOKIA Presto non sentiremo più parlare di Nokia e di Windows Phone? Siamo alle sole indiscrezioni, ma un documento trapelato da Microsoft rivelerebbe come lo storico brand sia prossimo al pensionamento, per lasciare spazio al nome Lumia. Destinato all’oblio anche quello della piattaforma mobile di Redmond, sostituito dal più universale Windows. Pagherà, in fatto di vendite di smartphone, la razionalizzazione dei marchi ispirata al progetto di un unico e grande ecosistema onnicomprensivo? Vedremo. Nel frattempo Satya Nadella ha staccato un assegno da 2,5 miliardi di dollari per comprare Mojang, la software house svedese del videogioco Minecraft (cinquanta milioni di copie vendute dal 2009 a oggi e utili di cento milioni di dollari generati solo nel 2013). “È più di un grande marchio”, ha detto del nuovo “giocattolo” il Ceo di Microsoft.

TABLET A RILENTO, FINITO IL BOOM? Le tavolette faranno la fine dei netbook, fenomeno assoluto dal 2007 al 2010 e poi presto finito nell’oblio? No, ma è certo che questo settore sta conoscendo un vistoso rallentamento, soprattutto nei mercati maturi. Idc, nello specifico, ha rivisto al ribasso le stime di crescita per il 2014, dal 12 al 6,5%, per un volume di spedito previsto di 233 milioni di unità. Il prezzo medio di vendita, invece, si livellerà fra i 373 e i 302 dollari.

11


IN EVIDENZA

ELLISON LASCIA IL TIMONE, ORACLE SEMPRE PIÙ CLOUD Sul palco di San Francisco, per il keynote di apertura dell’OpenWorld 2014, non poteva mancare. E infatti l’imprinting al “nuovo” corso di Oracle, ancora più focalizzato sul paradigma del cloud, l’ha dato lui, Larry Ellison, Ceo “dimissionario” di un colosso da 37 miliardi di dollari di fatturato, da lui fondato 37 anni fa e protagonista di una delle stagioni più effervescenti (a colpi di acquisizioni miliardarie) della storia dell’informatica made in Silicon Valley. Il leitmotiv del suo intervento è stato una sorta di promessa e rivendicazione: “Siamo l’unico fornitore che permette ai suoi clienti di utilizzare la propria piattaforma cloud per creare, distribuire ed espandere le loro applicazioni”. Una piattaforma, Oracle Cloud, che ha richiesto otto anni di lavoro, ma che oggi copre tutte le modalità di espressione del paradigma “as-a-service” (Software, Platform, Infrastructure e Data) e che costituisce il cuore pulsante della rinnovata offerta della società. Senza dimenticare, naturalmente, le nuove Exalytics In-Memory Machine, i sistemi ingegnerizzati per i Big Data e la business intelligence che fondono risorse hardware, software e storage in un unico device. Spostare un database nella nuvola, aggiornandolo automaticamente, premendo semplicemente un pulsante: la

“Siamo focalizzati sul mercato enterprise perché sappiamo come fare sicurezza e produttività. E la crescita arriva dai prodotti verticali”. John Chen, Ceo di BlackBerry

12

| OTTOBRE 2014

Il Ceo dimissionario conferma la centralità dei servizi nella nuvola e affida la guida della società al braccio destro Mark Hurd e alla fedelissima Safra Katz. filosofia di Oracle suona un po’ come il graffio di commiato di Ellison. Che d’ora in poi ricoprirà il ruolo di Presidente esecutivo e Cto lasciando il timone in mano ai due co-direttori generali, Mark Hurd (ex numero uno di Hp) e

ADDIO AGLI ANALYTICS GENERICI

Safra Katz (che rimarrà anche direttore finanziario), promossi a co-Ceo. A loro il compito di portare in campo cloud la prua di Oracle oltre quelle di Amazon, Google, Ibm, Microsoft e via dicendo. A Ellison quello di garantire una transizione senza turbolenze e di godersi, all’alba dei suoi 70 anni, un patrimonio personale calcolato in 46 miliardi di dollari (di 67 milioni fra bonus, stipendio e stock option il compenso dell’ultimo esercizio), l’America’s Cup e l’isola hawaiana di Lanai, comprata nel 2012 per 300 milioni di dollari. Gianni Rusconi Un mercato che nel 2013 valeva 37,7 miliardi di dollari e che, a detta della società di ricerca Idc, crescerà a un tasso del 9,4% anno su anno da qui al 2018. L’evoluzione della business analytics sarà non solo quantitativa, ma qualitativa: la strategia “un prodotto per tutte le taglie”, valida in passato, è stata sostituita dal focus sull’ottimizzazione di workload specifici. A contendersi questo mercato ci sono Oracle (con il 17,9% di share), Sap, Ibm, Microsoft e Sas.


PROFESSIONISTI IT CERCASI Nello Stivale presto esisterà un forte gap di posizioni professionali in ambito informatico. “Nel 2020 mancheranno in Italia tra le 100 e le 200mila figure tecnologiche”, ha dichiarato il presidente di Confindustria Digitale, Elio Catania. Per correre ai ripari, l’associazione “sta lavorando a un grande programma pubblico-privato, tra Pmi, industria e Pa”. Ma non basta: secondo Catania, bisognerà investire di più in formazione. Dove trovare le risorse? A detta del presidente di Confidustria, si possono dirottare sulla scuola fondi dell’Unione Europea attualmente usati dalla Regioni per progetti poco innovativi.

VENDOR IN CATTEDRA La collaborazione fra mondo universitario e grandi nomi dell’Ict mondiale trova due casi esemplari in Oracle e Samsung. L’azienda statunitense ha messo a disposizione alcuni suoi professionisti e tecnologie per il Master in Big Data Analytics lanciato dall’Università Luiss: un corso post-laurea che si propone di colmare una lacuna evidenziata da moltissimi studi recenti, cioè l’assenza di data scientist ed esperti in gestione delle informazioni. Il corso, in partenza nel mese di novembre per 25 iscritti, prevede otto mesi di lezioni (in lingua inglese) e quattro mesi di stage. La società sudcoreana si focalizza invece sul mondo mobile e sullo sviluppo applicativo con la Samsung App Academy, un programma di corsi ospitato all’interno del Mip Politecnico di Milano, in un’aula multimediale allestita con tecnologie Samsung. Il primo, partito a metà ottobre, è dedicato allo sviluppo di app per i non addetti ai lavori.

STARTUP: L’EUROPA FA IL PIENO DI RISORSE. L’ESEMPIO DI GOOGLE

Un bottino da 2,1 miliardi di euro, in barba alla crisi economica: è quanto sono riuscite a ottenere dai venture capital le startup europee nel solo secondo trimestre del 2014, secondo i conteggi di Data Jones Venture Capital. La cifra è in crescita rispetto allo scorso anno, non tanto per l’aumento numerico delle operazioni di investimento (+6%) quanto per il maggior valore di ciascuna “sponsorizzazione”: in media, la cifra investita per singola startup è passata da 1,5 a 2,2 milioni di euro. In particolare, l’interesse degli investitori si riversa sul mondo dei servizi di consumo (a cui è andato oltre un terzo dei 2,2 miliardi di euro), in primis quelli di e-commerce, di car-sharing e di contenuti digitali. Fra i venture capital più generosi c’è quello di Google, azienda che ha portato al successo avventure come quelle di Nest, Uber e Cloudera. In luglio il gigante di Mountain View ha annunciato un finanziamento di cento milioni di dollari destinato alle migliori idee imprenditoriali in ambito It. “Crediamo che la scena europea delle startup abbia un potenziale enorme”, ha dichiarato Bill Maris, managing partner di Google

In un trimestre le nuove imprese del Vecchio Continente hanno ottenuto 2,1 miliardi di euro dai venture capital. Da Mountain View arriveranno 100 milioni di dollari. E un programma ad hoc. Ventures, divisione creata nel 2009 e che in cinque anni ha già finanziato circa 250 neoimprese. Oltre alle risorse economiche, Big G promette di fornire supporto ingegneristico e consulenziale per la selezione del personale, il marketing e lo sviluppo del prodotto. E non è tutto. La società ha recentemente avviato un programma che concede alle startup (europee e non) 100mila dollari di credito in servizi cloud da usare sulla Google Cloud Platform, offerta che comprende servizi di gestione di database, applicazioni, storage server. Accanto all’Europa c’è poi l’Asia: a Seul, Google inaugurerà un nuovo campus con spazi di co-working e altri servizi a disposizione delle startup coreane. Seguiranno iniziative simili a Varsavia e San Paolo. V.B.

13


IN EVIDENZA

NOVE MESI DOPO, ACG è SEMPRE PIù INTEGRATO IN POLYEDRO Il punto, a meno di un anno dall’acquisto della divisione Acg di Ibm da parte di TeamSystem. Meno di un anno fa veniva perfezionata una delle operazioni più clamorose del nostro panorama It: TeamSystem, sempre più decisa a ottenere la leadership nel settore dei software gestionali, acquisiva la divisione Acg di Ibm, trasformandola in una società del gruppo marchigiano. Vista la storia di successo della piattaforma As/400 (delle cui applicazioni Acg si occupava), l’acquisizione fece scalpore. Dopo nove mesi, facciamo il punto con l’attuale amministratore delegato Giuseppe Busacca per capire che cosa sia cambiato nell’organizzazione e quali prospettive abbiano l’azienda e i suoi clienti. Quali sono stati i vantaggi più importanti dell’acquisizione?

Il gruppo di lavoro di Acg, formato da circa 115 specialisti (di cui 80 sviluppatori), è passato da un contesto globale e focalizzato su diverse aree, a uno più limitato ma specifico, in cui il software gestionale è il core business da 35 anni. Insomma, sicuramente ora Acg è in un ambiente più favorevole allo sviluppo rispetto al passato. Si possono già evidenziare i primi risultati concreti?

Al momento dell’acquisizione, la struttura rappresentava sicuramente un asset valido (come aveva anche evidenziato la due diligence), ma le prospettive di crescita erano limitate e la base clienti iniziava ad assottigliarsi. Il nostro primo obiettivo

14

| OTTOBRE 2014

Giuseppe Busacca

“Con l’acquisizione dei server x86 di Ibm ampliamo il nostro business in ambito hardware e servizi a livello globale, posizionandoci al terzo posto nel mercato mondiale dei server”. Yang Yuanqing, presidente e Ceo di Lenovo

SAMSUNG STAMPA CON ANDROID dopo l’acquisizione era infatti quello di ridurre il tasso di abbandono, cosa che è già avvenuta. Non avrete acquisito Acg per puntare a una crescita zero?

No, il secondo obiettivo era quello di cominciare ad acquisire nuovi clienti. Per ottenere questo secondo risultato è stato ed è essenziale il lavoro di squadra con il resto del Gruppo TeamSystem. La nostra rete di vendita nazionale è infatti una delle migliori e più competitive sul mercato. Come gestirete un prodotto chiuso in un mondo sempre più “open”?

Prima di tutto, abbiamo investito per dare alla piattaforma Acg un percorso evolutivo e per inserirla nell’ecosistema del Gruppo. La soluzione, infatti, entra a far parte a tutti gli effetti della famiglia Polyedro (all’inizio del 2015 avrà la stessa interfaccia). In secondo luogo, stiamo integrando tutti gli strumenti offerti da TeamSystem (Crm, gestione documentale e Business Intelligence) anche in Acg. Infine, nell’ottica di un’integrazione sempre più spinta tra Acg e TeamSystem anche sotto il profilo organizzativo, le soluzioni Acg saranno commercializzate da tutta la rete del Gruppo.

Seguendo le orme di Sony e di Toshiba, anche Samsung abbandonerà il business dei personal computer. Lo farà, quanto meno, in Europa, interrompendo dal mese di gennaio la distribuzione dei suoi Pc Windows e Chromebook, per “adattarsi rapidamente alle necessità e alle richieste del mercato”, come spiega una nota ufficiale. Accelera, al contrario, l’impegno dell’azienda sudcoreana in ambito printing: sono disponibili anche in Italia le prime multifunzione interamente basate su Android, la gamma laser Smart MultiXpress. Dieci i modelli, diversi per velocità e volumi di stampa consigliati, ma accomunati dalla presenza di schermi touch funzionanti come tablet, da cui gestire applicazioni, navigazione Web (con stampa diretta da email, cloud e siti), editing di documenti, trasferimenti via Nfc e molti altri strumenti.


L’IMPRESA? MEGLIO DIGITALE In che modo le imprese possono trarre giovamento dall’ultima ondata di digitalizzazione, quella che coinvolge i social media, il cloud e i Big Data, e il tutto ovviamente in mobilità? La risposta non è semplice, ma passa attraverso la giusta integrazione di tecnologie che sono già disponibili. A dirlo è Andrew Smith, head of service lines Europe, Africa e Latin America di Avanade, solido partner di Microsoft che fa dell’impresa digitale il suo cavallo di battaglia. Avanade cresce del 20% all’anno e ha superato il miliardo di dollari di fatturato puntando su un modello di business votato a integrazione di sistemi e servizi gestiti, soprattutto in ambiente Microsoft. “La nuova frontiera è la scrivania digitale”, racconta Smith, “un paradigma che sta stravolgendo il modo di lavorare soprattutto delle grandi imprese grazie a Office sul cloud, ai social e più in generale alla comunicazione. È prima di tutto un cambiamento di ordine culturale, che Avanade è in grado di facilitare sia nelle organizzazioni aziendali sia in quelle pubbliche.” Smith, che ha partecipato a luglio a

LOGISTICA 2.0 Logistica e automazione della forza vendita traggono beneficio dalle moderne tecniche di location intelligence. Lo sa bene Value Lab, che ha rilasciato la versione 10.2 della propria soluzione GeoIntelligence Logistic Analytics. Forte di una base installata consolidata e di un motore di ottimizzazione innovativo, la nuova versione integra, oltre alle

Digital Venice, si è confrontato con i responsabili della digitalizzazione europea e italiana e ne è uscito ottimista: “Ormai è chiaro a tutti che ci sono molte inefficienze che si possono risolvere grazie al digitale, e a Venezia ho notato molta voglia di fare, sia sul fronte dei servizi della Pubblica Amministrazione sia, per esempio, su quello della smart energy. L’Europa ha un grande potenziale di innovazione, dovuto anche all’eterogeneità delle sue esperienze, e io sinceramente non ho notato una diversità di atteggiamento nei confronti del digitale tra i Paesi del nord e quelli del Mediterraneo”.

Andrew Smith

LA FABBRICA FUTURA è SMART A giugno Milano è stata la capitale della fabbrica intelligente. La città ha infatti ospitato le terza edizione del World Manufacturing Forum, un momento internazionale di incontro fra industria, istituzioni e Università (l’evento era organizzato dal Politecnico di Milano insieme a Intelligent Manufacturing Systems). Molti i temi emersi nel corso dell’evento, primo tra tutti le opportunità offerte dalle soluzioni di digital manufacturing al Vecchio Continente, attanagliato da una lunga crisi economica e occupazionale. “L’Internet delle cose sta trasformando il mondo manifatturiero”, dice Marco Taisch, professore ordinario del Politecnico di Milano, “grazie ai sensori a basso costo, alle connessioni di oggetti e strumenti e all’elaborazione sempre più avanzata delle informazioni, avremo fabbriche più flessibili e ri-configurabili a seconda delle esigenze”. Questo trend, unitamente all’esigenza di riportare la produzione vicino ai luoghi di consumo, potrebbe essere la chance tanto attesa dall’Europa per tornare a crescere. “Non dobbiamo sottostimare la capacità del manifatturiero di generare occupazione”, conclude Taisch. “È infatti dimostrato che per ogni posto di lavoro che si crea nell’industria ne nascono due nel comparto dei servizi”.

classiche funzionalità di ottimizzazione vincolata dei giri e di zonizzazione, il modulo di creazione scenari alternativi. “Seguendo le indicazioni dei clienti”, dice Stefano Brigaglia, Geosolution Manager di Value Lab, “abbiamo puntato molto sulla semplicità di implementazione e personalizzazione del sistema, integrando un ambiente di progettazione visuale in grado di coniugare la facilità d’uso con analisi sofisticate”.

15


IN EVIDENZA

DOPO LA SCISSIONE: DUE HP FARANNO MEGLIO DI UNA SOLA?

Meg Whitman

Hp tenta la via della scissione, separando le sue attività in due diverse società. Una, chiamata semplicemente Hp, si focalizzerà su personal computer e stampanti, mentre Hewlett Packard Enterprise dovrà cercare di generare business dai prodotti e dai servizi destinati alle aziende. La conclusione dell’operazione è fissata per la fine del prossimo esercizio fiscale, e quindi entro ottobre del prossimo anno. In sella alla nuova “enterprise company” siederà l’attuale Ceo, Meg Whitman, cui spetterà anche la presidenza dell’azienda orientata al mondo consumer (il cui Ceo sarà l’executive Dion Weisler). L’amministratore delegato, che già tre anni fa meditava lo scorporo del business dei Pc, farà quindi da anello di congiunzione fra le due nuove società. Lo storico nome dell’Ict mondiale prova a giocarsi la carta del rilancio (la Whitman ha parlato di svolta strategica) e lo fa puntando sulla maggiore flessibilità operativa delle due divisioni, ben sapendo che le dinamiche del mercato viaggiano a velocità non più sostenibili per una “old company” dell’informatica. Hp parte da un organico attuale di oltre 300mila dipendenti (dai quali, però 55mila considerati esuberi e quindi a

16

| OTTOBRE 2014

L'azienda di Palo Alto è pronta a sdoppiarsi in due diverse società: una dedicata a Pc e stampanti, l'altra alle soluzioni enterprise. Così tenta il rilancio in un mercato sempre più dinamico. rischio di tagli) e da un fatturato di 112 miliardi di dollari (nel 2013), in calo negli ultimi trimestri. La spinta alla scissione, scriveva il Wall Street Journal alla vigilia dell’annuncio ufficiale datato 6 ottobre, sarebbe arrivata in seguito alle forti pressioni degli azionisti. Le voci di una possibile fusione con Emc, sul fronte delle soluzioni per i data center, sono invece per il momento finite in un cassetto. Certo è che il valore del titolo in Borsa si è praticamente dimezzato rispetto al gennaio dell’anno 2000, quando veleggiava oltre i 65 dollari. La nuova Hp divisa in due farà meglio della vecchia? Il partito degli scettici non ha perso tempo nel bollare il ribaltone: una (doppia) cattiva scommessa. A Palo Alto, Whitman in testa, sono ovviamente convinti del contrario.

STAMPARE MALE? COSTA MILIARDI Ammonta a sette miliardi di euro e a una perdita di 14,7 minuti al giorno per addetto il danno che annualmente le aziende sostengono a causa di tecnologie di printing inappropriate o superate. Lo dice una ricerca condotta da Coleman Parkes Research (per conto di Epson) su 1.250 decision maker dell’area It in cinque Paesi europei, Italia compresa. Il problema, dice lo studio, potrebbe essere fortemente ridotto utilizzando servizi remoti di stampa gestita in alternativa ai modelli di printing centralizzato, ancora in uso nel 51% delle organizzazioni.

EXPO 2015 VISTA DAI DRONI Una serie di video che ogni settimana mostreranno l’avanzamento del cantiere dell’Esposizione Universale di Milano. Questa l’idea nuova del progetto “Belvedere in città”, che userà la tecnologia mobile 4G di Telecom Italia per distribuire le immagini sul sito ufficiale e sui canali social di Expo. Un punto di osservazione privilegiato, dicono i diretti interessati, che fino a tutto aprile 2015 permetterà a chiunque (cittadini in primis) di seguire le fasi finali dei lavori. L’evento, secondo uno studio della Cciaa di Milano, avrà un impatto economico di 23,6 miliardi di euro in termini di produzione aggiuntiva su tutto il territorio italiano da qui al 2020.


l’opinione

TRASFORMAZIONE DIGITALE: UNA SFIDA INEVITABILE

Come cambia il settore dei servizi It e come si adatta a Hp, uno dei principali fornitori di questo settore, alle nuove condizioni imposte dal cloud e dal “nuovo stile dell’It”? Technopolis lo ha chiesto a Sergio Colella, vice president e general manager Enterprise Services di Hp Enterprise Services Italia, per disegnare il profilo di un mercato sempre più importante per le imprese nostrane. Qual è la dinamica del mercato dei servizi It a livello mondiale e italiano?

Secondo i dati Assinform, i servizi Ict in Italia hanno registrato nel primo semestre 2014 un ribasso del 2,4% rispetto al 2013, in linea con le performance in calo del mercato digitale italiano. Tuttavia, il trend è in controtendenza se si guarda alle componenti più innovative del business dei servizi, in particolare quelli legati a data center e cloud, che crescono del 7,4%. Quali sono le principali differenze tra il nostro mercato e quello europeo?

Da una recente ricerca di Hp, condotta tra oltre 3.500 It decision maker in 15 Paesi, emerge un divario tra la promessa legata all’It e la realtà di un potenziale ancora inespresso. Se si confrontano Italia e Francia, per esempio, emerge una differenza “culturale” legata alla percezione da parte dei Ceo del valore strategico e del ruolo di driver di sviluppo associato alla tecnologia. In Italia, infatti, ben il 37% dei Ceo crede che l’It non rappresenti una leva strategica per la crescita del business, in Francia solo la metà.

Le attività legate a cloud e data center crescono anche in Italia, ma il gap con l’Europa è ancora profondo, soprattutto sotto il profilo culturale. Come si è trasformata Hp Enterprise Services per seguire queste dinamiche?

In linea con la strategia di Hp del “new style of It”, che punta alla convergenza di cloud, sicurezza, Big Data e mobility in un’unica soluzione capace di connettere al meglio un’organizzazione con tutti i suoi stakeholder, Hp Enterprise Services sta concentrando gli investimenti su queste quattro aree, fondamentali nell’ottica dell’auspicata trasformazione digitale delle aziende e della Pubblica Amministrazione italiana. Inoltre, al fine di sviluppare un’offerta capace di indirizzare al meglio le esigenze dei clienti, Hp Enterprise Services si focalizza sui concetti di consulenza, trasformazione e gestione, attraverso una piattaforma di soluzioni innovative, specializzate per settori di mercato. Più in dettaglio, come si è inserita in un tessuto imprenditoriale che sta perdendo competitività?

Hp Enterprise Services crede nelle potenzialità dell’It per favorire la trasformazione e lo sviluppo del sistema Paese italiano e si pone quale abilitatore di tale cambiamento, contribuendo attraverso una forte presenza sul territorio e nuovi investimenti a livello locale nell’ambito di cloud e data center. Proprio la creazione di nuovi data center

Sergio Colella

favorisce risparmi, maggiore efficienza e disponibilità delle informazioni per le aziende che lo utilizzano, insieme alla creazione di valore e di nuove opportunità per l’intera filiera. Quali sono gli ambiti e i casi di maggior successo in Italia?

L’impegno di Hp Enterprise Services si concretizza in molteplici iniziative sviluppate nel nostro Paese, sia in ambito privato sia pubblico. Per esempio, il progetto EdocWork 3.0 realizzato con la Regione Puglia è l’unica iniziativa di “smart education” inserita nel programma Smart City and Communities per il Sud Italia, promosso dal Minstero dell’Istruzione, Università e Ricerca (Miur). Con l’obiettivo di valorizzare le eccellenze locali e proporre un modello facilmente replicabile su scala nazionale, il progetto mira a promuovere nuove modalità di apprendimento attraverso le tecnologie e la Rete. Sempre nel settore pubblico, la pluriennale collaborazione con il Miur, finalizzata alla digitalizzazione di alcuni servizi, ha generato vantaggi per tutto l’ecosistema scolastico. Grazie ad Hp il Ministero ha ridotto del 33% il suo portfolio applicativo, eliminando funzionalità obsolete o ridondanti, e ha diminuito del 38% i costi di sviluppo software.

17


SCENARI | Data Center

Il centro SI TRASFORMA: IL DILEMMA DEI CIO Una ricerca svela come oggi, più di un anno fa, i chief information officer europei facciano fatica a definire una strategia per ottimizzare le risorse delle sale macchine. Gli ostacoli? Elementi disruptive. Che riaprono il problema della sicurezza e dello storage dei dati.

F

orze distruttive, a volte in contrasto fra loro, stanno accelerando la trasformazione dell’It in azienda. Il dibattito è noto: l’esplosione dei dati, la transizione verso il mobile, la diffusione dei social network e ancor di più il cloud computing stanno modificando tanto le infrastrutture informatiche quanto i processi e le strategie di molte organizzazioni. Quello che però non sempre viene sottolineato è come queste forze possano anche rallentare l’evoluzione tecnologica, per esempio qualora i decisori aziendali (Cio e non solo loro) non siano in grado di calcolarne tutti i rischi e le conseguenze. Oppure qualora si compiano errori di valutazione sulle capacità necessarie al proprio data center. A fare luce sulla questione corre in aiuto uno studio promosso da Colt, che ha censito oltre 500 decisori It (in ambito infrastrutture) a livello europeo. L’indagine ha evidenziato che, rispetto a un anno fa, oggi è più difficile delineare strategie coerenti e rapide per la gestione e la trasformazione dei data center. Paradossalmente, mentre il ritmo 18

| OTTOBRE 2014

dell’innovazione informatica diventa più serrato, i piani di aggiornamento riguardanti i centri dati rallentano. Il 62% degli intervistati, in media, ha parlato in tal senso di cicli di cambiamento più estesi nel tempo. Il problema, secondo Colt, è subito riassunto: l’interazione social, il mobile, il cloud e i Big Data sono una priorità tecnologica per molte aziende ma il rallentamento dei processi strategici relativi ai data center, in un momento in cui dovrebbero invece essere veloci ed efficienti, è un elemento preoccupante. Tanto più che altri studi dimostrano come almeno un responsabile It su cinque sia convinto che la propria struttura di data center non sia in grado di stare al passo con i cambiamenti.

L’impatto dell’Internet delle cose

Entro il 2020 gli oggetti connessi attivi sul pianeta saranno qualcosa come 26 miliardi. Ed è partendo da questo numero che Gartner prefigura una nuova sfida per chi gestisce i data center. L’Internet of things, questo l’assunto, si porta dietro effetti che potenzialmente possono trasformare tecnologie, dinamiche di offerta e domanda, modelli di vendita e di marketing. Dove stanno le turbative l’ha riassunto in modo esemplare Fabrizio Biscotti, research director della società di consulenza americana: l’implementazione delle soluzioni Iot andranno a generare grandi quantità di dati che dovranno essere elaborati e analizzati in tempo reale, e di conseguenza aumenteranno in proporzione i carichi


di lavoro dei data center. Per aziende, Cio e vendor It, insomma, sono all’orizzonte nuove complessità da affrontare in fatto di sicurezza e di capacità di elaborazione e di analisi. I vantaggi insiti nel collegare risorse e dispositivi remoti a un sistema centralizzato, attraverso un flusso di informazioni in real time (integrando tali attività in nuovi processi organizzativi), sono evidenti. Sotto il profilo della produttività e quello delle dinamiche decisionali. È però altrettanto

Un responsabile It su cinque è convinto che la propria struttura di data center non sia in grado di stare al passo con i cambiamenti tecnologici e di business

vero che l’enorme numero di dispositivi in gioco, accoppiato con il volume e la struttura dei dati generati dall’Internet degli oggetti, aggiunge nuovi fronti di complessità da superare, per esempio in fatto di gestione e ottimizzazione dello storage, dei server e della rete. I responsabili dei data center dovranno distribuire in modo più lungimirante le capacità in queste aree per poter soddisfare in modo proattivo le priorità di business associate al fenomeno Iot. Le

ECCO COME CAMBIERÀ LA SALA MACCHINE Notevoli incrementi di densità energetica (in media, 52 kW per rack) e dei carichi di lavoro effettuati nel cloud computing, che attualmente assorbono più di un terzo delle attività complessive di un data center. Crescente utilizzo dell’energia solare e di altre fonti rinnovabili per alimentare (fino alla completa autonomia) server e apparati vari. Sono alcuni dei tratti che caratterizzeranno, stando a

quanto recita un rapporto previsionale stilato da Emerson Network Power, i data center nel 2025. In linea generale, la maggior parte degli esperti ritiene che la sala macchine sarà interessata nel prossimo decennio da importanti cambiamenti, destinati a trasformarne radicalmente l’ambiente fisico. Fra undici anni il data center – questo il messaggio esplicito emerso dallo studio – non sarà sicuramente solo un luogo di elaborazione dati così come lo abbiamo conosciuto finora. La stessa Emerson, del resto, è al lavoro a braccetto con Dell, Hp e

esistenti infrastrutture di rete Wan, in particolare, appaiono come un fattore critico perché dimensionate sulle tradizionali interazioni fra persone e applicazioni. L’Internet delle cose cambierà le carte in tavola, proprio perché aumenterà in modo massivo la quantità di comunicazioni che i sensori invieranno ai data center per essere processati, e di conseguenza la capacità di banda necessaria. Verrà meno, questo il possibile scenario, la tendenza a centralizzare le applicazioni per ridurre i costi e aumentare la sicurezza; molte organizzazioni saranno costrette ad aggregare i dati in più mini data center distribuiti dove trattare inizialmente le informazioni in arrivo da remoto per poi convogliare successivamente i dati rilevanti in un sito centrale. Effettuare il backup di enormi volumi di informazioni grezze non sarà per i Cio e responsabili It un compito facile. Problemi di governance potenzialmente insolubili potranno arrivare inoltre dalla larghezza di banda della rete e dello storage remoto. Il paradigma del software defined data center, e di fatto quello di un’architettura informatica completamente virtualizzata e flessibile non è mai stato così reale come oggi. Piero Aprile Intel per lo sviluppo congiunto di un nuovo standard industriale per la gestione dei centri dati, standard che si propone come evoluzione della Intelligent Platform Management Interface lanciata nel lontano 1998, in un’era in cui i server erano amministrati da controller a 8-bit. RedFish, questo il nome, nasce come strumento preposto a migliorare l’accesso e l’analisi dei dati e ad assicurare la totale interoperabilità tra le diverse piattaforme server. Agirà sui fronti della sicurezza, della scalabilità e delle funzionalità dei centri dati. Con l’intento, non certo ultimo, di abbatterne i costi.

19


SCENARI | Data Center

LA COMPLESSITÀ è RINCHIUSA IN UN BOX Per far fronte a infrastrutture cloud sempre più costose da gestire, i vendor offrono soluzioni “chiavi in mano” testate e certificate. Proponendosi così come unico interlocutore delle aziende. Ecco le filosofie di offerta di Fujitsu e Oracle.

N

el passaggio dalla virtualizzazione al cloud computing gli ambienti It hanno guadagnato flessibilità e agilità, ma si sono trovati di fronte a una difficoltà, se non imprevista, quanto meno superiore alle aspettative: la complessità. L’integrazione fra piattaforme hardware e software di differenti vendor, l’uso misto di cloud pubblici e privati e, soprattutto, la necessità di evolvere continuamente per seguire le esigenze di business hanno mutato completamente i ritmi con cui i data center (reali o virtuali) vengono aggiornati. Gestire un’infrastruttura cloud così complessa richiede competenze diversificate e in particolare la capacità di relazionarsi con numerosi fornitori hardware e software. In queste condizioni, affrontare e risolvere un problema può diventare estremamente oneroso, sia in termini di costi sia in termini di tempo. Per evitare che i processi di innovazione rallentino o addirittura si fermino, alcuni vendor hanno provato a immaginare delle soluzioni “chiavi in mano” i cui punti di forza sono la semplicità di gestione e l’avere un unico interlocutore. Tra le novità più recenti ci sono quelle di Fujitsu e Oracle. La società giapponese, che negli scorsi mesi ha riorganizzato le sue attività a livello mondiale per porre 20

| OTTOBRE 2014

tutte le aree geografiche sono uno stesso ombrello operativo, le definisce “sistemi integrati”. Le soluzioni proposte vanno dalla semplice infrastruttura per un uso generico fino a sistemi dedicati ad applicazioni specifiche. In totale i casi d’uso immaginati da Fujitsu sono otto, e spaziano da ambienti Sap e Microsoft fino a soluzioni dedicate all’analisi dei Big Data e alla sicurezza IT, dalla virtualizzazione dei server a quella dell’infrastruttura desktop, dal cloud privato all’High Performance Computing (Hpc). Fujitsu propone anche una nuova generazione di Cluster in-a-box, che offre funzioni di elevata disponibilità grazie alla ridondanza dei suoi componenti. La soluzione si basa sui server Primergy e sfrutta la piattaforma Microsoft Windows Server 2012 R2. Il Cluster ina-box è disponibile in due formati: un piccolo “mini-rack” completo di tutto o nel classico formato da armadio. Se Fujitsu risponde al problema della complessità facendosi carico della progettazione, dell’integrazione e della certificazione di tutti i componenti, Oracle ha scelto la strada di realizzare tutto in casa. Niente piattaforma x86, quindi, ma soluzioni Sun Sparc supportate dal sistema operativo Solaris. L’abbinamento si traduce in una serie di sistemi ingegnerizzati e soprattutto in quelle che

la società chiama Optimized Solutions: sistemi pronti all’uso sia per infrastrutture generiche sia per ambiti applicativi specifici. In totale Oracle propone ben sedici soluzioni dedicate, tra cui il Supercluster pensato per gli ambienti Sap e la “enterprise cloud platform” che integra la Oracle Virtual Machine. L’azienda di Redwood Shores, che sulla piattaforma Unix ha delineato una chiara roadmap per i prossimi anni e che punta a dimostrare come il costo totale di possesso (Tco) dei suoi sistemi sia significativamente più basso rispetto a soluzioni basate su x86, crede fortemente nell’integrazione del software direttamente nella Cpu. È una strada intrapresa già da qualche tempo con l’inserimento di algoritmi di codifica e decodifica all’interno dei processori, e che nei prossimi mesi vedrà una forte accelerata con l’aggiunta delle librerie del database Oracle e di Java. Questo dovrebbe permettere, secondo la società, un salto prestazionale senza paragoni. Paolo Galvani


The Machine APRE LE PORTE AL FUTURO La nuova architettura di computing di Hp, grazie a pool di memorie che si parlano attraverso la fotonica, renderà più veloci ed efficienti i data center. Ma non succederà domani.

L GOOGLE METTE LA QUARTA Un investimento da 600 milioni di euro per avviare la costruzione di un nuovo data center a Eemshaven, in Olanda, il quarto nel Vecchio Continente dopo quelli in Finlandia, Belgio e Irlanda. Le operazioni preliminari sono previste per la prima metà del 2016 e la struttura sarà operativa a tutti gli effetti entro il 2017. La mossa di Mountain View avrà non solo un risvolto tecnico e commerciale: Google ha infatti confermato mille posti di lavoro temporanei (per chi edificherà il data center) e 150 posizioni full time per informatici, ingegneri elettrici e meccanici e personale di sicurezza. Un’ultima nota di colore: la maggior parte dell’energia necessaria all’alimentazione del centro verrà ricavata da fonti rinnovabili.

a “macchina” di Hp promette di cambiare faccia al mondo del computing. Si chiama proprio The Machine il prototipo di architettura presentato in giugno all’evento Discover dal Ceo Meg Whitman e da Martin Fink, direttore degli Hp Labs. E proprio di rivoluzione hanno parlato i due dirigenti. Una rivoluzione lenta, però: questa innovazione arriverà gradualmente in commercio non prima del 2016, inizialmente a bordo della linea di server softwaredefined Moonshot. Ma che cos’è The Machine? “Non è un server, un laptop o un mainframe, bensì è un continuum che include tutto questo”, ha spiegato la Whitman. In termini più concreti, si tratta di un’architettura che sfrutta processori purpose-built e un pool di memorie che comunicano fra loro grazie alla fotonica. Il risultato, a detta di Fink, è “un formidabile incremento

di densità e una formidabile riduzione di consumi energetici”. Lo spostamento dei dati da una memoria all’altra consuma circa il 90% dell’energia e del tempo impiegato dagli attuali sistemi, mentre con questo approccio si potranno eseguire operazioni in modo più veloce, disperdendo meno energia e calore. E se i vantaggi saranno visibili su un singolo sistema (un Pc, per esempio), è su scala data center che si immaginano le applicazioni più interessanti. L’architettura prevede anche l’utilizzo di un pool di memorie identificate con l’etichetta di “universal memory”, costruite su un “memristor” che offre il potenziale per uno storage ultra veloce a costi minimi. “Gli elettroni calcolano, i fotoni comunicano, gli ioni archiviano. In queste sei parole è racchiuso il funzionamento di The Machine”, ha detto Fink. E se sembra tutto troppo bello per essere vero, c’è un ostacolo che separa la teoria dalla pratica: l’esigenza di sviluppare ex novo un sistema operativo che possa gestire questo diverso modello di esecuzione di calcoli, storage e comunicazioni. Ci vorrà tempo, come ammette Fink: “The Machine non dev’essere un Big Bang”. V.B.

21


SCENARI | Data Center

generazione in-memory Troppo costose fino allo scorso anno, le nuove architetture stanno prendendo sempre più piede, di pari passo con l’avvento dei Big Data e con la disponibilità di soluzioni cloud.

I

l punto di svolta sono state le economie di scala nella produzione di chip di memoria e i progressi nell’ingegnerizzazione di computer in grado di utilizzare in modo più massiccio ed efficace la memoria centrale. Questo trend, che peraltro continuerà in futuro, ha fatto sì che si diffondesse sempre di più il paradigma chiamato “in-memory computing”, vale a dire l’idea di tenere in memoria centrale, e non sui dischi dei dispositivi di storage, le informazioni utilizzate quotidianamente. A parte l’impatto sulle prestazioni, che ovviamente sono molto più elevate, l’inmemory computing permette di utilizzare database diversi da quelli tradizionali e più efficaci per gestire le informazioni non strutturate che arrivano ad esempio dai social network o dal mondo del ma-

chine-to-machine. Anche sul fronte della quantità di queste informazioni, l’ormai noto mondo dei Big Data, i database inmemory hanno ormai superato il limite intrinseco di capacità che, insieme ai fattori prima citati, ne frenava la diffusione.

A fianco, un sistema Active Edw di Teradata, in grado di “macinare” grandi moli di dati. Sopra un momento del Sapphire Now 2014

Partita quindi la corsa all’in-memory, tutti i fornitori di architetture sono prima o dopo entrati in questa nuova arena. Iniziando dai precursori come Teradata, le cui macchine specializzate servono da anni le grandi organizzazioni che devono poter accedere velocemente ai dati come le banche e le aziende del settore delle telecomunicazioni, per arrivare a Sap, che dell’in-memory computing ha fatto una bandiera con la piattaforma Hana, e Oracle, che l’anno scorso ha annunciato il supporto a questa più efficiente modalità di interpretare l’elaborazione dei dati. E i clienti, soprattutto le medie e grandi aziende? Non stanno a guardare e, via via che diventano più accessibili, scelgono le architetture in-memory, magari approfittando dei vantaggi in termini di costi e di flessibilità assicurati dal cloud.

HUAWEI: IL FOCUS È SUI SERVIZI

Eric Xu

22

| OTTOBRE 2014

Il data center sta vivendo in questi anni una profonda evoluzione. Se di “software-defined” è ormai comune sentire parlare, meno probabile è incontrare la definizione di Service Driven-Distributed Cloud Data Center (Sd-Dc2). Quanto meno perché è stata coniata da Huawei e presentata al pubblico solo in occasione del Cloud Congress 2014 dello scorso settembre. Il colosso cinese ha infatti deciso di ripensare all’infrastruttura del data

center focalizzandone le attività su tecnologie come il cloud computing, i Big Data e le funzionalità per la gestione dei dati. Service awareness, Business Intelligence e gestione unificata sono, secondo Huawei, le tre chiavi primarie del nuovo data center. Elementi fondamentali dell’architettura Sd-Dc2 sono la piattaforma cloud open FusionSphere, arrivata alla versione 5.0, e il sistema di storage convergente OceanStor. P.G.


Il data center del futuro? Sarà liquido VMware accelera nella direzione delle architetture definite via software, presentando un’evoluzione delle cosiddette infrastrutture convergenti, in partnership con Emc, Dell e Fujitsu.

Alberto Bullani

A

lberto Bullani, country manager di VMware Italia, cita Zygmunt Baumann, il sociologo che ha teorizzato la società liquida, per spiegare come sarà il data center del futuro. Baumann ha illustrato meglio di ogni altro, sia pur con una vena di pessimismo, i cambiamenti in atto nella famiglia, nel business e nelle nostre città: tutto è in movimento, tutto cambia, pochi o nessun riferimento, niente scogli a cui aggrapparsi. Insomma, l’uomo deve imparare a nuotare in un elemento fluido. Bullani non è altrettanto pessimista, anzi, cambiando prospettiva e pensando “semplicemente” alle architetture Ict che verranno, ha un moto di orgoglio, perché VMware, dice lui, è già pronta a nuotare. “Il nostro nuovo slogan”, dice Bullani, “è Brave New It. Significa che secondo noi Cio e It manager devono essere forti e innovatori nel cambiare con coraggio la fisionomia delle architetture informatiche, rendendole più liquide, in grado

di seguire e adattarsi ai cambiamenti del business in tempo reale.” Il software-defined data center, da qualche tempo cavallo di battaglia di VMware, è un elemento chiave di questo nuovo modo di vedere l’It. “In futuro”, prosegue Bullani, “gli unici elementi solidi saranno Cpu e memoria, il resto, soprattutto storage e apparati di rete, saranno liquidi, cioè definiti e gestiti a livello software”. In questo modo, un data center aziendale potrebbe per assurdo (ma nemmeno tanto) essere “rimodellato” dalla sera alla mattina, per conformarsi alle diverse esigenze di un business sempre più mutevole. Un tassello chiave di questa visione di VMware è la Hyper Converged Infrastructure, annunciata durante l’ultimo VM World di San Francisco. “Ci sono molte modalità per ottenere un software-defined data center”, spiega Bullani. “Rispetto all’approccio build your own, in voga anni fa, oggi prevalgono quelle che vengono chiamate converged infrastructure, vale a dire sistemi

progettati e ottimizzati per operare insieme. La nostra proposta, denominata commercialmente VMvare Evo, vede la partnership di fornitori leader di server e storage, come Emc, Dell e Fujitsu, per offrire al cliente finale un unico sistema ingegnerizzato in grado di essere attivato in quindici minuti e riconfigurato in pochi istanti grazie al software che abbiamo appositamente sviluppato”. VMware Evo, nelle sue due varianti Rail e Rack (la prima è già disponibile), si adatta a imprese di qualsiasi dimensione, dalla medio-piccola (il modulo base permette di gestire 100 macchine virtuali) fino alla grande corporation.

IL CLOUD è MOBILE Durante il VM World, la multinazionale ha annunciato il rebranding della propria piattaforma per il cloud ibrido, che ora si chiama vCloud Air. A parte il cambio di nome, tra le novità sostanziali c’è la disponibilità di una vasta gamma di applicazioni mobili, sviluppate da terze parti e validate da VMware. Ma la scelta forse più interessante è stata quella di rendere disponibile vCloud Air anche in modalità “on demand”. Il servizio, disponibile anche in Europa in versione beta, e in diretta concorrenza con quello offerto ad esempio da Amazon, permette di pagare con carta di credito i servizi scelti ed effettivamente “consumati”.

23


SCENARI | Social business

DI CORSA VERSO il NUOVO social paradigma

Le aziende sono di fronte a evidenze non più trascurabili: la trasformazione digitale è possibile. Ma servono strategie e risorse. Perchè non può essere un’avventura improvvisata.

C

ome trasformare le imprese valorizzando le logiche e le architetture collaborative? Come trarre valore dai processi di digital business transformation? Domande che molti manager aziendali ancora si pongono, senza trovare risposta. Perché la materia “social” è liquida e complessa. Ed etichettarla come uno dei “temi caldi” del business odierno sarebbe improprio: non si tratta, infatti, di un singolo tema, ma di un insieme di temi che si combinano fra loro, in un’onda trasformatrice che sta investendo organizzazioni grandi e piccole, nonché funzioni aziendali diverse, che vanno dalle risorse umane al marketing, passando per i processi di collaborazione fra i dipendenti e per l’utilizzo di Facebook. Temi che sono il piatto forte di eventi capaci di richiamare centinaia di professionisti, come l’ultima tappa milanese del Social Business Forum. 24

| OTTOBRE 2014

Qui si è discusso dei vantaggi dei nuovi modelli organizzativi improntati alla collaborazione, all’apertura e al crollo delle gerarchie verticali (per esempio, trattando il dipendente come un “social employee” che può generare idee e contribuire a diffondere i valori dell’azienda). Si è anche ribadito, però, che essere “social” ha un costo e non assicura ritorni immediati dell’investimento. E che bisogna essere in grado di generare “engagement” perché oggi il cliente di un brand o servizio (lo riferisce uno studio di Oracle) per il 90% dei suoi acquisti si lascia condizionare da una sfera sociale, reale o digitale che sia, mentre il 61% degli utenti si aspetta di essere coinvolto attraverso pagine social network con informazioni su prodotti e offerte. E tutto questo non basta ancora: la componente tecnologica, spesso bistrattata, è invece fondamentale. Implementare una strategia social richiede strumenti sof-

tware complessi, oltre che cambiamenti organizzativi interni al management e, spesso, anche competenze nuove (da sviluppare internamente o da cercare al di fuori dell’azienda). Il cambiamento parte dal cliente

Lo strumento social può attecchire e svilupparsi progressivamente nelle multinazionali e nelle piccole aziende. Ma le resistenze culturali al cambiamento persistono. Secondo un esperto della materia qual è Rosario Sica, chairman e cofondatore di OpenKnowledge, “i consumatori hanno compreso e saputo valorizzare le opportunità offerte dagli ambienti social e digital molto meglio delle imprese, e lo stesso dicasi per i fenomeni della sharing economy e della consumerizzazione delle tecnologie aziendali (il Byod, ndr), per inventarsi e creare nuovi mercati o addirittura forzare i dipartimenti It ad adottare disposi-


APPLICAZIONI USATE

LE SUL LAVORO IN ITALIA

34% 38% 29% 26%

APP DI CLOUD STORAGE APP MOBILE VIDEO STREAMING TWITTER

L'USO DI

FACEBOOK

OLANDA

BELGIO

ITALIA

IN PRESENZA DI DIVIETO IN EUROPA

41% 34% 33% 32% 31% 31%

U

n italiano su tre, il 32% per la precisione, aggira le restrizioni imposte dalla propria azienda per l’accesso ai social network, alle applicazioni di messaggistica e a quelle di cloud storage sul luogo di lavoro. Tale percentuale sale al 49% nella fascia d’età compresa tra i 18 e i 34 anni. Ancora più indisciplinati sono gli inglesi, i più propensi (nel 41% dei casi) a navigare su Facebook durante l’orario lavorativo, a dispetto delle regole aziendali. Eppure, in Europa l’accesso al social network per eccellenza è limitato o addirittura vietato al 40% dei dipendenti. Il quadro di cui sopra emerge da una recente indagine di Samsung, che ha coinvolto 4.500 persone in sette Paesi europei (Italia compresa). Dal punto di vista della sicurezza”, osserva Dimitrios Tsivrikos, psychologist dello University College London, “è comprensibile che i datori di lavoro vogliano controllare l’uso della tecnologia da parte dei propri dipendenti. Se però questo si traduce nell’ignorare le esigenze del professionista moderno, le aziende potrebbero andare incontro a un calo di produttività e di coinvolgimento”. L’altra faccia della medaglia? La stragrande maggioranza delle aziende non è dotata né di strumenti adeguati né di policy in grado di stabilire chi possa fare che cosa sui social network. Né, tantomeno, di strumenti che rendono la navigazione, su Facebook e simili, sicura e ottimizzata.

SPAGNA

Il lavoro in azienda si fa social e la parola d’ordine è “collaborazione”. È la social organization, la nuova frontiera organizzativa delle aziende attente ai vantaggi delle tecnologie 2.0, un modo diverso di fare impresa, basato essenzialmente sulle community collaborative e che ridimensiona le gerarchie e abbatte le barriere interne. Un grande rinnovamento, a cavallo delle piattaforme social, è in atto nella funzione Humar Resource. Se ne parlerà il 20 novembre a Milano nel corso di un evento organizzato da Hitrea e dall’Associazione Culturale Luoghi di Relazione.

Le policy aziendali sull’utilizzo dei social network in azienda (quando ci sono) sono violate dal 30% degli addetti italiani.

DANIMARCA

SOCIAL WORKING A CONVEGNO

FACEBOOK SUL LAVORO A TUTTI I COSTI

REGNO UNITO

tivi tipicamente consumer”. Le imprese, inizialmente insensibili a recepire queste tendenze, hanno poi cambiato opinione sulla spinta di queste forme di innovazione “distruttive” e, come puntualizza Sica, “si sono messe a fare i conti con logiche e architetture nuove e ad accelerare i processi di trasformazione”. Ai ritardi dovuti a vari fattori (mancanza di visione da parte del top management e incapacità di misurare il “social Roi” fra questi) fa ora seguito un atteggiamento più maturo: ci si proeccupa del “come” avviare il cambiamento e non più del “se”. I motori della trasformazione sono facilmente riconoscibili, ovvero le funzioni aziendali più direttamente in contatto con i consumatori come marketing, vendite, comunicazione. C’è però ancora un grosso ostacolo da superare. Per parlare di vera “digital transformation” serve, a detta di Sica, una visione strategica del cambiamento di paradigma e di modelli di business. Serve costruire, insomma, un nuovo modo di lavorare e di organizzarsi. V.B.

L'ACCESSO A

FACEBOOK NELLE AZIENDE EUROPEE

VIETATO/LIMITATO CONSENTITO

Fonte: Samsung

25


SCENARI | Business Analytics

il cliente top smascherato dagli analytics Oggi i nuovi algoritmi analitici permettono di anticipare i comportamenti di chi acquista ma, complice l’eccessiva sicurezza di sé, alcuni brand hanno scoperto di sopravvalutare la fedeltà dei propri fan.

D

opo tanto parlare di analytics e dopo anni di faticosa implementazione, i primi risultati iniziano a superare i confini degli uffici marketing. Si scopre così che la potenza di questi strumenti, nati per “vedere” informazioni utili nei depositi di dati in cui l’occhio umano non può penetrare, è effettivamente dirompente. Un esempio recente è quello emerso dopo uno studio condotto da Exane Bnp Paribas e da Value Lab nel settore della moda e del lusso, da sempre considerato l’ambito in cui il rapporto tra marchio e cliente è sacro e inviolabile. Ebbene, la ricerca, realizzata monitorando circa 400 brand mondiali, ha evidenziato ad esempio che, contrariamente a quanto ci si possa aspettare, lo scontrino medio di un cliente del segmento fashion and luxury è “solo” di 1.500 euro e, soprattutto, che il numero di articoli acquistati in un anno supera a malapena l’unità. Uno dei tanti “insight” svelati dagli analytics ma anche, nel concreto, un grosso problema per i direttori marketing, costretti a studiare differenti strategie per incrementare il fatturato a parità di perimetro dopo che, gli anni scorsi, erano riusciti a far crescere le loro aziende allargando il business a nuovi mercati (come Cina e Russia). “La tecnologia degli analytics ha rappresentato il punto di svolta nelle analisi di 26

| OTTOBRE 2014

marketing”, ha detto Marco Di Dio Roccazzella, equity partner di Value Lab, “perché ha permesso di catturare e integrare le relazioni dei clienti con i vari touch point (boutique, e-commerce, applicazioni, customer service) e di segmentarli partendo sia dagli atteggiamenti di consumo sia dalle interazioni con i vari canali. Tutto al fine di guidare la cerimonia di vendita nei negozi e di indirizzare campagne marketing mirate a clienti che, prima dell’avvento degli analytics, solo sulla carta sembravano fedeli”. Probabilmente gli uomini di marketing, nei settori moda e lusso, hanno scoperto la potenza degli strumenti analitici un po’ tardi. “Per noi, invece, il tema della customer intelligence è strategica da quando siamo nati, trentotto anni fa”, dice Giacomo Lorusso, managing director commercial & public market unit di Sas. “Da allora abbiamo sempre saputo che in ogni azienda c’è un patrimonio di dati che non viene valorizzato, e che oggi è ancora più prezioso e difficile da analizzare perché alimentato da un numero molto maggiore di touch point rispetto al passato”. Ma se il digitale è la nuova fonte miracolosa di dati, il faccia a faccia conta ancora molto in fase di azione: “È sorprendente constatare”, spiega Di Dio Roccazzella, “come le azioni più efficaci, una volta analizzate le informazioni, siano un giusto mix tra fisicità e

Sopra: Marco Di Dio Roccazzella di Value Lab, sotto: Giacomo Lorusso di Sas.

virtuale, così come le pratiche migliori dipendano dal singolo settore e quasi anche dal singolo brand, motivo per cui noi consulenti affianchiamo le case della moda e del lusso in tutte le fasi del processo di marketing, dall’analisi all’execution”. “L’analisi e l’azione multicanale sono d’obbligo”, gli fa eco Lorusso, “tanto che noi abbiamo creato il Sas Customer Decision Hub, un unico ambiente che permette di integrare, tra le altre cose, il marketing above the line, i social media, la geolocalizzazione e le fonti di dati esterne, spingendosi fino a considerare il singolo cliente, ottimizzandone l’ingaggio e anticipandone gli intenti, il sogno di ogni direttore marketing”.


SCENARI | Internet delle cose

l’opinione

CEO E INTERNET DELLE COSE: LA QUESTIONE NON è SE MA QUANDO

Internet delle cose influenza il business delle aziende, a partire dal fatto che alimenta gli ormai indispensabili Big Data. Anche se non se ne parla nelle riunioni di vertice, il suo effetto è percepibile. Dietro le quinte, infatti, ricercatori universitari e laboratori privati collaborano per aiutare le organizzazioni a interpretare quantità di dati sempre più grandi e sempre più utili per competere sul mercato. Nella convergenza di Internet e delle tecnologie cellulari, che dà vita all’Internet delle cose, i Big Data trovano la loro più prolifica fonte di informazioni. La raccolta, in logica di crowd-sourcing, dei dati provenienti dai sensori degli smartphone, ad esempio, consente ai sistemi analitici di generare servizi che spaziano dalle previsioni meteo alla personalizzazione della navigazione Web. È quello che in Telit chiamiamo “omni-sourcing”, ossia l’amplia-

mento della raccolta dei dati in modalità crowd-sourcing, per includere tra le fonti anche le macchine e le reti di sensori (non solo quelli degli smartphone ma quelli, molto più numerosi, dell’Internet of Things). L’effetto omni-sourcing creato dall’affermarsi dell’Internet delle Cose sta contribuendo a reinventare i processi decisionali in azienda, prima basati su sistemi tradizionali di raccolta delle informazioni. Presto, gli executive sfrutteranno le analisi dei big data per raccogliere metriche di performance sulle campagne e sui lanci di prodotti appena implementati. I prodotti e i servizi di Telit stanno semplificando la connessione degli oggetti all’Internet of Things, continuando ad aggiungere valore alla rivoluzione dei processi di business. Alexander Bufalino Cmo di Telit Wireless Solutions

Marco Canesi

ITALIA AVANTI IN ORDINE SPARSO Cresce a due cifre, sia in termini di punti connessi sia in termini di volume d’affari, il mercato del machine-to-machine. L’Italia segue piuttosto fedelmente il trend, con un numero di Sim in costante e significativo incremento (circa il 20% anno su anno), ma i progetti aziendali procedono ancora in ordine sparso, con diverse priorità a seconda del settore. “Le soluzioni tecnologiche sono disponibili e affidabili”, dice Marco Canesi, sales marketing manager M2M per l’Italia di Vodafone, “ma il numero di aziende che sono uscite dalla fase sperimentale non è ancora significativo perché spesso mancano i modelli di business o gli standard industriali, come nel caso delle automobili”. Secondo Vodafone, che in Italia ha creato una linea di business dedicata al mercato M2M e studia il fenomeno da almeno un decennio, l’80% delle aziende a livello mondiale ha già impostato una strategia per sfruttare le potenzialità di Internet delle cose, ma solo il 12% ha già lanciato un’iniziativa concreta.

27



SPECIALE | Cloud computing

Grazie ai vantaggi offerti in termini di competitività e agilità del business, il cloud continua a crescere: il 70% delle medie e grandi organizzazioni lo ha già adottato. Anche in Italia il mercato ha accelerato, pur se con modalità diverse a seconda degli ambiti applicativi.

Aziende tra le nuvole

V

enti di cambiamento nel cielo del cloud, che stanno portando questo fenomeno tanto dirompente a entrare in una seconda, più matura fase. Si tratta di un’evoluzione sia quantitativa, che aumenterà ulteriormente l’adozione dell’approccio Web-based e “as-a-service” fra le aziende, sia qualitativa, perché il cloud sta modificando il cuore del business, andando a sostenere carichi di lavoro mission critical. E questo sarà parte di una più ampia strategia di trasformazione, mirata a creare un’infrastruttura It più agile, flessibile e sicura. Un recente studio di Harvard Business Review stima che il cloud è utilizzato dal 70% delle organizzazioni medie e grandi a livello globale e che gli investimenti (nel 2012 erano di 15,8 miliardi di dollari) arriveranno nel 2016 a quota 42,9 miliardi di dollari. Il 41% delle aziende, gli“entusiasti” del cloud, citano come suo vantaggio principale una maggiore agilità del business. Il 74% degli intervistati sostiene che la nuvola ha portato un vantaggio competitivo, il

71% che ha ridotto la complessità del business e il 61% che ha aumentato la produttività dei dipendenti. Più competitivi con il cloud

Sempre meno lavoratori si dichiarano apertamente scettici, o addirittura negativi, nei confronti del cloud e solo l’8 % pensa che la propria azienda non ne abbia beneficiato in alcun modo apparente. Quasi tre intervistati su quattro (74%), invece, ritengono che ci siano stati vantaggi competitivi: nel 30% dei casi “significativi”, “medi o discreti” per il 33% e “modesti” per l’11%. Per sette imprese su dieci, fra quelle che hanno adottato il cloud ovvero il 70% del totale delle interpellate, la prima conseguenza è la riduzione della complessità del business, mentre per il 60% si ottiene un incremento di produttività dei dipendenti e per il 52% si migliora la capacità di far fronte alle esigenze dei clienti. Questo è quanto emerge da una ricerca, condotta da Harward Business Review in collaborazione con Verizon, che ha

preso in considerazione, a livello globale, medie e grandi organizzazioni. Sul fronte del “valore di business”, al primo posto (37%) viene nominate la semplificazione delle operazioni interne all’azienda, seguita dalla migliore delivery delle risorse e dalla creazione di nuove modalità di lavoro e collaborazione fra dipendenti (voci entrambe citate da oltre il 30% delle aziende) e poi dall’aumentata capacità di analisi dei dati e dal più veloce roll-out di nuove iniziative. La sicurezza rimane sempre un tema fondamentale, anche se meno “problematico” rispetto al passato. La quota di coloro che negano un aumento del rischio It è nettamente superiore alla metà del campione, cioè il 65%, e addirittura il 36% ritiene che l’adozione del cloud possa aumentare la sicurezza, mentre per il 29% non produce cambiamenti sui livelli di pericolo. Modello ibrido e “as-a-service”

Il cloud continua la sua ascesa a livello globale. Gartner prevede che entro il 2017 verranno investiti 250 miliardi OTTOBRE 2014 |

29


SPECIALE | Cloud computing

Grande crescita anche in Italia

Per alcuni anni il cloud, inteso soprattutto come public, è stato visto con diffidenza da molte aziende italiane. INVESTIMENTI Semplificazione, personalizzazione, sicurezza e performance hanno però ri1180 mln € dotto le perplessità dei Cio e la situa+28% zione sta cambiando: il settore, che ora 901 mln € vale 1,18 miliardi di euro, quest’anno in Italia è cresciuto del 31%. Questi i dati +31% riportati nell’edizione 2014 dell’Osservatorio Cloud & Ict as a Service, giunINFRASTRUTTURA CLOUD to alla quarta edizione e promosso dalla PUBBLIC CLOUD LA CRESCITA DEGLI School of Management del Politecnico +40% di Milano. Il passaggio alla nuvola rapINVESTIMENTI presenta spesso un aumento del valore 2013 2014 apportato ai processi aziendali, che ven1180 mln € gono arricchiti con nuove funzionalità e +28% Osservatori.net - School of Management del Politecnico di Milano - Giugno 2014 servizi nel 31% dei casi, mentre nel re901 mln € stante 63% ci si ritrova in uno scenario dollari soprattutto in applicazioni cloud mondo, attualmente meno del 25% guidato dalla sostituzione tecnologica e +31% per la commercializzazione, la vendita e sviluppa per il cloud. Se si considera solo nel 6% si assiste a una limitazione la gestione della supply chain. Il modelche l’85% dei nuovi software è basato del supporto ai processi. Dalla ricerca INFRASTRUTTURA CLOUD lo SaaS (Software-as-a-Service) crescerà sul Web e che, da stime, nel 2014 un emerge, inoltre, che un numero sempre GLI INVESTIMENTI IN PUBBLIC CLOUD +40 % di un 20% anno su anno, raggiungendo quinto di tutte le entrate derivanti dallo maggiore di applicazioni, anche vicine INFRASTRUTTURA entro un triennio un volume di affari sviluppo di applicazioni sarà generato al core business aziendale, si spostano pari a 45,6 miliardi di dollari. Il rebrandal Software-as-a-Service, è evidente dal tradizionale approccio on premise 2013 2014 DI MOBILE DEVICE MANAGEMENT 46% molti ding SOLUZIONI in chiave “as-a-service” diventerà, che nei prossimi anni ci saranno al cloud: social & web analytics, risorse CENTRALIZZAZIONE E CONSOLIDAMENTO DEI DATA CENTER quindi, un trend comune. nuovi sviluppatori impegnati33a% creare umane, posta elettronica & office autoOsservatori.net - School of Management del Politecnico di Milano - Giugno 2014 Sempre a detta diDEI SERVER Gartner, entro il applicazioni già nativamente concepite mation, enterprise social collaborationVIRTUALIZZAZIONE 32 % 2017VIRTUALIZZAZIONE ben il 50% delle per essere eseguite sulla nuvola. intranet, gestione documentale, ma anDELLOimprese STORAGE adotterà 29% il cloud ibrido. Infatti, nonostante gli PORTALI PER LA CREAZIONE DI APPLICAZIONI 24% elevati ritmi di crescita collegati alla nuVIRTUALIZZAZIONE DEL NETWORKING 18% vola, è importante considerare la comSVILUPPO DI UNO STRATO DI INTEGRAZIONE E ORCHESTRAZIONE 16% plessità degli ambienti di sviluppo, il GLI INVESTIMENTI IN AUTOMAZIONE DEL DATA CENTER 15 problema della convivenza con sistemi INFRASTRUTTURA% INTEGRAZIONE DEI SISTEMI TRAMITE PLATFORM-AS-A-SERVICE 6% legacy e il timore di perdere il controllo dei dati che permane in alcune aziende SOLUZIONI DI MOBILE DEVICE MANAGEMENT 46% e per determinati ambienti. Il modello CENTRALIZZAZIONE E CONSOLIDAMENTO DEI DATA CENTER Osservatori.net School of Management del Politecnico di Milano Giugno 2014 33% ibrido sarà, quindi, di fondamentale imVIRTUALIZZAZIONE DEI SERVER portanza per gestire questa transizione, 32% dal momento che offre un approccio VIRTUALIZZAZIONE DELLO STORAGE 29% misto in grado di sfruttare allo stesso PORTALI PER LA CREAZIONE DI APPLICAZIONI 24% tempo i vantaggi del cloud pubblico e VIRTUALIZZAZIONE DEL NETWORKING 18% di quello privato. SVILUPPO DI UNO STRATO DI INTEGRAZIONE E ORCHESTRAZIONE 16% Attualmente diverse applicazioni stanAUTOMAZIONE DEL DATA CENTER 15% no transitando sul cloud e ormai molte INTEGRAZIONE DEI SISTEMI TRAMITE PLATFORM-AS-A-SERVICE 6% vengono realizzate direttamente per essere cloud-based. Secondo Evans Data Corporation, sugli oltre 18 milioni di Osservatori.net - School of Management del Politecnico di Milano - Giugno 2014 sviluppatori di software esistenti nel LA CRESCITA DEGLI

30

| OTTOBRE 2014


che e-commerce, soluzioni verticali per il business e Crm & sales. Public cloud: adozione con cautela

Secondo l’Osservatorio Cloud & Ict as a Service, la componente identificabile come “nuovo mercato”, quella del public cloud, è aumentata del 40% rispetto al 2013, raggiungendo quota 320 milioni di euro. Le tradizionali critiche e barriere sono state oggi in gran parte risolte, anche se permangono cautele in alcuni settori, e l’adozione in Italia ha avuto nell’ultimo anno una forte accelerazione, sebbene con velocità diverse a seconda degli ambiti applicativi. Tra quelli in cui le aziende hanno maggiormente investito ci sono il document management, il finance & accounting e il Crm & sales.

DIECI TENDENZE PER IL 2014 Dove va il cloud computing? Forrester Research ha elencato dieci trend che, a suo dire, caratterizzeranno il settore nel corso di quest’anno. 1. Il Software-as-a-Service è lo standard di fatto per l’acquisto di applicazioni. Per alcune categorie, come lo human capital management, il customer relationship management e la collaboration, il SaaS ha già superato per diffusione i software installati in azienda. 2. Il public cloud è il default per l’Internet delle cose. Sarà ampiamente utilizzato per applicazioni di utilizzo sociale e pubblico, come l’Internet of Things per il settore medico, l’urbanistica e la sicurezza ambientale, grazie all’evoluzione della Business Intelligence. 3. Il catalogo dei servizi diventa la porta strategica per il cloud. Le aziende che ne svilupperanno

Risultano ambiti dinamici anche l’enterprise social collaboration, la business intelligence, il marketing demand generation, il social & Web analytics e le soluzioni verticali per specifici ambiti di business. “Per la maggior parte dei Cio non ci sono più dubbi nella scelta se adottare o meno soluzioni di public cloud”, spiega Stefano Mainetti, responsabile scientifico dell’Osservatorio Cloud & Ict as a Service. “Il dubbio principale riguarda il come adottarle, con quali modalità e con quale percorso”. La ricerca evidenzia che i fronti di ragionamento sono due: da un lato, capire come comporre il proprio sistema informativo, completando e integrando parti on premise con quelle cloud, e dall’altro comprendere uno funzionale (self-service, con single sign-on e con una fornitura centralizzata del servizio acquistato) guadagneranno un vantaggio competitivo. 4. Si passa dalla protezione del perimetro a quella dei dati. Cloud e mobilità fanno definitivamente piazza pulita del vecchio concetto di sicurezza perimetrale. Il focus si sposterà dalla protezione del network a quella dei dati, sparsi tra tanti device e nel public cloud. 5. Australia vs Europa. Lo scettro degli entusiasti del cloud spetta agli Stati Uniti, ma Europa e Australia si contenderanno il secondo posto, mentre la Cina è ancora in una fase di virtualizzazione e consolidamento. 6. Il disaster recovery da nuvola a nuvola. Le applicazioni cloud SaaS mettono sempre più a disposizione opzioni per salvataggio e ripristino da cloud a cloud. Crescono le offerte per automatizzare questo tipo di protezione. 7. L’open source domina nella configurazione automatica del cloud

come dovranno evolvere le competenze interne alla direzione Ict e le modalità con cui quest’ultima deve rapportarsi e interagire con le line of business. “Per arrivare alla costruzione di un sistema informativo ibrido”, continua Mainetti, “è necessario avviare un percorso interno di evoluzione della propria architettura su tre fronti: infrastrutturale, quello relativo all’architettura applicativa e quello riguardante la gestione dei device”. La “cloud enabling infrastructure” richiede alcuni punti chiave: la realizzazione di data center definiti dal software, la standardizzazione delle modalità di integrazione e orchestrazione applicativa, e infine l’introduzione di sistemi di gestione dei dispositivi mobili. Maria Luisa Romiti pubblico. Bmc, Ca, Hp, Ibm e altri fornitori di soluzioni proprietarie stanno adottando quelle open, che diventeranno lo standard di fatto. 8. Comincia l’era del “Bring Your Own Encryption”. Sempre più aziende chiedono ai fornitori di crittografare i dati nella nuvola, ma di mantenere in casa propria il controllo delle chiavi. 9. Sicurezza cloud più estesa, facile ed efficace. Strumenti come HyTrust facilitano il controllo del cloud privato e altre soluzioni automatizzano la trasformazione dei requisiti di sicurezza in policy business. Le aziende dovrebbero pretendere dal proprio fornitore soluzioni per automatizzare la sicurezza a 360 gradi. 10. Strade separate per virtualizzazione e private cloud. Due percorsi che le aziende dovrebbero affrontare separatamente. Il primo serve a consolidare e a rendere più efficienti le operazioni business; il secondo è un’ulteriore opportunità di business.

31


SPECIALE | Cloud computing

Per capire meglio che cosa si cela dietro una parola e un concetto decisamente abusati, ecco una piccola guida che spiega i concetti di IaaS, PaaS e SaaS. E a che cosa stare attenti quando ci si lancia in progetti ambiziosi da mettere sulle nuvole.

Guida pRATICA AL CLOUD COMPUTING

I

l cloud computing è un concetto molto più ampio di quanto si possa immaginare, che arriva ad abbracciare servizi, infrastrutture, applicativi, sistemi di archiviazione dei dati e altro ancora. Vale quindi la pena cercare di mettere a fuoco i concetti base del cloud e gli elementi che lo compongono, spesso identificati con sigle poco comprensibili ai non addetti ai lavori. Quando si parla di cloud si fa sostanzialmente riferimento a due concetti complementari. Il cloud computing è quello più generale, che definisce una modalità di elaborazione e gestione dei dati basata non più su sistemi fisici specifici e bene identificati, ma su un insieme di risorse hardware e software che possono essere localizzate in luoghi non delimitati, dentro o fuori l’azienda. 32

| OTTOBRE 2014

Per arrivare a questo risultato si passa dalla virtualizzazione, tecnologia che consente di prendere un gruppo di risorse hardware eterogenee (dai server ai desktop, dai sistemi di storage alla rete), riunirle in un unico insieme virtuale e utilizzarle allocandone delle porzioni per specifiche esigenze. Dalla potenza di calcolo riunita di due server fisici è così possibile ottenere un certo numero di server virtuali ottimizzandone lo sfruttamento. Il secondo concetto è quello di cloud, ovvero di nuvola: si tratta di quell’insieme di risorse indistinte che vengono sfruttate per uno specifico scopo. Per questo, quando si fa riferimento alla modalità di utilizzo delle risorse si parla di cloud computing (al maschile), mentre quando si fa riferimento a un

insieme specifico si parla solo di cloud (al femminile). Il cloud provider

Cloud e virtualizzazione hanno, da un lato, lo scopo di sfruttare meglio le risorse disponibili, dall’altro quello di offrire agli utilizzatori finali (aziende o dipendenti delle aziende) una serie di servizi erogati da remoto che possono eventualmente essere pagati a consumo, evitando così di dover installare hardware “ad hoc”. Quando la fruizione dei servizi avviene da parte di un’azienda, il fornitore viene definito cloud provider. Ma che cosa può essere offerto via cloud? Qui entrano in gioco le sigle più tecniche, accomunate dalla definizione di “as-a-service” (come servizio). Si


parte quindi dallo IaaS (Infrastructureas-a-Service), che consiste nella possibilità di utilizzare risorse hardware da remoto, per arrivare al SaaS (Softwareas-a-Service), dove l’oggetto del servizio sono specifici applicativi. Alla prima categoria, per fare un esempio pratico, appartengono i server virtuali che possono essere “acquistati” con pochi clic del mouse da fornitori come Amazon Web Services o Aruba, anche per un utilizzo limitato nel tempo. Questa modalità di sfruttamento delle risorse hardware permette alle aziende di ottenere una grandissima flessibilità: un server, ma lo stesso vale per le risorse di storage, può essere “noleggiato” solo per il tempo che serve e con la potenza necessaria, riducendo i costi in conto capitale ed evitando di dover affrontare l’obsolescenza dei prodotti installati nel proprio data center. Sfruttando al massimo le offerte IaaS, l’azienda può contare su quella che viene definita come “elasticità” del data center, che può variare le sue dimensioni velocemente in base alle necessità. Applicazioni in affitto

All’estremo opposto c’è invece il SaaS, dove ogni singola applicazione può essere “affittata” con il pagamento di un canone mensile o annuale. A volte non c’è nemmeno bisogno di pagare: l’esempio più noto è forse quello di Gmail, il sistema di posta elettronica di Google. A livello aziendale, invece, uno dei pionieri di questa modalità di erogazione delle applicazioni è stata SalesForce. com. In mezzo a queste due tipologie si posiziona l’offerta di PaaS (Platform-asa-Service), che solitamente comprende sistema operativo, linguaggio di programmazione, database e Web server che permettono agli sviluppatori di realizzare e far funzionare le loro soluzioni applicative su una piattaforma cloud. Esempi tipici di PaaS sono Microsoft Azure e Google App Engine. Nonostante il cloud computing e le cloud si propongano come soluzioni

che permettono di abbattere i costi in conto capitale, ridurre i costi di sviluppo e aumentare flessibilità e agilità aziendali, non sono tutte rose e fiori. Per una corretta ed efficiente gestione, infatti, servono competenze variegate e più ampie. Gli amministratori di sistema, di rete, di database, di storage devono avere un dialogo costante e aperto, oppure – ancora meglio – devono confluire in un’unica figura di riferimento dalla mente aperta e dalle competenze variegate. Inoltre, bisogna tenere presenti le necessità di sicurezza, dove backup dei dati e piani per il disaster recovery (la riattivazione delle attività It in caso di catastrofe) richiedono riflessioni specifiche, e di privacy, in particolare quando si ha a che fare con le cloud pubbliche o ibride (si veda il box accanto per saperne di più). Qualche mal di testa di troppo può venire anche a chi deve occuparsi della protezione dei dati, almeno quando le cloud sono private o ibride, dato che le modalità di difesa dai “cyberattacchi” possono cambiare notevolmente rispetto a quanto avviene nelle soluzioni più tradizionali installate “on premise”, ovvero all’interno dell’azienda. Vantaggi indiscutibili

Nel complesso, però, i vantaggi del cloud computing sono indiscutibili. Per le aziende più grandi si tratta di velocizzare, talvolta di molto, la messa a punto e l’avvio di nuovi servizi, mentre per quelle piccole il cloud spesso significa ottenere notevoli risparmi o accedere a risorse It che altrimenti non si sarebbero potute permettere. I dati di mercato del resto parlano chiaro: le aziende italiane hanno investito nel cloud il 35,7% in più nel primo semestre 2014 rispetto allo stesso periodo dell’anno precedente (dati Assinform/NetConsulting, si veda anche l’articolo di pagina 9). L’importante, come sempre, è avere le idee chiare sugli obiettivi da raggiungere e sui mezzi per ottenerli. Paolo Galvani

PUBBLICO, PRIVATO O IBRIDO Si fa presto a dire cloud, ma quando dalla teoria si passa alla pratica bisogna confrontarsi sulla tipologia di nuvola da creare. In principio il cloud computing era tutto pubblico, cioè offerto da provider che ospitavano sulle loro infrastrutture applicativi e dati dei clienti. Del resto la sua natura deriva proprio dall’idea di offrire servizi di varia tipologia da remoto, evitando l’acquisto e l’installazione di hardware in loco. Molte aziende, soprattutto nella prima fase, si sono però dimostrate restie a far uscire dai loro data center dati che potevano essere sensibili o addirittura critici per l’azienda stessa. I vantaggi del cloud, però, non sono solo legati a un risparmio economico e immediato, ma anche alla possibilità di gestire infrastruttura e servizi in modo agile e veloce. Per questo alcune società hanno cominciato ad adottare delle vere e proprie cloud completamente private, dove tutte le risorse hardware e software rimangono all’interno dei confini aziendali. Con lo sviluppo del mercato cloud, tuttavia, è emerso con chiarezza che spesso la via migliore consiste nell’adottare una soluzione mista, capace di unire cloud pubblico con il cloud privato. Alcuni servizi vengono quindi erogati dal provider remoto, mentre altri restano nel data center aziendale. Il tutto però gestito in maniera unitaria per trarre il massimo vantaggio. Ecco perché il cloud ibrido è spesso la scelta vincente.

33


ut computing perspiciatis SPECIALE | Sed Cloud

Potenza di calcolo e servizi applicativi erogati da remoto sono i due aspetti più visibili del cloud computing. Ma dietro le quinte tutto si basa sui sistemi di archiviazione dei dati, la cui complessità gestionale richiede un’attenzione particolare.

IL TERZO ELEMENTO

Q

uando si parla di cloud viene spontaneo pensare a server virtuali, capaci di garantire la necessaria, potenza di calcolo, e agli applicativi erogati dai provider. Non va dimenticato però che dietro questi due elementi fondamentali ce n’è anche un terzo, da non sottovalutare: lo storage. I sistemi di archiviazione dei dati hanno subito grandi evoluzioni negli ultimi anni e hanno raggiunto un grado di complessità notevole. Chiunque approcci il tema del cloud computing, sia esso un provider di servizi oppure un’azienda che punta a installarsi “in casa” una nuvola privata, deve quindi analizzare attentamente tutti gli aspetti legati all’archiviazione. E senza dimenticare, soprattutto per le imprese di piccole dimensioni, che storage cloud significa anche servizi di conservazione dei dati su sistemi remoti fruibili come servizio, gratuito o meno. Su questi ultimi non c’è molto da dire. In genere si parte da pochi gigabyte di spazio gratuito che possono essere ampliati a pagamento. I loro nomi sono noti: Google Drive, Microsoft OneDrive, Dropbox, 34

| OTTOBRE 2014

Apple iCloud, Amazon Cloud Drive, SugarSync e molti altri. Basta registrarsi e avere una carta di credito per poter accedere a spazi di archiviazione virtualmente infiniti. Attenzione però ai costi, non sempre competitivi rispetto al crescere della capienza, e al tema delle garanzie di sicurezza. Per essere chiari: meglio prevedere il backup anche dei dati archiviati con servizi cloud. Più complesso è l’aspetto dei sistemi di storage, siano essi messi a disposizione da un provider insieme ai servizi erogati o installati nel data center aziendale. In questi contesti non mancano i tradizionali fornitori, da quelli più specializzati come Emc, NetApp o Hitachi Data System a quelli dei provider più globali come Ibm, Hp, Dell e Oracle. A questi nomi si aggiungono quelli di aziende come OpenStor (www.openstor.net), i cui sistemi sono proposti da Share Distribuzione (www.shared.it). Realizzati in Italia, utilizzano un software integrato per la gestione dello storage di produzione tedesca. Visto che i sistemi di storage di una marca sono tradizionalmente incompatibili

con quelli di un’altra, almeno per quanto riguarda gli aspetti gestionali, anche in questo settore si sta prendendo con decisione la strada della virtualizzazione. Ogni produttore tende a offrire una propria soluzione, ma anche in questo caso il rischio è quello di rimanere vincolati a uno specifico brand. A risolvere il problema è stata un’azienda statunitense, DataCore Software, che ha messo a punto un sistema di gestione universale di tutto lo storage già presente in azienda, presente e futuro: SANsymphony-V, oggi arrivato alla decima versione, permette di interfacciarsi con dischi tradizionali o allo stato solido (Ssd), sistemi Nas (Network Attached Storage), soluzioni San (Storage Area Network) e sistemi di archiviazione proprietari di qualsiasi marca e modello. Infine, non va dimenticato che lo storage richiede una serie di attenzioni particolari, che vanno dal backup dei dati alla loro disponibilità continua per evitare interruzioni dell’operatività aziendale, dalle esigenze legate alla salvaguardia della privacy dell’azienda, degli utenti e dei clienti fino alla pianificazione di un eventuale “disaster recovery”. P.G.


TECHNOPOLIS PER BT E CISCO

HYBRID CLOUD PER COGLIERE I VANTAGGI DELLA NUVOLA

Il cloud ibrido permette alle aziende di gestire le inevitabili complessità di un passaggio sulla nuvola e di selezionare il modello più opportuno nella delivery dei servizi. Molte aziende si trovano, per diversi motivi, ad avere un’infrastruttura It eccessivamente frammentata e complessa; per fronteggiare un mercato sempre più competitivo e in evoluzione sono costrette a semplificare le attività, per ridurre i costi e reagire più rapidamente alle esigenze di business. Di conseguenza devono affrontare un progetto di trasformazione dell’It che consenta loro di recuperare efficienza e controllo. In questo contesto il cloud assume un’importanza sempre maggiore, in quanto oltre al controllo dei costi, che resta determinante, a favore dei servizi cloud interviene anche il loro valore aggiunto in termini di business. BT, in partnership con Cisco, ritiene che non esista un unico modello di deployment del cloud per tutte le esigenze di business. La maggior parte delle aziende sta iniziando a utilizzare diversi servizi e al tempo stesso realizzando infrastrutture cloud private. Il modello di cloud privato, sia esso su infrastruttura on-premise o acquisito come servizio gestito, è spesso quello preferito per la gestione dei dati sensibili e delle applicazioni di importanza strategica o soggette a normative specifiche.

Tuttavia, se il cloud privato viene realizzato internamente, on premise, saranno necessari investimenti in termini di capacità per far fronte alla gestione di picchi. Tali costi si possono in parte evitare se il cloud privato è scelto in modalità servizio gestito/hosted, come consigliato da BT. Le infrastrutture di cloud pubbliche, viceversa, sono spesso scelte per gestire picchi di domanda nelle risorse informatiche (IaaS), per gli ambienti di test delle applicazioni (PaaS) e per i servizi non critici o di nicchia (SaaS). I vantaggi primari dei servizi di cloud pubblico sono principalmente legati l’efficienza di costo (grazie alla condivisione delle risorse) e alla flessibilità (pay per use, con incremento o riduzione rapidi della capacità). Tuttavia, rispetto a un modello di privato, i servizi di cloud pubblico possono essere più difficili da personalizzare e offrono in generale meno sicurezza, privacy e garanzie di conformità. Quindi, esigenze diverse necessitano di modelli di deployment del cloud diversi. BT consiglia alle aziende di adottare un’architettura di cloud ibrido che faciliti l’integrazione di infrastrutture e servizi cloud distinti. Secondo la visione di BT e Cisco, l’approccio ibrido non rappresenta né una soluzione mirata, né uno stato di transizione verso un modello più unificato: al contrario, il cloud ibrido è l’architettura ottimale per gestire l’inevitabile complessità di un’infrastruttura It aziendale in quanto consente all’azienda di selezionare il modello più opportuno di delivery dei servizi per ciascuna applicazione. Le soluzioni di cloud ibrido possono essere elastiche, in quanto sfruttano i servizi cloud pubblici per esigenze specifiche, oltre ad essere in grado di scalare rapidamente e ribilanciare diverse infrastrutture cloud. Sono inoltre particolarmente robuste e di conseguenza adatte ad applicazioni mission-critical (per esempio, di Erp) e consentono di migliorare il time-to-market e ridurre i costi operativi del servizio grazie al selfservice, alle economie di scala e all’utilizzo di tecnologie standard. Per approfondire come BT e Cisco approcciano il tema cloud è disponibile il white paper “Cloud Ibrido, una roadmap strategica”. Partecipa alla discussione su BT Let’s Talk Italia: http://letstalk.globalservices.bt.com/it/ o scarica il documento. www.bt.com/italia www.cisco.com/IT

35


SPECIALE | Cloud computing

Le linee guida della Commissione Europea Norme contrattuali variabili e a volte poco chiare, con livelli di servizio non sempre impeccabili. Per la prima volta l’Europa interviene per aiutare le aziende e gli utenti finali nei rapporti con i fornitori di servizi cloud.

A

ziende e utenti finali hanno manifestato l’esigenza di disporre di uno standard unico per i servizi cloud. Questo è il risultato del Trusted Cloud Europe condotto dalla Commissione Europea, che è intervenuta concretamente pubblicando le linee guida: un primo passo verso la standardizzazione dei contratti attraverso la creazione di un sistema comune di Sla (Service Level Agreements), gli accordi per stabilire i tipi di servizi erogati dai fornitori di cloud, e verso la costruzione di metriche comuni per risolvere il problema delle diverse terminologie utilizzate dai provider. “È la prima volta che fornitori di servizi cloud raggiungono un accordo su linee guida comuni”, spiega il commissario Ue all’Agenda Digitale, Neelie Kroes. “Penso che ne trarranno beneficio soprattutto le Pmi, che le avranno a disposizione quando cercheranno i servizi cloud”. Concorda anche Viviane Reding, commissario UE alla Giustizia: “Il mercato digitale unico richiede alti standard di protezione dei dati. I consumatori europei e le piccole aziende vogliono termini contrattuali chiari ed equi. Le linee guida odierne sono un passo nella giusta direzione”. L’obiettivo, a tutela di imprese pubbliche e private nonché degli 36

| OTTOBRE 2014

utenti finali, è infatti quello di definire termini chiari e un linguaggio condiviso per i contratti, per quanto riguarda alcuni aspetti chiave: la disponibilità e affidabilità dei servizi offerti, la qualità del supporto, i livelli di sicurezza garantiti e l’ottimizzazione della gestione dei dati conservati nella nuvola. Il testo è diviso in sei capitoli: definizione degli standard contrattuali, terminologie, livelli minimi di servizio, sicurezza, gestione e protezione dei dati. “Le nuove linee guida sul cloud accresceranno la fiducia delle aziende e dei cittadini europei nei nuovi servizi innovativi e consentiranno di risparmiare”, afferma Reding. “Più fiducia significa anche più ricavi per le aziende in ottica di mercato unico digitale”. Infatti il cloud permette ai singoli, alle aziende e al settore pubblico di archiviare i loro dati e di gestirli in data center remoti, risparmiando, secondo la Com-

missione Europea, in media il 10-20%. Le linee guida sono state sviluppate dal Cloud Select Industry Group (C-SIG), come parte della seconda azione chiave dell’European Cloud Strategy della Commissione, per aumentare la fiducia in questi servizi da parte di imprese e utenti finali. Tra le aziende che hanno contribuito alla loro realizzazione troviamo Telecom Italia, Arthur’s Legal, Atos, Cloud Security Alliance, Enisa, Ibm, Microsoft e Sap. Come prossimo passo, la Commissione collauderà queste direttive con gli utilizzatori, in particolare con le Pmi. Saranno inoltre discusse con il gruppo di esperti di “cloud computing contracts”, istituito dalla Commissione nell’ottobre del 2013. Il dibattito coinvolgerà anche altre attività del Cloud Select Industry Group, per esempio il codice di condotta riguardante la protezione dei dati per i fornitori di cloud. M.L.R.


TECHNOPOLIS PER SHARE DISTRIBUZIONE

STORAGE ENTERPRISE: IL MOMENTO DELLE DECISIONI e, perché no, a prezzi competitivi. Michele Luzzi e Massimo Strina rispettivamente Ceo e responsabile del reparto ricerca e sviluppo di Share Distribuzione di Verona, in qualità di distributori per l’Italia di questo marchio ci hanno illustrato le peculiarità della proposta OpenStor. OpenStor è uno storage di produzione italiana ed utilizza uno storage software embedded di produzione tedesca. Gli storage OpenStor offrono un’ampia gamma di soluzioni da 8 a 72 dischi e sono stati progettati per essere flessibili (con funzionalità Nas iSCSI e Fibre Channel, supporto per Hdd Sas e/o Sata o Ssd per il massimo delle performance), scalabili sia nella capacità (anche le soluzioni entry level possono essere espanse con moduli Jbod aggiuntivi), sia nella struttura (si può partire con collegamento a 1 Gbit e passare poi al 10 Gbit o al più recente 40 Gbit semplicemente tramite add-on, oppure implementare il FCH). L’alta efficienza è garantita sia in termini di consumi (sono fra i più bassi del mercato) sia in termini di prestazioni (controller a 12 Gbit con cache di grande capacità consentono prestazioni ai massimi livelli oggi disponibili).

Il ruolo dello storage nell’architettura e nelle funzionalità di un sistema informatico aziendale è profondamente cambiato negli ultimi anni. L’evoluzione tecnologica da un lato e la relazione dell’It nei confronti del business dall’altro hanno determinato la trasformazione dell’archiviazione da elemento “periferico” a componente di primaria importanza ai fini dell’efficienza dell’intera struttura It. Il continuo aumento dei dati (si sfiora il 50% di crescita anno su anno), in massima parte non strutturati, e la naturale limitatezza dei budget aziendali destinati al reparto It impongono scelte accurate nella tipologia dello storage che deve rispondere a criteri ben determinati di efficienza (non solo nelle prestazioni ma anche nei consumi), flessibilità, scalabilità ed economicità; l’accesso al dato è oggi un fattore di enorme importanza, ma non tutti i dati possono essere trattati in egual misura. Non si può certo utilizzare storage ad alta efficienza, e quindi assai costosi, per l’archiviazione di dati non strutturati, importanti ma non essenziali alle esigenze di business delle aziende; né, d’altro canto, si può pensare di utilizzare risorse di tipo consumer per esigenze di database e di virtualizzazione che richiedono migliaia di operazioni di Input/Output al secondo (Iops). Ma non è solo la gestione dell’accesso al dato che preoccupa gli odierni responsabili delle infrastrutture It: anche garantirne la funzionalità “H24” è ormai essenziale, ed ecco che a quanto sopra esposto si devono aggiungere le problematiche di business continuity. Nell’attuale panorama del mercato, oltre ai soli marchi blasonati, spicca un piccolo ma attivo produttore italiano, OpenStor, a riprova che anche nel Belpaese si sanno proporre soluzioni innovative di classe enterprise

Il successo ottenuto in questi anni dagli storage OpenStor è dato primariamente dalla funzionalità di “iSCSI Automatic Failover” (HA), ovvero la possibilità di ridondare gli storage in maniera Attivo-Passivo o AttivoAttivo, funzionalità gestita in maniera totalmente automatica e gestita da una interfaccia Web semplificata. La business continuity è garantita in centinaia di installazioni in HA in aziende italiane con un elevato grado di soddisfazione dei clienti. Per info: www.openstor.net www.shared.it 37


TECHNOPOLIS PER 2WIN SOLUTIONS

2WIN SOLUTIONS È IN LINEA CON I PIANI DI SVILUPPO

Paolo Aversa, Ceo e partner di 2Win Solutions

Il bilancio dell’azienda, a un anno dalla costituzione, è estremamente positivo sia in termini di risultati di business sia di crescita delle risorse specialistiche. 2Win Solutions, system integrator specializzato nelle soluzioni Infor per le Pmi del settore manifatturiero discreto, consolida la propria posizione sul mercato confermando di mantenere il passo rispetto a previsioni e piani di sviluppo. A un anno dalla sua costituzione, nata dall’incontro di due aziende di successo, la AGS (Advanced Governance Solutions) e la WCM (World Class Manufacturing Solutions), 2Win Solutions (2WS) ha infatti saputo dare corpo a una mission che prevedeva la perfetta condivisione delle varie competenze specialistiche ed esperienze, per creare un vero e proprio punto di riferimento per le soluzioni Infor sul mercato delle piccole e medie imprese. Al di là delle competenze ultradecennali del team nell’implementazione di soluzioni per le imprese, l’unicità di 2WS è proprio quella di essere l’unico player italiano in grado di operare con le due principali soluzioni gestionali Infor, ovvero LN e Syteline, soluzioni Erp con un’ampia base installata e un solido percorso di sviluppo. Caratteristica che consente a 2WS di rispondere alle esigenze delle aziende con la massima flessibilità, 38

| OTTOBRE 2014

senza tuttavia penalizzare il livello qualitativo del servizio e la profondità funzionale. “In particolare, le soluzioni LN e Syteline”, evidenzia Paolo Aversa, Ceo e partner di 2Win Solutions, “soddisfano pienamente ogni esigenza, dalla produzione dei metalli, ai macchinari e alle attrezzature industriali, dall’hi-tech all’elettronica. Il software è fortemente integrato con gli strumenti per l’area commerciale, il Crm, la produzione, il magazzino e la supply chain, i reparti della contabilità e del finance, fino agli uffici delle risorse umane”. Un segnale tangibile del trend positivo di 2WS è dato anche dall’incremento dell’organico, che in un solo anno è già arrivato a 45 persone, tra collaboratori interni e personale indiretto. Si tratta di una crescita del 35% con un mix di profili professionali dove prevale un’elevata seniority, segno questo della volontà di svilupparsi tenendo fede ai propri obiettivi di eccellenza operativa. La risposta del mercato alla nascita di 2Win Solutions è stata assolutamente positiva e la conferma della capacità delle due parent company AGS e WCM di fare sinergia e raggiungere gli obiettivi prefissati è arrivata anche da Infor, che per il secondo anno consecutivo ha insignito 2Win Solutions del riconoscimento di gold partner. Forte di questi risultati, 2WS prenderà parte a Infor Day in qualità di platinum sponsor, Infor Day (http://it.infor.com/InforDayItaly) è l’appuntamento annuale di Infor che riunisce clienti della propria base installata, partner, esperti di prodotto e analisti di settore e che si terrà il prossimo 25 novembre presso l’hotel Melìa di Milano. Una giornata di aggiornamento sulle strategie evolutive di Infor e della sua offerta applicativa, con la possibilità per le aziende di seguire approfondimenti funzionali nelle breakout session disponibili per le varie soluzioni. “2Win Solutions”, prosegue Aversa, “sarà presente per confermare il proprio ruolo di leader nel network dei partner Infor, offrendo alle aziende un punto d’incontro per confrontarsi sui requisiti del business e sulle opportunità di sviluppo”.

Per ulteriori informazioni: www.2winsolutions.com


ECCELLENZE.IT | Azienda Ospedaliera della Provincia di Lodi

Dati al sicuro, pazienti connessi: l’ospedale guarda al futuro Grazie a nuovi server abbinati a tecnologie di virtualizzazione e ridondanza, la struttura sanitaria lombarda ha aumentato lo spazio di storage per archiviare i dati e ha potenziato la propria rete e il sistema di disaster recovery. Merito delle soluzioni AlcatelLucent Enterprise, sfruttate anche per offrire ai visitatori un accesso a Internet sicuro.

LA SOLUZIONE La rete dati è stata trasferita su un’architettura Alcatel-Lucent Application Fluent Network in grado di supportare le applicazioni legacy e aperta ai dispositivi mobili. Il data center è stato riorganizzato creando un’architettura distribuita e performante attraverso la Soluzione POD di Alcatel-Lucent. Le altre piattaforme di networking utilizzate sono OmniSwitch 10K, OmniSwitch 6900, OmniSwitch 6450, OmniVista 2500 Network Management, OmniAccess 4704, OmniAccess 4604 e OmniAccess AP93. Per la gestione degli accessi guest alla rete WiFi è stata adottata la soluzione scalabile ClearPass.

U

n ospedale davvero hi-tech si prende cura non solo della salute dei pazienti, ma anche di quella dei loro dati. In un mondo che spesso non brilla per adeguatezza tecnologica come quello della sanità, l’Azienda Ospedaliera della Provincia di Lodi è l’eccezione. Articolata in quattro presidi, Casalpusterlengo, Codogno, Lodi e Sant’Angelo Lodigiano, e al servizio di un bacino potenziale di 200mila abitanti, si distingue non per uno bensì per due progetti di ammodernamento It, entrambi recanti la firma di Alcatel-Lucent Enterprise (ramo d’azienda recentemente rilevato dalla cinese China Huaxin e diventato una società separata). Il primo, il più importante, riguarda la revisione del data center e della rete su cui viaggiano e poi vengono custoditi i materiali diagnostici e in particolare quelli archiviati come Pacs, ovvero Picture Archiving and Communication System, il metodo di digitalizzazione delle radiografie e di altre immagini. Diversi erano gli obiettivi: aumentare lo spazio di storage, rendere la rete IP più performante e disponibile, garantire la continuità e il recupero dei dati in

caso di incidenti (il cosiddetto disaster recovery). Obiettivi raggiunti grazie al rinnovamento dei server e alla loro diminuzione numerica, associata a tecnologie di virtualizzazione e di ridondanza. E c’è di più: il nuovo assetto ha permesso di ridurre del 60% il canone di manutenzione della rete dati e del 40% quello di server e storage, nonché di abbattere i costi di gestione grazie alle migliori performance e scalabilità dell’infrastruttura. In sintesi, sono state ottenute una migliore gestione dei flussi di informazione e della grande quantità di dati sensibili raccolti quotidianamente, nonché una più rapida e semplice risoluzione dei problemi. La seconda “eccellenza” per cui il polo sanitario lodigiano può distinguersi riguarda un servizio offerto direttamente ai pazienti, ai loro familiari e più in generale ai visitatori: una connessione a Internet facile, immediata e sicura. Attraverso la soluzione ClearPass di Alcatel-Lucent Enterprise gli utenti possono connettersi alla rete WiFi inserendo un unico dato (il proprio numero di telefono) all’interno di un form, aspettando di ricevere via Sms la parola chiave necessaria per accedere alla rete. OTTOBRE 2014 |

39


ECCELLENZE.IT | Msc Crociere

Il contact center naviga verso l’efficienza Le cuffie Jabra, nella versione con e senza fili, hanno sostituito la vecchia dotazione dei contact center presenti in Italia e in vari Paesi europei. Offrendo un miglior servizio alle agenzie di viaggio e agli 1,7 milioni di clienti annui dell’operatore crocieristico.

U

na flotta di dodici navi, che nel solo 2013 ha trasportato 1,7 milioni di passeggeri, in rotta fra mare e le più belle località costiere del Mediterraneo, del Mar dei Caraibi, dell’Oceano Atlantico e Indiano: i numeri di Msc Crociere rendono l’idea del volume di lavoro affidato al suo servizio clienti. Un servizio che è attivo quasi ininterrottamente (fino alle 22 dal lunedì al sabato, e per i privati anche la domenica) e che aveva bisogno di nuove tecnologie per poter essere davvero efficiente ed efficace. “MSC Crociere era alla ricerca di una soluzione capace di aiutare gli operatori del nostro contact center, che volevamo fosse il fiore all’occhiello dell’azienda nonché la prima interfaccia verso tutti i clienti, a lavorare meglio”, spiega Gennaro Montanarino, systems engineer e project leader dell’azienda. “Nella sede di Napoli, infatti, ci siamo dotati di una struttura con più di cento postazioni dedicate alle novemila agenzie di viaggio italiane e ai clienti che quotidianamente chiamano per un supporto alle prenotazioni”. Gli operatori del contact center necessitavano di nuovi strumenti per comunicare, che fossero leggeri, ma al tempo stesso resistenti e tecnologicamente adeguati. Dalla definizione degli obiettivi, Msc è passata alla selezione del giusto prodotto, vagliando le proposte di diversi vendor ed escludendo fin da subito le soluzioni di fascia entry-level e intermedie. “Abbiamo innanzitutto preso in considerazione i maggiori player in ambito prodotti per contact center e successivamente abbiamo valutato la dichiarazione di confor40

| OTTOBRE 2014

mità ai più severi standard in ambito di Safety and Electromagnetic Compatibility directive”, precisa Montanarino. La scelta è ricaduta su Jabra, con l’adozione della cuffia BIZ 2400: prodotto leggerissimo, meno di 60 grammi, ma anche resistente poiché realizzato con archetto in acciaio, cavo in kevlar e cuscinetti in pelle. “Anche la garanzia offerta ‒ Jabra è l’unica fornisce tre anni di garanzia sul modello Biz 2400 ‒ e l’attività di pre-sale hanno giocato un ruolo chiave”, specifica il systems engineer. I benefici? Montanarino sottolinea innanzitutto “la solidità costruttiva dei dispositivi, che garantisce elevato comfort ai nostri operatori, fino all’audio eccellente per sentire e farsi sentire meglio. Considerando il nostro standard elevato per i device di Unified Communication and Collaboration, siamo attualmente molto soddisfatti della scelta fatta e dell’implementazione che è avvenuta in modo rapido e semplice”.

LA SOLUZIONE Gli operatori dei contact center utilizzano nella versione bi-auricolare oltre 400 cuffie BIZ 2400, cioè il prodotto top di gamma di Jabra (un marchio di GN Netcom) e l’unico del mercato dotato di microfono a braccio ruotabile a 360°. Per il collegamento al Pc è stato usato l’adattatore Usb Jabra Link 220. Un’ottantina di utenti, fra team leader e postazioni in cui è richiesta maggiore mobilità, sfruttano invece il modello wireless Dect Jabra PRO 930, con connessione Usb diretta al Pc, oltre 120metri di raggio d’azione, dieci ore d’autonomia e funzione di ricarica veloce (l’80% in meno di 20 minuti). Il software Jabra Xpress consente la gestione di tutti i dispositivi.


ECCELLENZE.IT | Il Sole 24 Ore

Helpdesk centrale, la marcia in più per lettori e dipendenti Novell Service Desk ha permesso alla società titolare del terzo quotidiano più venduto in Italia di migliorare le operazioni di supporto It ai suoi dipendenti e clienti. La soluzione garantisce il rispetto dei Service Level Agreement, a fronte di costi ridotti e di una maggiore semplicità gestionale.

I

l Sole 24 Ore può contare su un helpdesk più efficiente e tempestivo nella risoluzione dei problemi e nel compiere altre operazioni tecniche di supporto ai lettori e ai dipendenti. Il merito di questo miglioramento è di Novell e della sua soluzione Service Desk, che ha permesso di abbandonare le due precedenti applicazioni passando a una gestione più centralizzata, efficiente e veloce delle richieste che riguardano il comparto It. Il protagonista del progetto non ha bisogno di presentazioni: il marchio Sole 24 Ore identifica il quotidiano economico e finanziario più popolare in Italia, con una tiratura media mensile di quasi 231mila copie (dati di Ads, aggiornati a luglio 2014), nonché il più letto sotto forma di abbonamento digitale. Il gruppo editoriale aveva bisogno di aggiornare la gestione dell’helpdesk It, affidata a due differenti applicazioni: una per gli utenti interni (impiegati e agenti di commercio) e un’altra per i clienti e per gli abbonati. Entrambe erano diventate obsolete, mentre il costo e la complessità

dei servizi erano in aumento. “Affidarsi a più strumenti esistenti per garantire il funzionamento del nostro helpdesk”, spiega Salvatore Petrucci, architetto di sistema e amministratore It per Il Sole 24 Ore, “rendeva estremamente difficile completare in modo tempestivo attività fondamentali quali l’installazione di workstation per i nuovi dipendenti e la risoluzione dei problemi del nostro sito Web. Inoltre, poiché nessuna delle due soluzioni era completamente sviluppata, dovevamo ricorrere a modifiche e interventi da terzi, rallentando e rendendo ancora più complesso e costoso l’intero processo”. Tutto questo minacciava la capacità di rispettare i parametri dei Service Level Agreement concordati con gli investitori. “Nel peggiore dei casi”, sottolinea Petrucci, “sapevamo che il mancato adempimento di uno Sla avrebbe comportato la perdita di uno sponsor importante”. Novell Service Desk ha ribaltato l’impostazione esistente, sintetizzando in un’unica soluzione i due servizi prima distinti. Fra tutte le alternative consi-

derate, quella di Novell si è rivelata la più capace di “offrire il compromesso ottimale tra funzionalità, intuitività, configurabilità e semplicità di integrazione”, a detta dell’amministratore It. Per l’implementazione è stato coinvolto Hogwart, un business partner di Novell. LA SOLUZIONE Novell Service Desk ha consentito di integrare la gestione dei principali processi It di Il Sole 24 Ore, quali la registrazione di incidenti, la risoluzione dei problemi del sito Web, l’installazione di endpoint e la gestione dei cambiamenti. La soluzione ha permesso di migliorare l’efficienza dei servizi di supporto It, e allo stesso tempo ha ridotto i costi e la complessità dell’helpdesk. Questo ha aiutato l’azienda a rispettare più facilmente i Service Level Agreement che la legano ai suoi investitori.

OTTOBRE 2014 |

41


ITALIA ITALIA DIGITALE DIGITALE |

IL DIFFICILE CAMMINO sulla strada del PAESE DIGITALE Da Digital Venice alla riorganizzazione dell’Agenzia: qualcosa si muove, ma la macchina pubblica soffre ancora di lacune evidenti quando si parla di eGovernment. E la conferma arriva anche dalla Commissione Europea.

L

uglio è stato un mese molto intenso per l’Agenda, a cominciare dalla nomina del nuovo direttore dell’Agenzia Digitale, Alessandra Poggiani, e del suo nuovo staff di specialisti consiglieri (Stefano Quintarelli e Paolo Barberis i primi scelti). La volontà del Governo Renzi di dare una seria accelerata ai piani di digitalizzazione del Belpaese è nota ed è stata ribadita in quasi tutte le occasioni utili: Digital Venice, al di là della sua valenza istituzionale in chiave europea, segna in tal senso il punto di partenza del “nuovo” modello di governance dell’innovazione. Perché è proprio da lì, dalla governance, da “chi fa che cosa e quando” che il processo di digitalizzazione deve partire, accogliendo al tavolo, in modo strutturato e non di facciata, anche gli esponenti dell’industria e del mondo universitario. L’obiettivo è noto ma non certo scontato: definire modelli di riferimento per rendere concreti i piani contenuti nell’Agenda. In un solo verbo: attuarla, evitandole il rischio di continuare a vivacchiare come una sorta di chimera tecnologica bella solo 42

| OTTOBRE 2014

sulla carta. Ne va del passo in avanti del sistema-Paese e delle sorti di un’industria, quella dell’Ict, che certo non se la passa benissimo e a cui farebbe molto comodo un pieno di domanda a firma degli enti pubblici. Nell’Agenda (della Poggiani) non mancano certo le priorità: gare Consip da esaminare, razionalizzazione delle infrastrutture It pubbliche da prendere in mano (leggi: riduzione numero di data center), progetti come l’identità digitale da portare a compimento. L’approccio “bottom up” del Ministro per la Pubblica Amministrazione, Marianna Madia, finalizzato a definire le azioni in campo digitale realmente in grado di generare risparmi per la PA, è sicuramente un lodevole tentativo di creare efficienza. E apprezzabili sono stati anche i propositi enunciati dal Ministro dello Sviluppo Economico, Federica Guidi, che ha ribadito l’importanza di “diffondere la cultura digitale all'interno di tutti i settori imprenditoriali, attraverso misure che innalzino il livello di utilizzo delle tecnologie nei processi produttivi e organizzativi, e che generino un balzo verso un modello indu-

STARTUP RICOPERTE DI MILIONI… La contabilità dei prestiti erogati dagli istituti di credito a favore di startup innovative e di incubatori certificati al Fondo di Garanzia istituito per le piccole e medie Imprese ammonta a poco meno di 91 milioni di euro, per una media di 443.437 euro a operazione. Lo ha reso noto di recente il Ministero dello Sviluppo Economico, sottolineando come negli ultimi quattro mesi ci sia stato un no-


striale 4.0”. Le buone intenzioni quindi non mancano, ma è anche vero che non mancavano neppure in passato. L’eGovernment che vorrebbe la Ue

Agire per rispettare l’obiettivo della trasformazione digitale dei servizi delle Pubbliche Amministrazioni: è quanto chiede la Commissione Europea agli Stati membri per centrare l’obiettivo della Digital Agenda e in particolare del piano eGov, che scade nel 2015. La situazione, come ha documentato un apposito studio (Delivering on the European Advantage – How European governments can and should benefit from innovative public services) di CapGemini, evidenzia però uno scenario dove la quantità prevale sulla qualità. In che termini? È presto detto: molti servizi pubblici sono ora ampiamente disponibili online, ma il loro utilizzo è rallentato a causa di vari ostacoli riguardanti la facilità d’accesso, la velocità d’uso e l’assenza di trasparenza sui processi di delivery dei servizi stessi. C’è ancora molto da fare, insomma, e gli esperti ritengono che i servizi pubblici possano essere resi “due volte migliori in metà del tempo e a metà del costo”. Fare innovazione in seno alla macchina tevole incremento, quantificabile in circa 35 milioni euro. Il governo rivendica dunque l’efficacia dei propri provvedimenti (nella fattispecie il Decreto Crescita 2.0 dell’autunno 2012) e rende del tutto trasparente l’operazione di supporto alle nuove imprese, confermando in primis come la garanzia copra fino allo 80% del credito erogato dalla banca, fino a un massimo di 2,5 milioni di euro. Nel giro di un anno (il primo intervento risale al settembre 2013) il Fondo ha concesso la garanzia su 207 operazioni di prestito dirette a startup innovative o incubatori certificati. La maggior parte (179

operazioni) ha avuto luogo nel 2014 e quest'anno il totale dei soggetti destinatari è salito a 166. Il rapporto fra il numero di startup innovative presenti sul territorio italiano (circa 2.200 a tutto giugno) e quelle interessate dai finanziamenti risulta essere sopra la media (dell’8%) in Lombardia, Veneto, Friuli Venezia Giulia, Trentino Alto Adige, Abruzzo e Val D’Aosta. L’investimento istituzionale, a firma di venture capital e business angel, risulta invece nell’ordine dei 100 milioni di euro mentre sono limitatissimi, a detta di Federico Barilli di Italia Startup, “gli investimenti delle

pubblica è un compito difficile e non lo scopriamo certo adesso. Forse era lecito aspettarsi, e qui parliamo di Italia, qualcosa in più. Nel Belpaese non mancano esperienze virtuose di eGoverment, e ce le documenta il Politecnico di Milano nel suo Osservatorio dedicato. Il problema, però, è che manca ancora un disegno complessivo, con obiettivi chiari di riferimento. Qualche numero per spiegare lo stallo? Eccolo: il 60% degli enti locali ha sviluppato progetti di innovazione nel corso del 2013, ma solo di fronte all’obbligo di legge l’implementazione si rivela rapida e uniforme. Solo il 16% degli enti pubblici ha riutilizzato una soluzione tecnologica già esistente. L’82% degli enti fa ricorso a piattaforme di eProcurement per l’acquisto di beni e servizi Ict, ma solo l’11% è realmente passato al sistema telematico per più del 75% degli acquisti a causa di criticità a livello di processo di acquisto. Il 23,5% dei cittadini, infine, ha effettuato almeno un pagamento elettronico rivolto alla PA, ma il 72% degli enti locali non ha ancora attivato sistemi di pagamento innovativi. E sono già passati due anni dal varo in pompa magna dell’Agenda Digitale. Gianni Rusconi imprese e quelli di investor stranieri, disposti a finanziare cifre molto più alte rispetto agli italiani”. Stando all’Osservatorio Venture Capital Monitor – VeMtm (Università Cattaneo di Castellanza e Associazione Italiana del Private Equity e Venture Capital), il 2013 si è chiuso con una crescita del 16% (66 in totale) delle operazioni di ventur capital di tipo seed, cioè con investimento nella primissima fase di sperimentazione dell’idea di impresa, e a quota 53 milioni di euro per l’avvio dell'attività imprenditoriale delle startup. Il taglio medio di finanziamento è stato di 800mila euro.

43


ITALIA DIGITALE | Pubblica Amministrazione

L’ICT NON basta: è colpa della spending review? La spesa destinata all’informatica pubblica è da più parti ritenuta eccessiva. Eppure la Pa e la Sanità italiana investono in tecnologie molto meno (e peggio) rispetto all'Europa.

I

l dibattito, ripreso più volte anche dai media, ha come pomo della discordia diverse (se non opposte) linee di pensiero circa l’entità degli investimenti in Information & Communication Technology della Pubblica Amministrazione. Gli enti pubblici spendono troppo e male (ed è quindi giustificabile la scure della spending review) o spendono troppo poco e magari anche male? Molti cittadini italiani sono sostanzialmente, e forse anche a ragione, della prima idea. Ma, come fanno notare da Netics, società di consulenza specializzata in materia di Ict per la PA, occorre partire anche da presupposti oggettivi. E quindi da dati e numeri. Se si confrontia lo spending assoluto in tecnologia nel 2013 con il numero di abitanti nazionale, si scopre che il Belpaese è al sedicesimo posto, su 26 Paesi della Ue, nella Sanità e al tredicesimo considerando la Pubblica Amministrazione nel suo insieme. L’obsolescenza del parco Pc

La preoccupazione cresce se si pensa, come ritiene anche Netics, che budget Ict di enti e strutture sanitarie sono sfruttati in modo non adeguato. In soluzioni informatiche non si investe a ragion veduta, in altre parole, ed è certificato il fatto che almeno un terzo dei 265mila Pc presenti nei Comuni italiani abbia oltre sei anni di età (con punte che arrivano persino ai 15 anni in qualche cittadina). Nella Sanità si scende in media a 4,8 anni, ma con situazioni di Asl che lavorano con macchine comprate otto o 44

| OTTOBRE 2014

nove anni fa. C’è quindi un problema di obsolescenza tecnologica nella PA italiana? Certamente sì. Si buttano denari pubblici in assistenza tecnica e in manutenzione di programmi software particolarmente datati, e non si destinano risorse ad acquistare nuovi computer e nuove applicazioni? Altrettanto vero. Come si esce da questo circolo vizioso? Risposta non facile, almeno secondo Netics. Che assolve però i Cio pubblici,

impegnati (con scarsi risultati) a cercare di convincere i dirigenti delle amministrazioni centrali e locali a cambiare registro. E butta sul tavolo alcune ipotesi da poter cavalcare con e attraverso l’Agenda Digitale: una revisione del patto di stabilità per sbloccare gli investimenti in innovazione e una linea di credito specifica aperta dalla Cassa Depositi e Prestiti. Ipotesi che richiederebbero anche un passo in avanti di natura cultu-


rale. Di mutui tecnologici si può parlare, ma sarebbe opportuno che a valle di questi finanziamenti prendesse corpo un circuito virtuoso di procurement intelligente, con gli enti pubblici a bandire gare per “soluzioni di problemi” e non per asettiche voci di capitolatom coinvolgendo maggiormente nei progetti i vendor Ict. Il “Patto per la Sanità Digitale” annunciato dal Ministro della Salute Beatrice Lorenzin, osservano alcuni, va esattamente in questa direzione, e cioè liberare investimenti e finalizzare il tutto alla razionalizzazione della spesa. È un modello da imitare da parte di tutte le amministrazioni pubbliche? Il dilemma delle società Ict in-house

Un’altra voce sicuramente va considerata quando si parla di razionalizzazione della PA: le società di informatica “in-house” partecipate da Regioni ed enti locali. Ha ancora senso mantenere in attività queste strutture, una cinquantina in tutto? Il dibattito, anche in questo caso, è aperto. Fra l’ipotesi di ricentralizzazione dell’in-

formatica pubblica intorno a Sogei (la società Ict del Ministero dell'Economia e delle Finanze) e quella di vedere molte delle “in-house” messe sul mercato, magari a beneficio dei grandi player It internazionali). In attesa di capire come andrà, è forse bene ricordare che queste realtà governano una spesa Ict vicina agli 800 milioni di euro l’anno, 700 dei quali fatturati dalle principali 12 società. I ricavi di queste entità sono però in prolungata e repentina discesa e a busta paga ci sono oltre 5mila dipendenti. Ma dove sta il vero problema delle società informatiche in house? Nel modo in cui spendono i fondi, e torniamo alla questione della spending review. Sempre secondo Netics il sovra costo generato dalla tendenza allo sviluppo di soluzioni “custom” (un software diverso per qualsiasi tipologia di applicazione e settore) si aggira intorno ai 150 milioni di euro l’anno, su un totale di spesa It delle Regioni italiane (dati relativi al 2013) nell’ordine dei 700 milioni. Piero Aprile

PIÙ SPENDI (in sanità) e PIÙ RISPARMI Servirebbero dai quattro ai 4,5 miliardi di euro in tre anni per completare la digitalizzazione dei processi amministrativi nelle Aziende Sanitarie Locali e nelle Aziende Ospedaliere italiane. Più altri 1,4 miliardi in formazione. In tutto circa sei miliardi di euro di investimenti: una cifra enorme in un periodo di spending review come questo, ma se spesi potrebbero generare fino a 15 miliardi l’anno di risparmi. L’analisi è a firma del Centro Studi Catalis (iniziativa di Federsanità Anci) e sancisce la possibile sforbiciata ai costi sulla spesa sanitaria pubblica. Nel 2012 (cui risalgono gli ultimi dai ufficiali) il budget di Asl e ospedali era di circa 112 miliardi di euro; il cost saving ipotiz-

zato è quindi superiore al 10% di questa cifra. Gli interventi da attuare per arrivare a questo obiettivo sono ben delineati: dematerializzazione end-to-end del ciclo passivo (e ricorso obbligatorio ai “marketplace elettronici” per l’acquisto di beni e servizi), fascicolo sanitario e cartella clinica elettronica, eprescription, adozione di sistemi per la logistica del paziente e del farmaco, reti di patologia, digitalizzazione delle attività territoriali e di continuità assistenziale, razionalizzazione del ricorso alle strutture di emergenza e pronto soccorso. Ci sono sei miliardi di fondi pubblici da investire in questo progetto? No. Si dovrebbe ricorrere al partenariato pubblico-privato

LA salute DIGITALE DA OGGI AL 2022 L'e-health, inteso come l’insieme di risorse e tecnologie informatiche applicate alla salute e all’assistenza sanitaria, attirerà da qui al 2022 investimenti per 46 miliardi di euro, un valore pari al 3,3% del Pil italiano. E avrà una crescita media annua di sei miliardi nei prossimi otto anni. Numeri da capogiro, quelli che caratterizzeranno la Sanità digitale italiana nell'arco dei prossimi anni. Lo dice uno studio condotto da UpCare, secondo cui in questo mercato si distingueranno cinque macroaree. Il telecontrollo, inteso come soluzioni It collegate ad apparati con sensori per l’assistenza in remoto a persone anziane e fragili, sarà il settore di spesa più importante, con un giro d’affari stimato in 12 miliardi di euro (il 27% del totale). La telemedicina, ovvero le tecniche mediche e informatiche per l’erogazione di servizi sanitari per la cura di pazienti a distanza, svilupperà almeno 11 miliardi (il 23%). A seguire, gli strumenti e i software per il monitoraggio delle attività fisiche e di allenamento (il cosiddetto welness tracking) raccoglieranno non meno di nove miliardi di investimenti (cifra pari al 20% del totale). Da qui al 2022 almeno otto miliardi di euro (il 16%) verranno, quindi, spesi per l’auto check-up (l’insieme di apparecchi e soluzioni per il monitoraggio della propria salute in modo autonomo e senza il supporto medico) e altri sei miliardi (14%) per la stampa 3D biomedicale, ovvero le macchine per la modellazione di organi umani per i trapianti.

45


INTELLIGENCE INSIGHTS RESULTS ANALYTICS INING ✔ DATA M STING ✔ FORECA

BUSINESS INTELLIGENCE

GEOMARKETING

RETAIL PERFORMA NCE MANAGEM ENT ✔ SALE S FORCE EFFECTIVE NESS ✔

✔ DATA INTEG

RATION ✔ DATA QUA LITY LTY CRM & LOYA MER ✔ CUSTO E INTELLIGENC ETING ✔ MARK N AUTOMATIO

Value Lab è un’innovativa società di consulenza di Management e Information Technology che opera a livello nazionale e internazionale, specializzata sui temi di marketing, vendite e retailing. Aiutiamo aziende di produzione, distribuzione e servizi ad aumentare i ricavi, ridurre i rischi e ottimizzare i costi migliorando le scelte strategiche e la gestione operativa di mercati, clienti, punti vendita e reti di vendita.

MILANO Via Durini, 23 Telefono: +39.02 77 88 931

ROMA Salita S. Nicola da Tolentino, 1/b Telefono: +39.06.91 80 20 01

www.valuelab.it


VETRINA HI-TECH

SMART E interconnesso, ecco IL GADGET 3.0 Device indossabili, schermi a ultra definizione, sistemi audio ad alta risoluzione: la casa digitale fa un altro passo in avanti. All'insegna di app e tecnologie senza fili.

C

he cosa ci ha regalato la novantesima edizione della fiera berlinese dell’elettronica, Ifa (la prima, dedicata esclusivamente alle radio, risale al 1924) al di là di un numero di espositori in aumento? Di novità “rivoluzionarie”, di vere e proprie innovazioni che cambieranno la nostra vita e le nostre abitudini di consumatori digitali, non se ne sono viste molte. Anzi, tutt’altro, sebbene molti dei prodotti messi in vetrina siano stati battezzati alla stregua di oggetti capaci di elevare ulteriormente il “digital lifestyle” di ogni individuo. Fra gli stand, dove fortissima è risultata anche quest’anno l’impronta asiatica e cinese in particolare, non sono comun-

que mancate le proposte a effetto, vedi i giganteschi televisori 4K curvi e Oled o le installazioni dedicate alla casa intelligente. Tanto per avere un’idea di dove stiamo andando, raccontiamo in breve l’esperienza vissuta al “Life Space UX” realizzato da Sony, e cioè un concept avveniristico dell’esperienza visiva domestica, in cui convergono immagini, luci e suoni con cui interagire attraverso comandi touch. Il tutto grazie a tecnologie già in commercio (il proiettore portatile 4K a raggio ultracorto da posizionare sull’anta del frigorifero o in bagno) e a prototipi in via di sviluppo (una lampadina Led di dimensioni standard con altoparlanti integrati).

Nuovi orizzonti mobili

Sotto i riflettori, come previsto, sono finiti i gadget che oggi vanno per la maggiore ovvero i dispositivi mobili e quelli indossabili, a cominciare dai telefonini di grande formato, come il tanto atteso Galaxy Note 4 di Samsung, e dagli smartwatch, in cui ha fatto capolino la new entry a piattaforma Android targata Asus, lo Zenwatch. La quarta generazione del phablet (5,7 pollici di schermo) con la penna digitale di Samsung si fregia del primo sensore UV (Ultra Violet) al mondo montato su un terminale mobile e del fatto di essere il compagno ideale del Galaxy Gear Vr, un apparecchio per la realtà virtuale basato sulla tecnologia Oculus. OTTOBRE 2014 |

47


VETRINA HI-TECH

Un’altra nuova tendenza da segnalare, in prospettiva, ci arriva dal Note Edge, sempre di Samsung: la sua peculiarità è il display curvo su un lato, che promette un accesso più rapido a funzioni e app. Un artifizio di design che segnerà una svolta nella progettazione e nella user experience degli smartphone, ormai quasi del tutto omologati nel formato e nelle caratteristiche? Lo vedremo. In salotto entra il 4K

Il fattore curvo, intanto, ha spopolato sulle Tv maxi formato e i produttori coreani in primis ne hanno fatto un cavallo di battaglia. Samsung è pronta a lanciare ben 17 modelli (Full Hd e Ultra Hd), dal 48 al 105 pollici, dotati di pannello “avvolgente” e in alcuni casi impreziositi dall’essere pure “bendable”, e cioè personalizzabili con diversi livelli di curvatura direttamente da telecomando. Si parte da 999 euro per arrivare a 120mila. Lg, da parte sua, mette in tavola il jolly dei primi esemplari 4K (3.840 x 2.160 pixel di risoluzione) curvi a tecnologia Oled. Il problema sono i costi per fabbricarli, che si riflettono sul prodotto finito: fatta eccezione per Lg, tutti gli altri vendor ritengono gli Oled un mercato non ancora maturo. Vedremo se a colpi di forbice sui listini

lo diventerà presto. Sul fattore curvo ci hanno scommesso, per la fascia alta dei rispettivi cataloghi, sia Sony (con il top di gamma Bravia serie S90) sia Loewe. Il produttore tedesco, ormai ultimo rimasto a difendere l’etichetta “made in Europe”, per ora si è tuttavia fermato al prototipo. Nel mercato dei televisori il nuovo paradigma da servire in pasto ai consumatori per il prossimo Natale si chiama, comunque, 4K: tutti, inclusi i vendor cinesi (HiSense e Haier), hanno esibito offerte votate all’ultra definizione con l’ingresso a listino di nuovi modelli dai costi e dai formati (si scende fino al 48 pollici) alla portata di molti portafogli e di comuni appartamenti. E i contenuti? Di titoli in 4K, è noto, oggi non ce ne sono. Ma è altrettanto vero che sempre più operatori satellitari, reti televisive e servizi di streaming online stanno sperimentando la trasmissione di programmi in formato Uhd. Lo standard Hevc (H.265), inoltre, ha reso la codifica di suoni e immagini in ultra definizione molto più efficiente, facilitando il lavoro di conversione (il cosiddetto “upscaling”) di sorgenti Bluray Disc o filmati in definizione standard o addirittura video in streaming Web. Rimanendo ancora in ambito Tv,

ECCO PERCHÉ GLI IPHONE 6 NON BASTANO Oltre ai due nuovi smartphone, la società di Cupertino ha presentato anche l’Apple Watch, disponibile solo nel 2015, e il sistema di pagamento Apple Pay. Era il lancio di Apple più atteso dal 2012, quando la società della Mela presentò l’iPhone 5. Nonostante questo, i nuovi iPhone 6 e iPhone 6 Plus non sono stati i protagonisti assoluti dell’annuncio del 9 settembre scorso. Sotto i riflettori sono infatti finiti anche, se non soprattutto, l’Apple Watch e il sistema di pagamento

interessante è lo sforzo di Philips in direzione di Android, eletto a ecosistema di riferimento per app e contenuti delle ultime smart Tv 4K (anche a schermo curvo) del marchio di proprietà di Tp Vision.

ASUS eeeBOOK

Huawei ASCEND MATE 7

SAMSUNG GALAXY NOTE 4

Costa 199 euro ed è un mini Pc portatile da 12 pollici compatto e leggero (pesa meno di un chilogrammo) con a bordo Windows 8.1 Bing Edition. L’autonomia delle batterie è di 12 ore. È l’erede dei netbook?

Entra sul mercato degli smartphone di fascia alta a soli 449 euro e con una dote di tutto rispetto: schermo Full Hd da 5 pollici, chipset a otto cervelli e lettore di impronta digitale a tecnologia single-touch.

La quarta generazione del mini tablet con la penna magica (schermo da 5,7 pollici) promette una user experience mobile completa in fatto di imaging, sicurezza e funzioni di produttività. Costa 769 euro.

48

| OTTOBRE 2014


“contactless” Apple Pay. I telefoni, in fondo, sono proprio come tutti se li aspettavano: più grandi, più potenti, più capienti, dotati di tecnologia Nfc (Near Field Communication). Dello smartwatch, invece, si era parlato molto, ma nulla si sapeva del suo aspetto e delle sue caratteristiche. Così l’Apple Watch è diventato più protagonista del primo attore. Disponibile solo dal 2015 e declinato in due dimensioni per adattarsi tanto ai gusti maschili quanto a quelli femminili, compagno obbligato di un iPhone (a cui deve essere necessariamente abbinato), il prodotto “indossabile” di Apple si caratterizza per la sua interfaccia originale, controllata non solo con il tocco delle dita sullo schermo ma anche da una più classica (e inaspettata su un prodotto digitale) corona. Questo dovrebbe permettere

una migliore usabilità, viste le limitate dimensioni dello schermo. Il sistema di pagamento Apple Pay ha fatto, forse, parlare meno di sé, ma ha mostrato come sia possibile rivoluzionare, letteralmente, i sistemi di pagamento digitali: è sufficiente abbinare un iPhone (ma in futuro anche l’Apple Watch) a una carta di credito e per confermare una transa-

zione basterà avvicinare il dispositivo al Pos abilitato. Niente di rivoluzionario dal punto di vista tecnologico, ma tutto terribilmente concreto grazie agli accordi che la società di Cupertino ha stretto con Visa, Mastercard, American Express e con tutti i principali retailer statunitensi. Per l’Europa bisognerà attendere ancora un po’. Paolo Galvani

L’hi-fi torna in auge

campo home appliance soprattutto) le componenti smart e green. Dal comparto audio, dove è ormai il fenomeno della musica in streaming a giocare da protagonista, accompagnato da un vastissimo campionario di diffu-

sori wireless, registriamo un gradito ritorno firmato Panasonic: quello dello storico marchio Technics. Segno (forse) che le prestazioni al top contano ancora qualcosa. Gianni Rusconi

Il dogma dell’interconnettività senza fili, se vogliamo trovare un “fil rouge” per legare molte delle “macchine” ammirate a Berlino, ne è uscito esaltato, come rafforzata è la tendenza a privilegiare (in

TECHNICS C700

Sony SS-AC3 e SS-AC5

LG Oled 77EC980V E 65EC980V

Lo storico marchio della musica hi-fi torna in auge in Europa dopo sei anni. Quattro i componenti hi-fi del sistema: amplificatore stereo integrato, lettore network audio, lettore di compact disc e diffusori.

Speaker ad alta risoluzione da pavimento e da scaffale, a tre e due vie, farcito da tweeter e woofer di nuova concezione. L’intento è chiaro: riprodurre dentro casa un audio in stile sala concerto.

Sono i primi esemplari curvi che coniugano l’ultra definizione 4K e i pannelli ultra sottili a diodi organici da 33 milioni di pixel autoilluminanti. Il problema sono i costi: si parla, per il 77 pollici, di oltre 20mila euro.

49


VETRINA HI-TECH

UN TABLET AL POSTO DEL LAPTOP

MICRO

S

SURFAC OFT E PRO 3

Microsoft ci riprova: con il Surface Pro 3 vuole pensionare i classici notebook. Ottimo a livello tecnologico, questo ibrido è però piuttosto caro. E non esiste una versione con 4G. Il salto rispetto alla precedente generazione è notevole: quasi non sembra lo stesso prodotto. Il Surface Pro 3, che Microsoft propone come macchina in grado di sostituire il tradizionale portatile, in effetti si presenta più “maturo”. Nonostante le dimensioni dello schermo siano passate da 10,6 a 12 pollici, il peso è diminuito da 907 a 800 grammi (tastiera esclusa) e questa differenza viene amplificata a livello sensoriale dai maggiori ingombri dell’ultimo nato. Che però è più sottile del predecessore: 9,1 millimetri contro 13,5. Cambiano anche le proporzioni dello schermo, che da 16:9 passa al formato 3:2, rendendo questo prodotto ibrido più adatto a un uso professionale. La tastiera, che nonostante i prezzi non proprio popolari del dispositivo è disponibile solo come opzione a 135 euro, è stata migliorata: ha un touchpad un po’ più grande e, quando il Surface Pro 3 è appoggiato su un piano, assume una leggera inclinazione che ne migliora l’ergonomia. Il sostegno posteriore del dispositivo è ora regolabile senza soluzione di continuità, mentre il precedente modello prevedeva solo due posizioni fisse. Tutto questo ha migliorato l’usabilità del Surface quando viene utilizzato in modalità notebook, anche

50

| OTTOBRE 2014

se tenerlo sulle ginocchia è sempre difficoltoso: è l’unico vero limite di questo dispositivo. La penna è Bluetooth

In dotazione c’è una rinnovata penna Bluetooth che permette di lavorare sullo schermo con una precisione non raggiungibile con le dita. Sensibile a 256 livelli di pressione, consente di prendere appunti offrendo una sensazione molto simile a quella di una penna a sfera. Peccato solo che anche in questa versione Microsoft non abbia pensato di realizzare un vero alloggiamento dove conservarla quando non in uso: per non perderla si può usare una piccola asola adesiva di stoffa da attaccare su un lato della tastiera. Lo schermo ha buona risoluzione (2.160 per 1.440 punti) e offre un’ottima qualità d’immagine. A livello di dotazioni, il Surface Pro 3 viene proposto con processori Intel Core i3, i5 e i7, con 4 o 8 gigabyte di Ram e con uno spazio di archiviazione di 64, 128, 256 o 512 gigabyte. I prezzi, come accennato, non sono contenuti: si parte da 819 euro Iva compresa per una versione palesemente limitata (Core i3, 4 GB di Ram, 64 GB di disco allo stato solido), per arrivare alla notevole cifra di 1.969 euro per il top di gamma

(Core i7, 8 GB di Ram, 512 GB di disco). La versione che Technopolis suggerisce è quella con processore Core i5, 8 GB di memoria e 256 GB di disco: 1.319 euro, che con tastiera diventano 1.454. In ogni caso più cara dei Macbook Air di pari dotazione, prodotti con cui Microsoft ama fare il confronto diretto, siano essi con schermo da 11 o da 13 pollici. Da segnalare che manca anche in questa generazione una versione dotata di connettività 4G. LE CARATTERISTICHE A COLPO D’OCCHIO Dimensioni: 292,1x201,4x9,1 mm Peso: 798 gr, 1,093 kg con tastiera Schermo: 12 pollici, 2.160x1.440

punti, 3:2

Processore: Intel Core i3, i5 o i7 Memoria: 4 o 8 GB Disco Ssd: 64, 128, 256 o 512 GB Interfacce: 1 Usb 3.0, 1 Mini Display

Port, lettore microSd, jack cuffie Reti: Wi-Fi, Ethernet (con adattatore opzionale), Bluetooth 4.0 Fotocamere: 2 da 5 megapixel Autonomia: fino a 9 ore Sistema operativo: Windows 8.1 Prezzo: DA 819 euro


shaping tomorrow with you

The Innovation Engine

Trasforma l’IT con il Business-Centric Computing

L’infrastruttura IT delle aziende deve essere adeguata alle priorità del business, garantire risultati sostenibili e consentire una continua innovazione. Grazie alle soluzioni Business-Centric Computing è possibile allineare la capacità di calcolo alle esigenze aziendali e rendere l’elaborazione e l’analisi dei dati più veloce e più efficiente che mai. Inoltre, Windows Server 2012 R2 garantisce maggiore flessibilità e agilità per la virtualizzazione, gestione, archiviazione, connettività di rete, infrastruttura desktop virtuale, accesso e protezione dei dati, piattaforma Web e applicazioni. INFO » http://business-datacenter.it.fujitsu.com/ NUMERO VERDE » 800 466 820 E-MAGAZINE » http://tech4green.it

Technopolis_Storage_Eternus_newb_200x260.indd 1

07/10/14 09:49



Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.