Technopolis - 3

Page 1

NUMERO 3 | FEBBRAIO 2013

STORIE DI ECCELLENZA E INNOVAZIONE

LA SCINTILLA CHE ACCENDE L’HI-TECH ITALIANO Paolo D’Amato, fondatore di Sisvel Technology, tiene viva la ricerca nel settore della tecnologia digitale. Con idee vincenti nel campo delle trasmissioni Tv e delle telecomunicazioni.

BIG DATA

18

Accelera la corsa dei sistemi in grado di gestire grandi quantità di dati. Secondo gli analisti è questo il futuro prossimo dell'It.

SICUREZZA

22

Le previsioni degli esperti sulle nuove minacce che attendono i Cio nel 2013. Sull'onda del cloud e della consumerizzazione.

LUCE 2.0

40

Un reportage fotografico dal centro di ricerca Philips di Lione, dove nascono le nuove soluzioni per l'illuminazione da esterni.

Distribuito gratuitamente con “Il Sole 24 ORE”



SOMMARIO STORIE DI ECCELLENZA E INNOVAZIONE

N° 3 - Febbraio 2013 Periodico bimestrale registrato presso il Tribunale di Milano al n° 378 del 09/10/2012.

Direttore responsabile: Emilio Mango

04 STORIA DI COPERTINA

Una scintilla nell’hi-tech italiano: Sisvel Technology

11 IN EVIDENZA Hp vuole uscire dall’annus horribilis

BlackBerry 10: Rim si re-inventa

Ces 2013: a Las Vegas sbanca il fattore mobile

Salesforce alla conquista del marketing Panasonic presenta i nuovi tblet indistruttibili

Coordinamento: Gianni Rusconi Hanno collaborato: Piero Aprile, Valentina Bernocco, Carlo Fontana, Cesare Garlati, Patrizia Licata, Laura Tore Progetto grafico: Inventium Srl Iniziative speciali: Salvatore Losco Business development: Anselmo Barbieri Foto e illustrazioni: Istockphoto

Oracle: big data più fruttuosi

L’opinione: l’impatto finanziario del Byod

18 SCENARI I Cio e la corsa all’oro dei grandi dati

Security: i campanelli d’allarme degli esperti

Bilancio 2012 in rosso: i Pc cambiano faccia

28 ECCELLENZE.IT Agenzia Spaziale Italiana - Alcatel-Lucent Poltrona Frau - Microsoft Scuola Normale Superiore di Pisa - Hp Editore, redazione, pubblicità: Indigo Communication Srl Via Faruffini 13 - 20149 Milano tel: 02-36505844 info@indigocom.it www.indigocom.com Stampa: RDS Webprinting - Arcore © Copyright 2012 Indigo Communication Srl Tutti i diritti di proprietà letteraria e artistica riservati. Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto. Pubblicazione ceduta gratuitamente.

Pirelli - Esri

Regione Sardegna - Vmware

Vibram - Ibm

34 ITALIA DIGITALE

L’agenda alla prova del nuovo Governo

Smart City al palo? Manca la progettualità

Lo stallo del lavoro nell’Ict

40 OBBIETTIVO SU

Philips Olac

47 VETRINA HI TECH

Dispositivi di backup per Pc

Pillole digitali


STORIA DI COPERTINA | Sisvel Technology

IL CIRCOLO VIRTUOSO CHE VALORIZZA LE IDEE

Roberto Dini, fondatore di Sisvel. 4

| FEBBRAIO 2013

Sisvel tutela e valorizza alcuni dei piĂš importanti brevetti dell'hi-tech mondiale, come la tecnologia Mp3. E nei laboratori di None, in provincia di Torino, si studiano e si lanciano sul mercato le soluzioni che potrebbero riportare l'Italia ai vertici della ricerca in tema di home entertainment e mobilitĂ .


RETI INTELLIGENTI

La sede di Sisvel a None, in provincia di Torino.

F

inanziare la ricerca con la ricerca. Questo aveva in mente Roberto Dini quando, nel 1982, realizzò lo spin-off del portafoglio brevettuale di Indesit. La società aveva deciso di uscire dal mercato del “bruno”, abbandonando la produzione dei televisori, per concentrarsi sul “bianco”, vale a dire gli elettrodomestici per la casa. Dini conosceva il valore delle idee e delle invenzioni partorite nei laboratori Indesit in cui lui stesso operava; si fece finanziare da un pool di aziende e partì da questo primo nucleo di brevetti (circa 200) per creare quella che oggi, dopo trent’anni, è una vera e propria multina-

zionale delle idee, il Gruppo Sisvel. Il modello di business introdotto da Dini e oggi riconosciuto in tutto il mondo è semplice: valorizzare e monetizzare le invenzioni nel settore hi-tech, utilizzando parte di questi soldi per finanziare nuova ricerca. Un circolo virtuoso che ha consentito a tutti noi di vivere meglio grazie alla tecnologia e alle aziende di ottenere linfa vitale per proseguire nello sviluppo di prodotti e soluzioni hi-tech. Molto spesso queste innovazioni sono date per scontate, ma nascondono un’elevata complessità tecnologica, e la loro valorizzazione richiede competenze organizzative e legali che solo un pool di

Sisvel (Società Italiana per lo Sviluppo dell’Elettronica) è una holding mondiale, con sedi in Usa, Cina, Giappone ed Europa. Il nucleo storico ha sede a None, in provincia di Torino, mentre le attività strategiche vengono coordinate dalla capogruppo in Lussemburgo. Il futuro di Sisvel, però, sta in quello che in azienda viene chiamata la “rete delle intelligenze”. Significa interconnettere i centri di eccellenza di tutto il mondo per creare conoscenze e tecnologie da trasferire al mercato. Questa è la sfida che Dini e i suoi uomini si sono dati per continuare idealmente la strada percorsa nei primi trent’anni di attività. Sisvel collabora già con grandi aziende come Telecom Italia, Telediffusion de France e Vestel, con centri di ricerca pubblici e privati, tra cui il Centro Ricerche e Innovazione Tecnologica della Rai, e con importanti poli universitari come l’Università La Sapienza di Roma e l’Università e il Politecnico di Torino.

esperti può gestire. Facciamo due esempi concreti che ci toccano direttamente. L’Osd (On Screen Display) è un’invenzione che utilizziamo quotidianamente quando regoliamo, ad esempio, il volume del televisore: consiste nel mostrare sul video la barra a trattini che indica il livello sonoro che stiamo impostando. È un’idea apparentemente semplice, nata in Italia, che per anni ha consentito a Sisvel di ricavare la giusta remunerazione dai produttori di televisori di tutto il mondo che l’hanno adottata per migliorare l’interazione tra uomo e macchina. Il secondo esempio è forse ancora più illuminante. Tutti noi ascoltiamo musica 5


STORIA DI COPERTINA | Sisvel Technology

utilizzando i lettori digitali (o, negli ultimi anni, dispositivi mobili di qualsiasi genere come gli smartphone). Ebbene, lo standard Mpeg Audio, che permette di ascoltare i famosi file Mp3, è una tecnologia complessa, protetta da decine di brevetti, molti dei quali (di proprietà di aziende come Philips e France Telecom) sono gestiti da Sisvel, che ne tutela i diritti e si occupa di ricavare le giuste royalty dai produttori di tali dispositivi in tutto il mondo. Altri importanti portafogli brevettuali gestiti da Sisvel riguardano lo standard Dvb-T, per la televisione digitale terrestre e la sua evoluzione per l’alta definizione (Dvb-T2). Recentemente è stata affidata al Gruppo anche la gestione di un pool di brevetti relativi allo standard Lte (Long Term Evolution), destinato a diventare la prossima tecnologia globale nelle comunicazioni mobili. L’attività di Sisvel si sviluppa quindi su due binari paralleli: fare ricerca per innovare e arricchire il proprio patrimonio di brevetti, e aiutare aziende e organizzazioni di tutto il mondo a tutelare le proprie invenzioni, mettendo in campo il know how in termini legali, commerciali e tecnologici acquisito in trent’anni di attività. Proprio per svolgere questa funzione di tutela, Sisvel effettua un monitoraggio continuo della produzione mondiale di dispositivi hi-tech; a questo scopo si è strutturata negli anni come Gruppo multinazionale, con sedi ubicate in posizioni strategiche in tutto il mondo. Così Sisvel tiene viva la ricerca a livello globale, e in particolar modo in Italia, aiutando chi studia nuove soluzioni ad autofinanziarsi con i proventi generati dalle sue stesse invenzioni. Se l’idea originale di Dini era quella di creare una piccola Silicon Valley piemontese, ora il Gruppo Sisvel, grazie alla forza delle idee, aggrega e supporta una sorta di “valle” tecnologica virtuale, che abbraccia tutto il globo ma che vede al centro, una volta tanto, il nostro Paese. Emilio Mango 6

| FEBBRAIO 2013

MULTINAZIONALE Alcune delle sedi di Sisvel, attiva in tre continenti. Sotto, lo stand alla fiera dell’elettronica di Las Vegas.


Paolo D’Amato, fondatore e presidente di Sisvel Technology.

Sisvel Technology: la scintilla dell'hi-tech italiano La ricerca che finanzia la ricerca. Grazie a questa idea di business il Gruppo Sisvel ha potuto trasformare il suo laboratorio interno in una vera e propria società che sviluppa tecnologie di frontiera e che potrebbe fare da catalizzatore per la ripresa dell'innovazione nel nostro Paese.

S

e il Gruppo Sisvel è una rete mondiale di intelligenze e competenze, Sisvel Technology è la scintilla che tiene ancora viva la speranza dell’elettronica di consumo tricolore. Un laboratorio ospitato in una sede immersa nel verde a None e guidato dal fondatore, l’ingegner Paolo D’Amato, una vita dedicata all’innovazione tecnologica in ambito televisivo, tiene le fila della ricerca della multinazionale e coltiva idee e brevetti originali, che potrebbero riportare l’hi-tech italiano ai vertici dell’innovazione mondiale.

Perché vi sentite l’ultimo baluardo della ricerca in ambito elettronica di consumo?

Anni fa l’elettronica di consumo italiana faceva sentire la propria voce sui mercati. Per parlare solo del segmento degli apparecchi televisivi, oltre a Indesit, che aveva un fertile ufficio di progettazione e ricerca, c’erano nomi come Seleco, Brionvega, Imperial e Mivar. Insomma, tra gli anni ’70 e ’80 l’Italia aveva una posizione di rilievo nel panorama internazionale, sia in termini di design sia di tecnologia. Poi, i ritardi nell’introduzione della televisione a colori e successivamente la concorrenza agguerrita delle aziende dell’Estremo Oriente hanno smorzato lo slancio, fino ad annichilire completamente la capacità manifatturiera del Paese e a spegnere quasi del tutto la ricerca. 7


STORIA DI COPERTINA | Sisvel Technology

E voi?

In quegli anni, l’ignegner Dini aveva creato quel “serbatoio” di brevetti e di competenze che era Sisvel, proprio per dare la possibilità all’innovazione di autofinanziarsi, proteggendo e valorizzando le idee, che nei laboratori italiani non mancavano. In tempi più recenti, nel 2008, il laboratorio del Gruppo Sisvel è stato promosso al rango di azienda indipendente, dedicata alla ricerca tecnologica e al servizio dell’innovazione. Sisvel Technology ha due missioni distinte e complementari: aiutare il Gruppo nella sua opera di valorizzazione delle proprietà intellettuali di terzi, e al tempo stesso scoprire e “coltivare” idee nuove, che possono mantenere accesa quella fiammella di innovazione e creatività che ci ha illuminati fino a oggi. Siamo una piccola realtà, tuttavia al centro di un’importante rete di laboratori di ricerca. Stiamo acquisendo sempre maggior prestigio a livello internazionale, tanto da attirare un manager brillante come Andrea Basso, proveniente dai mitici laboratori Bell, che ha recentemente assunto la carica di Amministratore Delegato di Sisvel Technology. Quali sono state le idee sviluppate da Sisvel che hanno avuto maggiore risonanza nel mondo?

Un esempio è l’Automatic Tuning and Sorting System (Atss) che permette di memorizzare automaticamente in un ordine prestabilito i canali televisivi (Rai 1 sul tasto 1 del telecomando, Canale 5 sul tasto 5 e così via). In questi anni, tutti i produttori mondiali di televisori hanno usato queste e altre nostre innovazioni. Lo so, sembrano cose banali, perché oggi tendiamo a dare per scontate le soluzioni inventate anni fa. È un fenomeno noto, si chiama “ex-post reconstruction”: attribuiamo un basso livello di innovazione alle soluzioni che utilizziamo da tempo e quotidianamente, ma dobbiamo considerare che quando questi brevetti sono stati depositati proteggevano idee molto innovative. 8

| FEBBRAIO 2013

Da dove arriva il know how che vi ha permesso di realizzare queste tecnologie?

In parte dai laboratori di ricerca Indesit (al momento dello spin-off, Sisvel portò con sè, oltre a validissimi ricercatori, circa 200 brevetti), in parte dalle nostre competenze personali. Io, ad esempio, mi sono sempre occupato di televisione digitale e di home entertainment fin dalla sua nascita. Lei, tra le altre cose, è il “padre” del Televideo, giusto?

Sono in Sisvel dal 2003, ma in precedenza ho lavorato 32 anni in Rai. Per i primi 20 ho sviluppato soluzioni per la tecnologia digitale, l’Hd Tv e, appunto, il Televideo. Ancora più di quest’ultima soluzione, però, vado orgoglioso per aver creato un servizio meno conosciuto ma ancor più innovativo, per l’epoca. Si tratta del sistema che permetteva di inviare, sfruttando le trasmissioni televisive, i dati di borsa praticamente in tempo reale. Il servizio, utilizzato insieme alla linea telefonica per la trasmissione degli ordini di acquisto e vendita, ha permesso ai clienti delle banche di eseguire operazioni di borsa conoscendo istante per istante tutte le informazioni necessarie per prendere le decisioni più appropriate. In pratica, ho inventato la prima tecnologia di trading online. E per il futuro, su quali innovazioni puntate?

Siamo specializzati nell’elettronica, quindi proseguiremo su questo filone. In particolare, siamo forti in due segmenti: il broadcasting (anche via Internet) con diverse soluzioni per la trasmissione in 3D, e le telecomunicazioni, che per noi vogliono dire telefonia mobile, localizzazione e trasmissioni wifi. Stiamo anche osservando con interesse gli sviluppi e le opportunità della green technology e degli intelligent transport system. Ci sono poi alcuni progetti specifici in cui siamo coinvolti in prima persona e che promettono molto bene. Uno è relativo al Visual Search, una tecnologia che

DAI LABORATORI AT&T Andrea Basso, amministratore delegato di Sisvel Technology, ricercatore proveniente dai mitici laboratori Bell Labs di AT&T. Sotto, alcune immagini del laboratorio di None.


L’EFFICIENZA IN 3D È MADE IN ITALY Una delle tecnologie più importanti, nata nei laboratori di Sisvel Technology e sviluppata in collaborazione con il centro di ricerca Csp-Innovazione nelle Ict e l’emittente QuartaRete, è il 3D Tile Format, già sperimentato da importanti broadcaster televisivi. La tecnica sviluppata a None permette di evitare le perdite di risoluzione dell’immagine tipiche delle tecnologie tradizionali (che suddividono il quadro in verticale o in orizzontale per trasmettere le due immagini necessarie a rendere la stereoscopia) e di ottimizzare la banda trasmissiva, inviando contemporaneamente sia il segnale 3D sia quello 2D ad alta definizione in un unico fotogramma da 1080 righe. In questo modo sia i produttori di contenuti, sia i broadcaster sia gli utenti televisivi (quelli dotati di apparecchi di ultima generazione e quelli che utilizzano Tv tradizionali, senza visualizzazione 3D) potranno utilizzare un unico formato. Una rivoluzione che porta notevoli semplificazioni e risparmi, tanto che gli enti di standardizzazione hanno già avvalorato l’adozione del sistema studiato a None. Il 3D Tile Format è già pronto anche per la trasmissione di immagini 3D da fruire senza occhiali, la nuova frontiera della televisione di massa. Grazie alla collaborazione tra Sisvel Technology e la società russa Triaxes, infatti, è stato possibile inserire in ogni singolo fotogramma ad alta definizione anche le informazioni relative alla “mappa di profondità”, utilizzata dai microprocessori dell’apparecchio televisivo per generare l’immagine tridimensionale da osservare senza occhiali. In questo modo, le reti televisive potranno usare un solo canale per trasmettere contemporaneamente contenuti in tutti gli standard (2D, 3D attivo, 3D passivo e 3D senza occhiali).

stiamo studiando insieme all’Università del Surrey, in Gran Bretagna. È una cosa su cui c’è un grande interesse in ambito mondiale, una specie di Google delle immagini. Volendo, è possibile anche associare dati testuali alle immagini riconosciute (pensiamo all’invio di informazioni utili relative a un’opera d’arte semplicemente inquadrandola con il telefonino). Il secondo progetto, anch’esso legato alla tecnologia per il riconoscimento delle immagini, è lo studio dei servizi di localizzazione indoor. Si tratta di sistemi in grado di guidare l’utente all’interno di strutture complesse, come ospedali o uffici pubblici, riconoscendo i luoghi tramite le telecamere normalmente installate sugli smartphone e indicando il percorso come oggi fanno i navigatori stradali. Su questo fronte stiamo lavorando con l’Università La Sapienza attraverso una partecipazione del 20% allo spin-off SpinV, acronimo sia di San Pietro In Vincoli, dove ha sede l’Università, sia di “Supporting People Indoor: a Navigation Venture”. E vi muoverete sempre con la filosofia della rete di intelligenze?

Sì. Vogliamo scrollarci di dosso l’immagine del piccolo laboratorio specializzato e diventare un vero e proprio polo di innovazione: già oggi collaboriamo con aziende ma anche con centri di ricerca pubblici e privati. Il nostro modello è vincente perché consente di riprendere a finanziare un’attività, quella di ricerca e sviluppo, che è tra le prime a essere “tagliata” in periodi di crisi come questo, senza però fare i conti con l’involuzione del business che l’interruzione dell’innovazione provoca quasi sempre. Insomma, stiamo cercando non solo di tenere accesa la luce, ma anche di accenderne altre, perché la ricerca si autofinanzi e non si fermi mai più, in Italia come nel resto del mondo. E.M. 9



IN EVIDENZA

Meg Whitman

BlackBerry 10: Rim si re-inventa Il Ceo Thorsten Heins l’ha annunciata come una rivoluzione. Bb10, la nuova versione del sistema operativo BlackBerry (il nome di Research in Motion dal 30 gennaio), è sicuramente un passaggio importante per la casa canadese. Ma non è detto che sia risolutore. La sfida agli iPhone, ai Galaxy S di Samsung e ai Lumia di Nokia – e quindi ad Apple, Google e Microsoft – passa per il tentativo di fidelizzare un portafoglio di circa 80 milioni di clienti attivi e di conquistare nuove fasce di utenza nei mercati emergenti. Per farlo BlackBerry punta su un terminale di fascia alta del tutto orientato alla logica del touch (il modello Z10, al debutto in Italia a fine febbraio) e su un secondo (il Q10, sul mercato da aprile) ancora dotato di tastiera fisica. E gioca il jolly del nuovo store virtuale per il download delle app, il BlackBerry World: a disposizione degli utenti ce n’erano al momento del lancio circa 70mila, da quelle per il business ai film e alla musica delle principali major. Cambierà, con l’avvento di Bb10, il futuro prossimo della compagnia, che oggi vanta meno del 5% del mercato smartphone? Pur sottolineando i pregi del “prodotto”, molti analisti si dicono scettici circa un repentino boom di vendite per i nuovi telefonini. E non fare economie di scala significa per la ex Rim esporsi a eventuali scalate.

Hp vuole uscire dall’annus horribilis puntando su tecnologia e semplicità Una diversa organizzazione e nuovi prodotti sia sul fronte dello storage sia del software, come pure dei device. La multinazionale torna agile. Hp vuole tornare a essere la società di ingegneri che suscitava ammirazione e mieteva successi negli anni ’90. In occasione dell’evento europeo “Hp Discover”, Meg Whitman ha cercato di scacciare i fantasmi dell’affaire Autonomy, che ha contorni ancora da chiarire, rilanciando il business e l’immagine di un’azienda che mantiene la leadership in molti settori, ma che sembra ancora non trovare la strada che la porterà del tutto fuori dalle nuvole. E sono proprio le nuvole la speranza della multinazionale, se è vero come è vero che di recente i suoi manager hanno più volte parlato di un “vero e proprio stravolgimento portato dal cloud e dai big data, che ha messo fuori gioco in pochi anni le tecnologie legacy”. Lo stravolgimento si riflette anche sull’organigramma e sull’offerta di Hp, che la Whitman ha tagliato (in tutti i sensi) per renderla più aderente ai nuovi mercati. Così, diventa strategica la divisione Converged Infrastructure che raccoglie ora le architetture server, storage e networking, e agisce in modo trasversale rispetto al bacino dei clienti; ma ancora di più la business unit Converged Cloud, appena

nata per gestire l’omonimo portafoglio di soluzioni e guidata da Saar Gillai (che risponde a sua volta a Bill Veghte, braccio destro di Meg Whitman). Anche i prodotti si rinnovano in un’ottica di cloud e razionalizzazione o, come ha cripticamente ma suggestivamente affermato David Scott, senior vice president a capo delle soluzioni di storage della multinazionale, “si spostano dalla complessità frammentata alla semplicità polimorfica”. Nella sostanza, una delle novità più importanti è l’espansione della gamma di storage 3Par verso il basso. I modelli StoreServe della famiglia 7000 coprono ora le esigenze di una vasta gamma di applicazioni, ed entrano in rotta di collisione con le soluzioni Emc. Importanti novità sono arrivate anche sul fronte delle piattaforme di backup, con le soluzioni StoreAll (per ambienti cloud e big data) e StoreOnce (tagliate anche per le Pmi). Rinnovata pure l’offerta di stampanti, tablet e Pc convertibili, che ora fanno capo a un’unica divisione (di nuovo oggetto di rumors che ne indicherebbero l’imminente distacco dal resto del business). Emilio Mango FEBBRAIO 2013 |

11


IN EVIDENZA

Paul Jacobs Ceo di Qualcomm

Ces 2013: a Las Vegas sbanca il fattore mobile Al Consumer Electronic Show le novità in campo smartphone, tablet e ultrabook hanno fatto capolino al fianco di gadget elettronici e televisori. La mobilità è stata uno dei leitmotiv dell’edizione 2013 della più grande kermesse tecnologica del pianeta, che quest’anno ha ospitato circa 3mila aziende. Il keynote di apertura intitolato “Born Mobile” e tenuto dal Ceo di Qualcomm, Paul Jacobs, era del resto un indizio di sostanza. Dal numero uno della società californiana è arrivata una descrizione

essenziale dell’universo in cui ci apprestiamo a vivere: “un mondo dove ogni oggetto e individuo sarà connesso”. I cinque miliardi di sensori wireless che presto renderanno connessi ‒ da stime di Abi Research ‒ computer e schermi touch, frigoriferi, forni a microonde, elettrodomestici, automobili e pure capi di abbigliamento sembrano confermare tale visione. “Born mobile” significa però soprattutto che la connessione a Internet (ad applicazioni, contenuti e servizi residenti nel cloud) sarà essenzialmente

Ecco i chip a quattro core di nuova generazione La presenza ingombrante a Las Vegas del fattore mobile – Huawei e Sony hanno approfittato per presentare in anteprima mondiale nuovi smartphone Ascend Mate con schermo da 6,1 pollici e gli Xperia serie Z – si è concretizzata soprattutto nella nuova abbuffata di notebook, ibridi e tavolette all’insegna di Windows 8. La novità più ghiotta, orientata al pubblico consumer, è però motorizzata Android: l’Iconia B1-A71 di Acer, tablet da 7 pollici che arriverà sul mercato a meno di 150 dollari. Ad animare gli interessi di appassionati e addetti ai lavori ci hanno quindi pensato i produttori di chip. Intel, oltre ai nuovi system on a chip Atom “Le12

| FEBBRAIO 2013

xington” per smartphone low cost e agli Atom “Bay Trail” quad-core a 22 nanometri per i tablet in uscita a fine 2013, ha presentato un nuovo concept di ultrabook: nome in codice “North Cape”, si trasforma in un tavoletta da 10 millimetri di spessore con un’autonomia massima di 13 ore quando collegato alla base. Botti di rilievo sono stati anche quelli delle aziende che dominano il mercato del silicio in chiave mobile, e cioè Qualcomm con i nuovi esemplari di Soc quad-core Snapdragon a 28 nanometri, e Nvidia con i suoi Tegra 4 a quattro core basati sulla più avanzata architettura a tecnologia Arm (la Cortex-A15) oggi esistente.

via terminale mobile. E la sigla “Gen M” sta appunto per “mobile generation”, perché tutti, a detta di Jacobs, siamo ormai interessati da questo fenomeno. La crescita esponenziale della domanda di dati ha reso il mobile, parole del numero uno di Qualcomm, “la più grande piattaforma tecnologica della storia umana, e i telefonini intelligenti la piattaforma che sta prendendo il posto dei Pc”. E siamo per certi versi solo all’inizio: la penetrazione delle reti Lte 4G, lo standard WiFi 802.11ac e la realtà aumentata sono tecnologie che contribuiranno a realizzare il paradigma del mondo connesso. Lo stesso faranno i chip, dovendo garantire sempre maggiori prestazioni e capacità (e nel contempo autonomia delle batterie) alle centinaia di milioni di device touch in rampa di lancio nei prossimi dodici mesi. L'innovazione, intanto, parla sempre più asiatico. Da una parte chi ha in mano la tecnologia del silicio, dall’altra chi produce i device (computer od oggetti di elettronica di consumo); in mezzo chi sviluppa il software. Lo schieramento dei vendor si può riassumere in tre distinti blocchi: il primo e l’ultimo parlano americano, il secondo quasi esclusivamente asiatico (coreano, taiwanese, cinese e giapponese). Orfano come ormai da tradizione di Apple, il Ces 2013 ha confermato come Samsung sia di fatto l’azienda dominante dell’universo tecnologico. Dagli smartphone (secondo Idc, un device mobile su cinque venduto nel mondo porta la firma del chaebol coreano) ai televisori, passando per i prodotti audio e video, la multinazionale asiatica primeggia un po' ovunque. Le manca il trono dei Pc portatili, dove le varie Hp, Dell, Acer, Lenovo e Asus, senza dimenticare ovviamente Apple, sono “costrette” a darsi battaglia per mantenere quote di mercato e marginalità. Una battaglia che nel 2013, anche per quanto riguarda gli investmenti delle grandi multinazionali, si giocherà in campo mobile.


Salesforce.com va alla conquista del social marketing nel cloud Presentata nel corso di un “Innovation Tour” che ha toccato anche il nostro Paese, la nuova suite Marketing Cloud è, per Salesforce.com, più di una scommessa. Frutto di due importanti acquisizioni di altrettanti prodotti già affermati sul mercato, Buddy Media e Radian6, Marketing Cloud chiude

il cerchio dell’offerta Salesforce.com, nota in tutto il mondo per il forte posizionamento in ambito sales e Crm. Con Marketing Cloud le aziende potranno organizzare e controllare tutte le attività di social marketing da un’unica piattaforma, ingaggiando i potenziali clienti, dialogando con quelli già Oliver Nguyen Van Tan

Panda Gatedefender, la soluzione unificata Si arricchisce l’offerta di Panda Security in ambito business. La nuova soluzione è un’appliance per la sicurezza aziendale perimetrale, che protegge il sistema informativo e i dati da qualsiasi tipologia di minaccia. Panda Gatedefender Performa eSeries neutralizza infatti virus e spam, e protegge da accessi non autorizzati il gateway internet attraverso una serie di contromisure intelligenti. La soluzione è disponibile in tre versioni: compatibile con i motori di virtualizzazione, solo software e hardware (in quest’ultimo caso sono commercializzate cinque varianti per soddisfare le necessità delle aziende di diverse dimensioni). Per le installazioni più complesse, è possibile la gestione centralizzata via cloud mediante la nuova Panda Perimetral Management Console.

acquisiti e monitorando tutto il mondo dei social media senza mai uscire dall’ambiente Salesforce. “Il business diventa sociale e mobile”, ha commentato Oliver Nguyen Van Tan, il product marketing director per la regione Sud Europa di Salesforce. com in occasione dell’evento milanese, “e il numero di utenti sui social network ha ormai superato quelli che utilizzano la posta elettronica. Per di più, la maggior parte degli accessi avvengono ormai da device mobili. Ecco perché le aziende devono cambiare il loro modo di lavorare, comunicare e condividere le informazioni con clienti, dipendenti e partner”. Destinata al momento soprattutto alle grandi aziende, la soluzione Marketing Cloud è caratterizzata dall’impiego di tecnologie piuttosto sofisticate e, quindi, da prezzi abbastanza elevati. Negli Usa, dove la suite è già commercializzata, i costi partono da 5.000 dollari al mese.

Adobe Creative Suite sulle nuvole Lanciato ad aprile del 2012, Creative Cloud di Adobe è stato aggiornato a fine anno, per la felicità del milione di abbonati (di cui oltre 326mila sono freelance o piccoli studi creativi). Ora, infatti, il servizio offre la possibilità di accedere a tutti gli aggiornamenti in tempo reale, senza bisogno di aspettare le nuove release con cadenza annuale. La novità per il mondo delle aziende è la disponibilità della versione Team, che aggiunge alle funzioni presenti nell’edizione individuale di Creative Cloud ulteriori strumenti dedicati alla gestione dei gruppi di lavoro virtuali (vale a dire formati da collaboratori interni ed esterni), 100 GB di spazio di archiviazione nella nuvola per utente (rispetto ai convenzionali 20 GB) e un servizio centralizzato di fatturazione e di gestione delle licenze (tramite

apposito pannello dal quale assegnare o togliere la disponibilità di programmi ai singoli collaboratori). Creative Cloud, lo ricordiamo, raccoglie tutti i più importanti strumenti creativi di Adobe in un’offerta in abbonamento mensile o annuale, espressamente tagliata per le aziende (la versione Team costa 69,99 euro al mese per utente, Iva esclusa). 13


IN EVIDENZA

Microsoft inaugura la suite Office 2013

Dell: quale futuro dopo l’uscita da Wall Street? La multinazionale torna privata, anche grazie all’aiuto finanziario di Microsoft, che mette sul tavolo due miliardi di dollari. Michael Dell

Il 5 gennaio è arrivato l’annuncio ufficiale dopo tre settimane di indiscrezioni: Dell lascia dopo 25 anni la Borsa e con un’operazione da 24,4 miliardi di dollari torna a essere una società privata. Agli azionisti verranno pagati 13,65 dollari in contanti per azione, con un premio del 25% rispetto alla quotazione del titolo (10,88 dollari) il giorno prima che uscissero le voci relative al delisting. A volere il buyout (il più corposo dall’inizio della crisi finanziaria e la cui conclusione è prevista entro la fine del secondo trimestre) è stato soprattutto il fondatore della società texana, Michael Dell. L’attuale presidente e Ceo, cariche che conserverà anche in futuro, ha messo sul piatto un assegno da 700 milioni di dollari staccato da un suo fondo di investimento e il 14% delle azioni da lui possedute, valutate circa 3,7 miliardi di dollari. Il resto della cifra l’hanno assicurata principalmente il fondo di private equi14

| FEBBRAIO 2013

ty Silver Lake (un miliardo di dollari), quattro banche (BofA Merrill Lynch, Barclays, Credit Suisse e Rbc Capital Markets, per un totale di 15 miliardi di dollari sotto forma di finanziamente del debito) e, questo uno degli elementi più importanti dell’operazione, Microsoft, che ha versato due miliardi di dollari a titolo di prestito. Resta da caire quanto il colosso di Redmond, che non avrà seggi nel consiglio di amministrazione, condizionerà le strategie future di Dell, più che mai orientata alle soluzioni It di classe enterprise e ai servizi cloud. Certo è che il sodalizio con il terzo produttore di computer al mondo (che fino al 2006 fa dominava il settore con una capitalizzazione di mercato di oltre cento miliardi di dollari) si fa ancora più stretto per ciò che concerne l’utilizzo dei software di Redmond sui tablet e Pc della compagnia. Nel segno, ovviamente, di Windows 8. Gianni Rusconi

Semplificare la vita delle persone rendendole più produttive: questa la promessa avanzata da Microsoft in sede di lancio (datato fine gennaio) di Office 365 Home Premium, la nuova versione consumer e basata su cloud della suite di produttività che comprende i vari Word, Excel, PowerPoint, OneNote e Outlook. Le prerogative del servizio sono sostanzialmente due. La prima è quella di poter funzionare su più dispositivi, anche touch, fino a un massimo di cinque fra tablet, Pc Windows e computer Mac; la seconda è quella di includere uno spazio di archiviazione extra di 20 GB su SkyDrive e 60 minuti di chiamate internazionali mensili via Skype. Il “pacchetto” costa 99 euro con abbonamento annuale. Per il Ceo di Redmond, Steve Ballmer, il prodotto “molto più di un’altra versione di Office”. La grande novità, dal lato degli utenti, riguarda le modalità di aggiornamento del software, che stravolge il consuetudinario ciclo di rilascio triennale: gli upgrade dei vari applicativi saranno infatti distribuiti periodicamente e automaticamente agli abbonati al servizio. Per chi invece ancora del cloud non si fida o comunque preferisce operare con il prodotto in versione tradizionale, Microsoft ha rilasciato a livello globale i pacchetti Office Home and Student 2013 (119 euro), Home and Business 2013 (269 euro) e Professional 2013 (539 euro). Il nuovo Office 365 per le aziende verrà invece rilasciato a livello mondiale il 27 febbraio.


Panasonic presenta i nuovi tablet indistruttibili Hiroaki Sakamoto, capo europeo della divisione It di Panasonic, ha convinto il pubblico (e anche la critica) che lo ascoltava con curiosità nel corso dell’evento di presentazione di due nuovi tablet ultra-resistenti: un modello con schermo da 7 pollici basato su Android e un più “attraente” 10,1 pollici con sistema operativo Windows 8. La multinazionale giapponese punta in alto: dopo aver conquistato il 65% del mercato dei portatili ad alta resistenza, ora vuole anche il 50% del segmento dei tablet “rugged” entro il 2015. Il business dei rugged Pc, nato nel lontano 1996 con il primo modello Toughbook Cf-25, è già da tempo un cavallo di battaglia di Panasonic, che ha un nutrito catalogo di macchine in grado di “sopravvivere” a temperature proibitive (molti arrivano a sopportare 20 gradi sotto lo zero e 60 sopra) e a condizioni estreme in termini di urti, polvere e acqua.

“I sette punti di forza su cui basiamo la nostra strategia nel segmento rugged”, ha dichiarato Sakamoto, “sono la visibilità dello schermo alla luce diretta, la sicurezza, la gestione del calore, la leggerezza, la tecnologia wireless, l’autonomia e, ultima ma non per importanza, la solidità”. Sotto i riflettori c’è soprattutto il nuovo Toughpad Fz-G1, un piccolo gioiellino basato su Windows 8

Pro che monta un display da 10,1” con luminosità di 800 cd/m2. Il processore è un Intel Core i5 vPro, che garantisce prestazioni adeguate e notevole fluidità dell’interfaccia. Per il resto, il nuovo Toughpad è totalmente personalizzabile: fotocamera, porte, batteria ad alta capacità e modulo 3G sono installabili a richiesta. L’autonomia dichiarata è di otto ore (che diventano 17 con la batteria opzionale); il peso, grazie allo chassis in magnesio, è di soli 1,1 chilogrammi. Un po’ alto il prezzo di vendita della versione base: 2.139 euro. Decisamente più accessibile l’altrettanto innovativo Toughpad Jt-B1, un tablet Android (versione 4.0) con schermo da 7 pollici basato su processore Texas Instruments dual core da 1,5 GHz. Con poco più di mezzo chilogrammo di peso, il Jt-B1 è l’ideale per le applicazioni utilizzate dal personale (commerciale e utility) sul territorio. Il prezzo è 799 euro.

Oracle: big data più fruttuosi, applicazioni più veloci La strategia di Oracle da qualche mese a questa parte è chiara: offrire alle aziende, soprattutto quelle di classe enterprise, soluzioni cloud e di analytics per massimizzare la flessibilità e ridurre i costi dei data center. Le ultime novità di prodotto annunciate dal gigante californiano vanno in questa direzione, promettendo più potenza di calcolo e maggiore interoperabilità con altre applicazioni e tool di gestione dei dati. La nuova versione X3-2 di Big Data Appliance, uno dei punti di forza della collana di sistemi hardware e software “all in one” di Oracle, si è arricchita del supporto alla più recente edizione della Cloudera Distribution, comprensiva anche dell’ambiente di sviluppo

open source Apache Hadoop. Passo in avanti anche per il set dei Big Data Connectors, che estende ora le capacità di integrazione con Oracle Database. L’essenza di questi annunci? La risposta arriva dal vice president Data Warehousing and Big Data di Oracle, Cetin Ozbutun: “Le imprese sono sepolte da valanghe di informazioni allo stato grezzo e prima di poterne trarre vantaggio devono controllare al meglio la grande varietà delle fonti dei dati, ottimizzando i workload dei Big Data ed integrandoli con i data warehouse per semplificarne l’analisi”. Data center flessibili con il cloud L’abbattimento dei costi di gestione dell’infrastruttura It, secondo Oracle,

passa quindi per una più efficiente gestione delle sue Applications (Erp e Crm), e in quest’ottica vanno inquadrati i nuovi Exalogic Elastic Cloud Template. Il plus? Tempi di implementazione (delle applicazioni) che si riducono da intere settimane a pochi minuti. E nell’ottica di contenere gli oneri della componente informatica è arrivato l’ultimo tassello della proposta di servizi di cloud privato. Con Infrastructure as a Service On Premise, infatti, Oracle offre alle aziende capacità di calcolo variabili su richiesta con la possibilità di utilizzare i propri sistemi ingegnerizzati nei data center pagando un canone mensile e commisurato ai picchi di potenza effettivamente necessari. 15


IN EVIDENZA

l’opinione L’impatto finanziario del Byod Il “Bring Your Own Device” è tra i fenomeni più innovativi dell’It. Molte aziende, però, non ne conoscono l’impatto finanziario poiché le metodologie tradizionali per la misura del ritorno sull’investimento sono difficilmente applicabili. A differenza di altre situazioni, dove l’It manager produce un business plan che giustifichi gli investimenti, i dirigenti non hanno schemi per valutare i costi né i risparmi. Trend Micro ha condotto un’analisi, commissionandola a Forrester Consulting, sui Cio e responsabili It di oltre 200 aziende di Usa ed Europa con programmi Byod attivi. Emerge che le aziende non conoscono l’impatto economico del Byod perché non lo misurano. Sono certe dei benefici ma non stabiliscono nuove policy cui i dipendenti debbano attenersi né misurano i costi aggiuntivi che l’introduzione di tecnologia mobile consumer implica per l’azienda, da quelli per l’infrastruttura hardware e software, a quelli legali, a quelli relativi alla gestione dei dispositivi mobili e al

servizio di supporto tecnico. Non potendo contare su schemi tradizionali, l’It manager deve adottare un nuovo approccio. Da fornitore di tecnologia per l’azienda, diventa più un mediatore tecnologico che gestisce e mette in sicurezza piattaforme e dispositivi mobili scelti e acquistati direttamente dai dipendenti. Per questo, deve separare le voci di bilancio per investimenti dell’azienda da quelle per tecnologie che essa non possiede direttamente. La percezione generale è che l’aumento di produttività sia il maggiore beneficio del Byod. Lo studio dimostra che l’84% delle aziende ha registrato un incremento effettivo, in media del 20%. Ci sono poi benefici minori, come programmi di lavoro flessibili e riduzione delle spese di telefonia mobile. Dal lato costi, alcuni sono evidenti, come le bollette, altri nascosti. Il principale è l’assistenza: sale la spesa per l’helpdesk necessario per la configurazione e l’accesso alla rete aziendale. Ancora, le licenze software: le versioni home sono più convenienti

Cesare Garlati

ma vanno commutate in professional. Ci sono poi costi di compliance, di gestione e sicurezza (aumentati per il 63% delle aziende). Il mio consiglio: per valorizzare i benefici economici della consumerizzazione, gli It manager devono imparare a misurarne correttamente il Roi, facendo emergere tutti i costi nascosti e l’impatto complessivo sul business. Altrimenti rischiano l’estinzione, come dinosauri di una precedente era It. Cesare Garlati Vice President of Mobile Security Trend Micro Blog: www.bringyourownit.com

Mht coglie i frutti degli investimenti in Erp e Crm Ha sette sedi in Italia ma, in tempi di vacche magre come questi, pensa già all’espansione in Europa e anche oltre. Mht, presente da 15 anni nel mercato It e tra i più fedeli partner Microsoft in ambito Erp e Crm, oggi sta cogliendo i frutti degli investimenti realizzati negli anni scorsi, quando la crisi mordeva già il settore e scoraggiava la maggior parte degli imprenditori. “Per una strana coincidenza”, dice Franco Coin, amministratore delegato e fondatore di Mht, “nel 2012 il nostro giro d’affari è cresciuto del 18%, il no16

| FEBBRAIO 2013

stro organico è aumentato di 18 persone e abbiamo acquisito 18 nuovi clienti. La crescita non si fermerà nel 2013, tanto che stiamo pianificando l’ingresso sui mercati internazionali”. I due pilastri su cui si basa la crescita aziendale di Mht si chiamano Erp (il segmento pesa per l’80% sul fatturato della società) e Crm, e sono entrambi targati Microsoft. Dynamics Ax è infatti la soluzione “storica” del system integrator veneto, tagliata soprattutto sul mercato delle medie imprese dei settori manifatturiero e distributivo. Di recen-

te, però, Mht ha puntato molto anche su Microsoft Dynamics Nav, destinato alle piccole imprese ma anche alle filiali di grandi aziende, e su Dynamics Crm, che sta procurando a Coin e ai suoi manager grandi soddisfazioni. “Nel 2012”, prosegue il fondatore, “punteremo sulla razionalizzazione e sulla semplificazione dei processi dei nostri clienti. Un trend già in atto che gli strumenti di Erp e di Crm consentono di aiutare e di facilitare, soprattutto per le aziende industriali e per quelle della grande distribuzione”.



SCENARI | Big data

LE AZIENDE E LA CORSA ALL’ORO DEI GRANDI DATI Secondo Idc il giro d’affari di questo segmento crescerà a un tasso annuo del 31,7%. Sugli scudi, in particolare, la componente storage. In Italia l’aumento di domanda prevista nel 2013 per tecnologie, servizi e soluzioni dedicate è del 20%. Viaggio nel mercato dei big data, oggi più che mai paradigma della nuova It.

P

erché i big data sono una voce chiave per capire il cambiamento in atto in seno all’Information Technology? La risposta arriva dallo studio “Worldwide Big Data Technology and Services 2012-2016 Forecast” redatto da Idc: la domanda di soluzioni per organizzare, analizzare e distribuire le informazioni digitali in azienda aumenterà a un ritmo sette volte superiore rispetto a quello del mercato Ict nel suo complesso. Si parla, in soldoni, di un giro d’affari su scala mondiale di 23,8 miliardi di dollari e di un tasso di crescita composto del 31,7% dal 2012 al 2016. Veridicità e volubilità delle cifre a parte, che questo sia un tema “vitale” per i chief information officer delle aziende di ogni ordine e grado pare scontato. E il fenomeno, questo è altrettanto certo, interessa da vicino anche le imprese italiane, e per almeno due ordini di motivi: la domanda per servizi e tecnologie in materia di big data è destinata nel 2013 a crescere a ritmi superiori al 20%, mentre la carenza di risorse umane qualificate potrebbe spingere un certo numero di imprese verso soluzioni analitiche cloud based. 18

| FEBBRAIO 2013

La componente social: non gestirla costa. E tanto

Le informazioni contenute nelle ricerche effettuate nel Web, nelle transazioni sui siti di e-commerce, nei commenti postati sui social network o sui blog istituzionali hanno un valore. Ed è un valore di assoluta rilevanza, percentualmente parlando, per i conti di un’azienda. Non gestire e interpretare questa mole destrutturata di dati può infatti rappresentare un costo, e parecchio salato, per qualsiasi organizzazione. Il paradigma dei Big Data, in altre parole, ha una dimensione anche economica e non solo squisitamente tecnologica e legata all’uso di avanzati algoritmi di business analytics. Da uno studio in materia di Oracle si evince per esempio come, nei soli Stati Uniti, la mancanza o la scarsa qualità dei dati possa generare un impatto a livello di costi pari a 600 miliardi di dollari, con un’incidenza fino al 30% sul reddito operativo di ogni azienda. Una rivoluzione che va dunque cavalcata in modo adeguato per evitare il rischio di esserne travolti. Nel 2020 i dati digitali aumenteranno di decine di volte rispetto a oggi, e abbiamo già abbondantemente superato la barriera del miliardo di terab-

yte. Cifre iperboliche, tanto più se pensiamo che circa un terzo di questi dati (quelli aziendali raddoppiano ogni 1,2 anni) saranno gestiti nel cloud. Dove dovranno intervenire le aziende per raccogliere e analizzare informazioni rilevanti ai fini del business? Esattamente là dove i dati vengono prodotti con maggiore intensità, e cioè nel mondo mobile, nei social network (175 milioni i tweet giornalieri e 2,5 miliardi i post su Facebook), nelle ricerche online (solo su Google 34mila query al secondo) o ancora nei pagamenti via Internet (i clienti di Walmart producono un milione di transazioni all’ora).


Archiviarli e organizzarli nei classici database è impossibile: servono tecnologie di analisi intelligenti e predittive per raccoglierli e processarli in tempo reale. Ed è su questo fronte che i big dell’It (la stessa Oracle, Ibm, Sap o specialisti come Teradata ed Emc) stanno, non a caso, concentrando gli sforzi. Una sfida da vincere per non perdere il treno

La portata del fenomeno è tale per cui, come ha svelato un recente studio di Emc su circa 400 figure decisionali (fra cui responsabili It) di aziende italiane, poco meno di una su due è convinta

che l’analisi dei big data creerà nuove dinamiche di settore nel corso dei prossimi cinque anni. Con aziende che risulteranno vincenti o perdenti rispetto a esse. Il 38% del campione di cui sopra, oggi, ha confermato di aver implementato o di considerare l’implementazione di avanzati strumenti di gestione e di analisi delle informazioni; il restante 62%, invece, non ha invece ancora preso in esame l’idea di utilizzarli. Il nuovo studio sul Digital Universe a firma di Idc evidenzia come, in effetti, ci si trovi solo all’inizio di un percorso: appena lo 0,5% delle informazioni prodotte e replicate in formato digitale a livello mondiale viene effettivamente analizzato. E meno del 20% è adeguatamente protetto. Di che universo stiamo parlando lo dicono i numeri: nel 2020 avremo a che fare con 40 zettabyte di dati (in media 5.250 Gbyte di informazioni per ogni persona vivente sul pianeta), rispetto ai 2,8 zettabyte del 2012. In seno alle aziende, Cio e figure It (ma non solo) farebbero bene a prendere nota di questi indicatori: il 23% del Digital Universe misurato da Idc (pari a 643 exabyte di dati) si sarebbe rivelato utile per i big data già nel 2012 se fosse stato dotato di tag e analizzato. Allo stato attuale, invece, solo il 3% dei dati potenzialmente utili è etichettato e una percentuale ancora minore, come già detto, viene processata da appositi algoritmi. La quantità di informazioni digitali utili sta crescendo (entro il 2020 oltre 13mila exabyte avranno valore) ma grandi quantità di dati vanno ancora perdute, riducendo la possibilità di estrarre indicazioni significative e utili ai fini del business. Forse è anche per questo motivo che gli investimenti in infrastruttura (hardware, software, servizi, sistemi di telecomunicazioni e staff) cresceranno fra il 2012 e il 2020 molto meno velocemente rispetto a quelli destinati alla gestione dello storage, alla sicurezza, al cloud computing e ai big data. Gianni Rusconi

La gestione è complicata? Non con il PaaS Pare che a livello mondiale il cloud in modalità Platform as a Service abbia già trovato modo di dimostrare i vantaggi in chiave business per cui è accreditato. Secondo gli analisti di Gartner questo segmento raggiungerà quest’anno un valore di 1,5 miliardi di dollari su scala globale (rispetto agli 1,2 miliardi del 2012), per arrivare a 2,9 miliardi entro il 2016. Due indicatori per dire che il Paas, oggi condizionato dall’estrema frammentazione dell’offerta, ha tutti i requisiti (almeno sulla carta) per diventare una priorità sul tavolo di Cio e responsabili It, che ne vedono un potente strumento di semplificazione, nei prossimi due o tre anni. A dare sostanza alla meno popolare e diffusa fra le tre varianti delle soluzioni “as a service” (le altre due sono, come noto, il SaaS e lo IaaS) contribuisce certamente la stretta correlazione esistente fra i big data e il cloud. E più precisamente fra l’esplosione dei dati in azienda e la necessità (per le stesse aziende) di snellire tempi e costi per lo sviluppo di nuove applicazioni. Non stupisce quindi che i Cio più lungimiranti stiano sin d’ora aprendo la strada all’adozione dei servizi PaaS, citando i big data come la principale ragione per giustificarne l’adozione e assicurando di aver superato, una volta constatati i benifici, le esitazioni in merito alla sicurezza e al Roi del cloud. Un percorso quindi appena iniziato, che in Italia (come è spiegato nelle prossime pagine) è addirittura ancora in fase sperimentale. 19


SCENARI | Big data

IL MODELLO DI BUSINESS DI LINKEDIN PER MONETIZZARE LE INFORMAZIONI

I

Stephen Brobst, Cto di Teradata.

L’analisi di grandi quantità di dati e le architetture sulla nuvola sono una priorità per le aziende. Insieme sarebbero un mix dirompente per il business, ma in Italia i progetti più innovativi ancora non decollano. Le voci (e le esperienze internazionali) di due protagonisti.

20

| FEBBRAIO 2013

l Cto di Teradata, Stephen Brobst, spiega come il famoso social network utilizza le informazioni generate dai suoi 175 milioni di utenti per sviluppare (e vendere) servizi a valore aggiunto. Come monetizzare i big data, ovvero la mole di dati, di provenienza e natura disparate, che si moltiplicano nei database aziendali? Linkedin, grazie alla tecnologia di Teradata, sta creando diversi servizi per i suoi oltre 175 milioni di iscritti. Servizi che nascono proprio dall’esplorazione dei dati inseriti dagli stessi utenti del più grande network professionale del mondo. Opzioni come “people you may know”, che suggerisce i nomi di professionisti che potrebbero essere loro già noti, oppure la possibilità di ricevere e-mail che informano se altri iscritti alla rete sociale hanno cercato il proprio profilo sono solo alcuni esempi degli strumenti che Linkedin ha creato su misura per la sua comunità. Come? Valorizzando i dati. E visto che alcuni di questi servizi si pagano, ecco spiegato come il social network trasforma il ricco patrimonio di informazioni che processa ogni giorno in una fonte di entrate. L’azienda ha un modello di business diversificato, dove i redditi provengono sia dalla vendita di spazi pubblicitari sia dagli abbonamenti premium e dalle soluzioni per la ricerca di personale; proprio in questi ultimi due ambiti è fondamentale la capacità di offrire servizi e prodotti in linea con quello che il mercato si attende. “Il caso di Linkedin”, sottolinea Stephen Brobst, Chief technology officer di Teradata e uno dei massimi esperti mondiali in fatto di data warehousing e business intelligence”, è

particolarmente interessante perché tutto il business di questo sito è basato sui dati, e sono i dati che permettono a questa azienda di offrire servizi a valore aggiunto”. Ma non è solo l’attività degli utenti del network a generare terabyte di dati che Linkedin conserva in toto. Spiega ancora Brobst che è anche l’analisi attiva dei dati stessi a “permettere al sito di creare servizi in linea con le richieste dei suoi utenti e, ancora una volta, basati sui dati”. Il tutto, ovviamente, sfruttando le soluzioni di Teradata. Strumenti open source e analytics Ma è conveniente conservare tutti i dati come fa LinkedIn? Brobst, in proposito, non ha dubbi: “Senza il patrimonio storico delle proprie informazioni non ci può essere analisi completa e capacità di tracciare proiezioni sul business futuro. Per abbassare il Total Cost of Ownership della propria infrastruttura di storage Linkedin conserva le informazioni con i nuovi strumenti open source (Hadoop, ndr) che anche la nostra piattaforma mette a disposizione”. Per le operazioni di analisi e correlazione dei dati, e conseguente elaborazione di servizi pertinenti alle richieste degli utenti, intervengono invece altre tecnologie, e in particolare quelle di AsterData, software house californiana specializzata in soluzioni di data management e acquisita da Teradata nel 2011. “L’abilità di raccogliere e studiare i Big Data”, questa la chiosa sintetica di Brobst”, rivoluziona la capacità analitica di LinkedIn, trasformandosi in vero e proprio strumento di business”. Patrizia Licata


BIG DATA NEL CLOUD? SÌ, MA SOLO TRA DUE ANNI L’analisi di grandi quantità di dati e le architetture sulla nuvola sono una priorità per le aziende. Insieme sarebbero un mix dirompente per il business, ma in Italia i progetti più innovativi ancora non decollano. Le voci (e le esperienze internazionali) di due protagonisti.

C

he la combinazione di architetture cloud e tecnologie big data sia potenzialmente esplosiva, in termini di prestazioni e flessibilità, si può facilmente immaginare. Altrettanto scontato è prefigurarsi le difficoltà, soprattutto organizzative e culturali, che tale binomio comporta. Tanto che, nonostante i fiumi di parole spesi per descrivere i nuovi paradigmi dell’It, non risulta che in Italia siano ancora partiti progetti di gestione e analisi di grandi moli di dati sulla nuvola. “In Italia è ancora presto per osservare progetti concreti di big data sul cloud”, conferma Guido Guerrieri, executive partner di Reply, “e i fattori che impediscono lo sviluppo congiunto di queste due tecnologie sono almeno tre: il fatto che molti It manager vedono nella nuvola un valido supporto ma non ancora una tecnologia mission critical, la ritrosia a mettere sul cloud, che non è ancora Alessandra Brasca, Cloud Leader di Ibm Italia.

ritenuta sicura al cento per cento, i propri dati, e le problematiche legali. C’è poi un tema tecnologico: in Italia non c’è ancora un grande know how relativo ai big data, non si conoscono ancora bene i requisiti per le infrastrutture”. “Dal nostro osservatorio”, gli fa eco Alessandra Brasca, cloud leader di Ibm Italia, “possiamo affermare che la maggior parte delle aziende italiane è ancora in una fase di comprensione del fenomeno big data e dei suoi possibili benefici, mentre altre ancora sono concentrate nella gestione di altre priorità legate all’It: è una fotografia del mercato evidenziata anche da una recente ricerca che abbiamo condotto in collaborazione con la Sda Bocconi”. Cultura e priorità quindi, non un problema di tecnologia e nemmeno di “economics”, visto e considerato che proprio le architetture cloud dovrebbero facilitare l’accesso a soluzioni certamente non a buon mercato come quelle che gestiscono e scandagliano i big data. “Se da una parte mancano ancora i progetti concreti”, dice Guerrieri, “dall’altra, grazie anche al rapporto diretto con i responsabili del business più che con l’It, stiamo seguendo parecchie sperimentazioni, sfruttando piattaforme tecnologiche già collaudate come il cloud di Amazon e l’ambiente Hadoop per i big data. Diverso è lo scenario all’estero: in Germania e Inghilterra Reply sta già costruendo soluzioni concrete, soprattutto in mercati verticali come la finanza, il retail e le telco. E’ una tendenza che arriverà per forza di cose anche nel nostro Paese, probabilmente quando, tra un paio d’anni scarsi, il cloud sarà

Guido Guerrieri, Executive Partner di Reply.

molto più pervasivo”. Solo leggermente diverso è l’angolo di visuale di Ibm, che vede nei big data, e soprattutto nell’analisi dei dati provenienti dal mondo social, una spinta all’adozione del cloud. “I big data richiedono uno spettro di tecnologie e competenze già disponibili ma comunque molto avanzate”, spiega Brasca, “e bisogna valutare se si ritiene di poter gestire tutto in-house a far ricorso da altre modalità, almeno per razionalizzare i dati prima di integrarli in azienda. All’interno dell’offerta Ibm SmartCloud ci sono diverse soluzioni abilitanti, dai nuovi sistemi integrati PureData System for Analytics al software già disponibile in modalità as-a-service”. Anche in casa Ibm, le esperienze internazionali, tra l’altro di stretta attualità, non mancano, prime tra tutte le applicazioni big data in cloud per i siti web degli Open Australiani di Tennis e del Trofeo delle sei nazioni di rugby. E.M. 21


SCENARI | Sicurezza informatica

SECURITY: I CAMPANELLI D’ALLARME DEGLI ESPERTI Big Data, furto di dati nel cloud, attacchi alle piattaforme mobili e ai sistemi machine-to-machine: queste le più gravi minacce del cybercrimine nei mesi a venire secondo Trend Micro, Kaspersky, Panda Security, McAfee, Fortinet ed Emc.

A

ltro che questione per addetti ai lavori. Quella della sicurezza da tempo ha smesso di essere una pura preoccupazione tecnica, coinvolgendo invece a tutti i livelli le decisioni di business e le quotidiane attività dei dipendenti. Bring your own device, Big Data e cloud computing – le tre grandi tendenze in corso – condizionano e sono a loro volta condizionati da minacce informatiche di vario tipo. Qualche esempio? Fra panoramiche dell’anno passato e previsioni per il 2013, gli operatori di security hanno suonato una serie di campanelli d’allarme. Il primo, non certo nuovo, riguarda la vulnerabilità delle piattaforme mobili: smartphone e tablet raramente protetti da antivirus, app store zeppi di malware le due cause principali. Senza contare la maggiore difficoltà di controllo (pur in presenza di programmi di amministrazione da remoto) per le aziende su quello che i dipendenti fanno con i loro dispositivi personali, spesso i medesimi utilizzati per accedere a caselle di posta di lavoro, database e altre risorse. Nel 2012 Trend Micro ha rilevato qualcosa come 350mila minacce per Android: è bastato un solo anno perché il robottino verde 22

| FEBBRAIO 2013

raggiungesse i volumi di malware totalizzati dalla piattaforma Pc in un quindicennio. E questo numero nel corso del 2013 potrebbe addirittura triplicare. Secondo Kaspersky, inoltre, negli ultimi 18 mesi Android ha catalizzato il 90% degli attacchi e quest’anno potrebbe profilarsi il rischio del primo “worm di massa” per questa piattaforma, capace di diffondersi attraverso Sms. Minacce evolute

Le forme di attacco dei cybercriminali nel 2013 saranno anche quelle più classicamente diffuse via Web, verso Pc e server. Tradizionali, in un certo senso, ma sempre più evolute. Secondo Panda Security, le vulnerabilità di programmi e codici saranno il primo obiettivo dei cybercriminali nell’anno in corso, seguite dai social network e dai dispositivi mobili. Il dito è puntato su applicazioni Adobe quali Acrobat Reader e Flash, ma anche sul sempre bersagliato Java, che di recente ha portato qualche grana anche alle piattaforme Mac Os. Lo scorso dicembre, per esempio, la società di sicurezza Intego ha individuato un nuovo spyware per OS X, in grado di registrare ciò che viene digitato su un sistema in-

fetto, e che sfrutta appunto una vulnerabilità di una vecchia versione di Java. Il campionario è in ogni caso vastissimo e passa dal furto di dati (da operazioni di online banking, hackeraggio di caselle di posta o ancora raggiri di phishing) alle campagne degli attivisti di Anonymous ed emuli di questi ultimi. A proposito degli hacker mascherati, McAfee Labs scommette su un rapido declino delle loro azioni, ormai troppo disaggregate e proliferate al di là delle motivazioni ideologiche originarie. E tuttavia altri gruppi hacker professionisti di alto livello potranno, nel corso del 2013, orchestreranno assalti legati a campagne militari, religiose e politiche. A detta di Fortinet, poi, nei prossimi mesi potremo forse assistere al primo attacco alle comunica-


LA LOTTA AGLI HACKER ENTRA NELL’AGENDA MONTI Preferenze politiche a parte, un sicuro merito va riconosciuto al Gerno Monti: quello di aver finalmente aperto gli occhi (primo fra gli esecutivi toccati all’Italia negli ultimi anni) sulla necessità di affrontare il cybercrimine come un problema nazionale, con pesanti risvolti su economia e sicurezza. A gennaio il premier e alcuni ministri hanno presentato quello che la stampa ha già ribattezzato come “Decreto anti hacker”: un testo che s’impegna a far nascere “un’architettura di sicurezza cibernetica nazionale e di protezione delle infrastrutture critiche”. Un passo importante, perché per la prima volta in Italia un atto normativo affronta la questione della sicurezza informatica con un approccio di sistema. Tre gli obiettivi, tre i livelli di intervento:

zioni machine-to-machine, che oggi governano piattaforme legate alla sicurezza nazionale e allo sviluppo di armi. Anche fuori dalle logiche di guerra fredda digitale, quel che è indubbio è come i dati siano ormai una risorsa preziosa non solo per le aziende che possono trarvi analytics e indicazioni di business, ma anche per gli sguardi indiscreti di chi riesce a superare la barriera delle credenziali di login verso account di qualsiasi tipo. Secondo un’indagine realizzata da Vanson Bourne per conto di Quest Software (società di Dell), la gestione dell’identità e degli accessi è una priorità del 2013 per oltre tre quarti delle aziende europee censite. E il problema riguarda anche l’utente comune che si affida a servizi Internet, dal momento che nel corso

del 2012 episodi di furto dati tramite violazione dell’accesso hanno riguardato alcuni nomi illustri del Web, da LinkedIn (con 6,5 milioni di password rubate da hacker russi), a Yahoo, a Facebook. Non stupisce allora il fatto che un gigante come Google stia oggi sperimentando una strada alternativa, quella delle chiavette Usb con token di crittografia: la multinazionale di Mountain View è al lavoro con Youbiko (azienda produttrice di un dispositivo del tipo descritto, Yubikey) per mettere a punto un modello di autenticazione sicura ai servizi Google. Ma c’è un ma: le chiavette risolvono il problema del furto delle parole chiave, introducendo però quello, forse più preoccupante, della possibilità di furto del dispositivo stesso. Oltre alla scheda

uno politico, cioè la definizione degli indirizzi strategici da parte del Comitato interministeriale per la sicurezza della Repubblica; uno di gestione di crisi, affidato al Tavolo interministeriale di crisi cibernetica; e uno di supporto operativo e amministrativo e a carattere permanente, la nascita di un “Nucleo per la Sicurezza Cibernetica”. In sostanza, si tratterà di mettere in pratica quello che è un dovere richiesto dall’Ue, ovvero l’adozione entro la fine del 2013 di un Cert unico nazionale, in grado di coordinare i propri interventi con gli altri nuclei del territorio comunitario. A prescindere da come e quando il decreto verrà convertito in legge, ai politici è finalmente chiaro l’impatto del cybercrimine sull’economia. Secondo un’indagine di Gartner, lo scorso anno privati e pubbliche amministrazioni mondiali hanno speso 60 miliardi di dollari per difendersi dagli attacchi, contro i 55 del 2011. E si prevede di arrivare a una spesa di 86 miliardi di dollari nel 2015.

di crittografia, secondo il vice presidente security di Google, Eric Gross “sarà necessario avere una qualche forma di schermata di blocco, attraverso password o altro metodo”. Chiude il quadro una riflessione sui Big Data: secondo Rsa, la divisione security di Emc, quest’anno segnerà l’inizio della commercializzazione di tecnologie di sicurezza basate sull’esplosione dei dati. “Nel 2013, le principali aziende che dispongono di funzionalità di sicurezza all’avanguardia adotteranno modelli intelligence-driven basati sull’analisi dei Big Data”, ha dichiarato Eddie Schwartz, Ciso di Rsa. “Nel prossimi due o tre anni questo modello di sicurezza diventerà uno stile di vita”. Valentina Bernocco 23


SCENARI | Sicurezza informatica

LA GUERRA CYBERNETICA? “È REALE. ECCO COME AFFRONTARLA” Malware, spionaggio informatico, hacktivism: lo scenario della sicurezza è costellato da minacce sempre più sofistificate e mirate, e interessa tutte le industry, aziende e governi. Ecco come la pensa in proposito Eugene Kaspersky.

Eugene Kaspersky

Quanto tempo occorre per rilevare e annullare una minaccia?

Dipende, anche pochi giorni. Ma non sono rari i casi, come per Red October, in cui gli ingegneri lavorano anche due mesi per raccogliere ed analizzare le informazioni necessarie.

N

ew York - “How CyberWarfare Impacts Corporate It Security”: questo il titolo dell’evento tenutosi il 30 gennaio nella Grande Mela per parlare di sicurezza, o meglio di cyber-sicurezza, ad alto livello. Gli attacchi indirizzati alle grandi multinazionali e ai governi nel corso del 2012 sono cresciuti ancora e al contempo sono divenuti più sofisticati. Flame e Gauss sono i nomi degli ultimi programmi maligni che hanno infettato migliaia (forse milioni) di computer e sistemi alla base di centrali nucleari. Le minacce rivolte agli obiettivi di tipo business sono la faccia più preoccupante del problema: tecniche diverse utilizzate dai cybercriminali per raggiungere due scopi ben definiti, profitto economico e furto di dati per spionaggio industriale. Uno scenario assai complesso e in evoluzione è quello in cui vive da 24 anni Eugene Kaspersky, founder e Ceo di Kaspersky Lab. Personaggio sopra le righe che ammette candidamente come una società come la sua può, anzi deve, mettere le proprie competenze al servizio dei governi, quello russo come quello americano. Proviamo intanto a fare chiarezza su un concetto: c’è ancora un problema di sottovalutazione dei rischi legati alle minacce e all’azione dei cyber criminali? Esiste un diverso livello di sensibilità verso la sicurezza fra le differenti industry. Quella del petrolio è molto sensibile, altre meno.

24

| FEBBRAIO 2013

viene rafforzata e rispedita a chi l’ha lanciata, è sempre molto elevato.

Il cyber spionaggio è diffuso anche nelle multinazionali?

Un esempio?

Quella dei trasporti. Ogni settore, però, è un possibile obiettivo degli attacchi più complessi, anche quello militare. E la storia recente dice che è già successo.

Sì, e non deve stupire più di tanto. Sono dotate di figure di intelligence e non è assolutamente escluso il fatto che possano condurre azioni di “spionaggio” di tipo tecnologico. In generale è necessario che tutti ‒ aziende, consumatori, agenzie governative, esperti It ‒ capiscano che viviamo in un mondo pericoloso, in cui sistemi informatici, device, reti e dati sono inevitabilmente esposti a degli attacchi. Di diversi tipi.

Dove e come occorre intervenire?

Aumentare il numero di esperti di It security in azienda, e le risorse da dedicare alla formazione in materia di sicurezza. L’approccio corretto interessa più livelli, separa il problema nelle sue diverse accezioni. Per contrastare i cybercriminali che attaccano a scopi di lucro servono delle policy, contro il fenomeno hacking finalizzato al furto o alla compromissione delle informazioni ne servono altre. E non va dimenticato come negli attacchi malware più sofisticati, come quelli scagliati verso le compagnie petrolifere dell’Arabia Saudita (Aramco, 30mila macchine infettate in Kuwait, ndr) o contro il governo iraniano (Stuxnet, worm messo a punto dai servizi Usa e israeliani, ndr), il rischio dell’effetto boomerang, e cioè il fatto che la minaccia

Cosa pensa della consumerizzazione?

È un termine che non comprendo. Io vedo una “pre-computer era” e una “computer era”. Oggi siamo nel mezzo. Il digitale è ovunque, non solo nei dispositivi personali che le persone portano in azienda. C’è una vera e propria “next big thing” all’orizzonte nel campo della security?

In termini di scenario e di tendenze il cyber crimine e l’hacktivismo aumenteranno ulteriormente di complessità. Abbiamo di fronte evoluzioni oggi sconosciute dei due fenomeni, dalle quali possiamo però estrarre le soluzioni per evitare disastri irreparabili. Ma sono molto fiducioso che non accadranno. Gianni Rusconi


SCENARI | Personal computer

BILANCIO 2012 IN ROSSO I PC CAMBIANO FACCIA Mai così in basso dal 2001: le vendite di computer tradizionali registrano un calo generalizzato, nonostante ultrabook e Windows 8. Colpa di smartphone e tablet, dicono gli analisti.

L

a stagione dello shopping natalizio non è bastata a evitare al settore dei personal computer un risultato negativo nell’ultimo trimestre del 2012, storicamente il più prolifico per le vendite. E il segno meno registrato a consuntivo non si vedeva da cinque anni. Lo ha detto Idc, secondo cui la domanda su scala mondiale da ottobre a dicembre è scesa in volumi del 6,4% rispetto allo stesso periodo del 2011. Poco meno di 90 i milioni di pezzi spediti sul mercato, cifra che ha condizionato anche il bilancio di tutto il 2012: 352 milioni le unità spedite, il 3,2% in meno di quelle contabilizzate un anno prima. E anche in questo caso si tratta di un risultato negativo il cui più prossimo precedente risale al 2001. Crisi economica e popolarità di tablet e smartphone hanno influito pesantemente nella scelte di acquisto di consumatori e aziende. In chiave consumer, osservano gli analisti, il primo tentativo dei vendor di rinfrescare l’immagine del tradizionale Pc per renderlo agli occhi dell’utenza un prodotto più appetibile delle tavolette non ha prodotto gli effetti sperati. Cambierà qualcosa nel 2013? I pareri, in proposito, sono discordanti. C’è chi ritiene che l’esperienza d’uso e le prestazioni di ultrabook (solo 10 milioni gli esemplari venduti su scala mondiale nel 2012) e modelli ibridi di nuova generazione invertiranno la tendenza e riporteranno la domanda a crescere. Altri ipotizzano un possibile ulteriore

declino delle vendite anche nel corso di quest’anno (soprattutto in campo notebook) perché una parte sostanziosa dei nuovi acquisti si indirizzerà ancora verso i tablet. Per questi ultimi le stime parlano di un venduto 2013 compreso fra i 170 e i 180 milioni di unità, rispetto ai 130 milioni dell’anno passato. I computer sostituiti dalle tavolette

Sulle posizioni di Idc si sono espressi anche gli analisti di Gartner, che riconoscono ai tablet le qualità di essere piccoli, performanti e poco costosi. E, per queste doti, capaci di cambiare lo scenario del computing mobile. Fino a poco tempo fa, questo l’assunto, ogni utente ipotizzava di disporre sia di una tavoletta sia di un classico Pc; la tendenza attuale è quella di possedere un device touch e svolgere alcune attività, lavorative o personali, su un computer condiviso. Ed è un trend, secondo Gartner, destinato a continuare fino

alla completa sostituzione dei Pc con i tablet, che verranno impiegati come dispositivi primari. E l’avvento di Windows 8? Le vendite iniziali di modelli con a bordo il nuovo sistema operativo di Microsoft sono state tutt’altro che esaltante (anche negli Usa) e pure il previsto massiccio lancio di prodotti basati su Otto difficilmente aumenterà il numero di computer venduti. La domanda che assilla quindi Microsoft e i vendor suoi partner è la seguente: ultrabook e portatili ibridi hanno i requisiti per soddisfare le mutate esigenze d’uso degli utenti? La speranza è che entrambi possano capitalizzare la crescita inarrestabile del fenomeno Byod, e quindi l’utilizzo massivo di device personali in azienda, mettendo sul piatto doti quali la flessibilità operativa ma soprattutto la compatibilità con le applicazioni Windows di tipo legacy e la nativa integrazione con i sistemi informativi esistenti. G.R.

Il mercato mondiale dei Pc (dati preliminari 2012 in unità) CONSEGNE 2012 HP

58.129

QUOTA DI MERCATO 2012

CONSEGNE 2011

16,5%

62.321

QUOTA DI MERCATO VARIAZIONE 2011

17,1%

-6,7%

LENOVO

52.448

14,9%

44.016

12,1%

19,2%

DELL

38.718

11,0%

44.278

12,2%

-12,6%

ACER GROUP

33.494

9,5%

37.073

10,2%

-9,7%

ASUS

24.134

6,8%

20.619

5,7%

17,0%

ALTRI

145.498

41,3%

155.580

42,8%

-6,5%

TUTTI

352.421

100,0%

363.887

100,0%

-3,2%

Fonte: IDC Worldwide Quarterly Pc Tracker, 10 Gennaio 2013

25


SCENARI | Personal computer

WINDOWS 8 NELLE PMI? MIGRAZIONE GRADUALE Mobilità e flessibilità del lavoro sono una priorità anche per le piccole e medie aziende. E il nuovo sistema operativo di Microsoft è stato progettato soprattutto per valorizzare l’uso dei device touch, dentro e fuori dall’ufficio. Serve però un approccio ragionato. Marco Bossi, Marketing Manager Switzerland, Italy & Spain Consumer & Small Business di Dell.

M

icrosoft l’ha portato sul mercato etichettandolo come una rivoluzione, una delle più grandi scommesse della sua storia. Windows 8 è senz’altro una delle più recenti e importanti novità in campo It degli ultimi mesi: se costituisca il sistema operativo ideale per le piccole imprese è ancora da capire. Certo è che, a detta di Marco Bossi, Marketing Manager Switzerland, Italy & Spain Consumer & Small Business di Dell, libertà di scelta del dispositivo e mobilità sono ormai diventate un’assoluta priorità per le Pmi. Realtà che, a suo dire, il nuovo software “made in Redmond” lo stanno esaminando con interesse proprio perché progettato per consentire modalità di lavoro più flessibili.

C’è una ricetta per decidere se il passaggio a Windows 8 rappresenta una scelta appropriata per una Pmi?

C’è, e si basa su quattro opzioni fonda26

| FEBBRAIO 2013

mentali. La prima è quella di testare un numero selezionato di nuovi dispositivi touch e verificare se tablet e computer convertibili siano in linea con la metodologia di lavoro. Quindi serve valutare la possibilità di migliorare Pc e notebook esistenti, rendendoli compatibili con Windows 8.

essere l’opzione giusta per la propria organizzazione, è utile contemplare la migrazione anche se non è necessario considerarla per tutti i dispositivi: un mix di computer, Windows 8 e non, potrebbe essere la scelta migliore.

Siamo a due. La terza opzione?

Quindi una Pmi dovrebbe investire subito su Windows 8 oppure no?

Riconsiderare l’aggiornamento del parco hardware della propria organizzazione, scelta che offre molti vantaggi ma implica il rischio di tempi che potrebbero essere quelli sbagliati. Una nuova versione del sistema operativo rappresenta un’ottima occasione per valutare la propria infrastruttura tecnologica e pianificare progetti più a lungo termine. E infine?

Migrare. Se la tecnologia touch sembra

Come per ogni decisione relativa ad acquisti in campo It, prima di migrare dovrebbe esaminare attentamente quali vantaggi aziendali l’upgrade potrebbe assicurare. La componente mobilità è uno di questi vantaggi?

Vi è una crescente consapevolezza da parte delle piccole imprese circa la maggiore produttività della forza lavo-


ro di cui queste potrebbero beneficiare consentendo ai dipendenti di scegliere il luogo da cui lavorare e il dispositivo preferito per farlo. Una ricerca condotta da Dell e Intel rivela in proposito come il 76% delle piccole imprese stia già implementando il lavoro flessibile, e come il 40% dei dipendenti abbia la possibilità di portare il proprio device in ufficio. Questo non significa però che le aziende vogliano utilizzare Windows 8...

Le piccole imprese riconoscono chiaramente che il tradizionale modello di lavoro “9-to-5” con un desktop fisso è ormai un retaggio del passato e, nell’ottica della flessibilità, Windows 8 rappresenta una proposta interessante perché offre un’unica interfaccia su più dispositivi e consente di passare senza problemi dal lavoro sui Pc tradizionali a tablet e ultrabook, e viceversa. Sfruttando il fatto che documenti, impostazioni chiave e applicazioni di base seguono ovunque i lavoratori, indipendentemente dallo strumento utilizzato per accedervi. Tre miglioramenti in chiave aziendale che i Pc Windows 8 possono vantare ri-

I costi di Otto e di Surface Rt Il 31 di gennaio sono scadute le promozioni, compresa quella relativa all’acquisto di un Pc Windows 7 che proponeva l’upgrade al nuovo software a soli 14,99 euro, definite da Microsoft per dare sostanza al lancio del nuovo sistema operativo. Cosa cambia per gli utenti? Parecchio, in termini di costi. Dall’1 febbraio, infatti, sono scattati i nuovi tariffari per l’aggiornamento e l’acquisto di Windows 8, online e nei negozi. Questo il dettaglio: la versione Pro in Dvd costa 289 euro (rispetto ai 59,99 di un mese fa), per quella standard ne occorrono 129. In vendita c’è anche una

spetto a quelli basati su Seven?

L’ultimo sistema operativo è progettato per supportare una nuova generazione di applicazioni che utilizzano meno memoria, e per questo le aziende possono aspettarsi un significativo miglioramento delle prestazioni. In secondo luogo la maggiore velocità di avvio, spegnimento e riavvio, e infine le nuove funzionalità di networking per verificare tutte le connessioni WiFi disponibili e il collegamento automatico a quella migliore. Sul fronte sicurezza non sono stati fatti passi in avanti?

Potrebbe essere prematura come affermazione, ma appare abbastanza chiaro che Windows 8 è in grado di offrire un avanzato livello di sicurezza. Sia nella protezione anti-malware integrata e sia contro gli attacchi pre-boot, fatto che lo rende molto più sicuro di Windows 7. Quali, invece, le criticità a cui le Pmi vanno incontro?

Un elemento che potrebbe indurre a pensarci due volte prima di effettuare il passaggio a Windows 8 è la possibile versione Windows Pro Pack 8 Medialess, al prezzo di 169 euro. Passare da Windows Xp, Vista o Windows 7 al nuovo sistema operativo (in edizione professionale) richiede quindi una spesa non indifferente, in linea con gli adeguamenti decisi a suo tempo per Seven. La compagnia di Redmond ha quindi tenuto fede alla solita politica di upgrade e solo il Pro Pack evidenzia un rialzo (sul listino in dollari) dell’11% superiore a quello che permise di passare da Windows 7 Home Premium all’edizione Professional. Come hanno inquadrato gli analisti i nuovi costi di Windows 8? Ricordando come Microsoft abbia spinto molto sulle promozioni lanciate in estate per dare soprattutto impulso alla ven-

interruzione di attività in fase di installazione, ma naturalmente questo dipende da come un’azienda sceglie di implementare il nuovo sistema operativo. È opportuno comunque che si predisponga una transizione graduale, soprattutto nel caso in cui non si disponga di un reparto It dedicato. Molte Pmi, intanto, lavorano ancora con Windows Xp...

Nell’aprile del 2014 Microsoft interromperà il supporto per il vecchio sistema operativo. Le aziende che utilizzano ancora questo ambiente si espongono a rischi legati alla sicurezza e al supporto del vecchio sistema e non beneficeranno della produttività che la nuova piattaforma assicura. Cosa fare, in definitiva, con Windows 8?

La migrazione al nuovo sistema non è una decisione che le piccole imprese devono prendere alla leggera. Ma per quelle che devono fare le cose in un modo diverso Windows 8 può rappresentare lo strumento di lavoro ideale. Piero Aprile dita di nuovi computer, più che per invogliare gli utenti ad aggiornare le vecchie versioni di Windows in loro possesso. In fatto di nuovi Pc, oltre a quelli immessi sul mercato da Hp, Lenovo, Acer, Dell, Samsung e Asus, c’è da registrare anche il debutto in Italia della versione RT di Surface, quella basata su processori Arm e apripista del tablet (Surface Pro, con chip Intel Core i5, già in commercio in Nord America) rivolto al mondo business. Dal 14 febbraio il Pc a tavoletta consumer è in vendita al pubblico, nelle versioni a 32 e 64 Gbyte, a partire da 499 euro senza tastiera Touch Cover o Type Cover. Per i modelli con Cover integrata il costo di ingresso a listino è di 599 euro.

27


ECCELLENZE.IT | Agenzia Spaziale Italiana

UNA RETE PER L'AGENZIA SPAZIALE Abbattimento dei costi di telefonia, supporto alle comunicazioni multimediali, migliore interazione fra i dipendenti che lavorano in mobilità: diversi i vantaggi ottenuti grazie ad Alcatel-Lucent dall’Agenzia che mette a punto sistemi satellitari e di esplorazione del cosmo.

A

nche chi tiene il naso all’insù, studiando lo spazio interstellare e mettendo a punto satelliti e mezzi per esplorare il cosmo, deve confrontarsi con problemi più terreni come quello della gestione di un sistema It troppo disaggregato e disperso su più sedi. È il caso dell’Asi, l’Agenzia Spaziale Italiana legata al Ministero dell’Università e della Ricerca, e del passo avanti compiuto insieme ad LA SOLUZIONE Tre le tecnologie Alcatl-Lucent impiegate: OmniPcx Enterprise Communication Server, scelta in quanto altamente scalabile e basata su una piattaforma di comunicazione software che abilita le chiamate multimediali; OmniVista Network Management System, che offre una visione unificata della rete e dunque permette una gestione centralizzata degli access point e degli switch; e infine OmniAccess Wireless Lan, cuore dell’infrastruttura, che migliora le comunicazioni dei dipendenti in mobilità e consente all’azienda di definire e monitorare l’accesso alla rete wireless. 28

| FEBBRAIO 2013

Alcatel-Lucent per trasformare i vecchi collegamenti di rete fra le tre sedi dell’ente, dislocate fra Roma e Matera. Implementata sulla base di un progetto di Italia Net Services, un business partner di Alcatel-Lucent, la nuova architettura ha permesso di abbattere i costi del traffico dati e telefonico, e di migliorare le comunicazioni in rete fra i dipendenti. Fino a poco tempo fa, le tre sedi dell’Agenzia erano prive di un collegamento di rete, nonché dotate di apparati di telefonia differenti fra loro. Il sistema è stato ora uniformato utilizzando una Wide Area Network, oltre agli switch e al VoIP di Alcatel-Lucent. Più nel dettaglio, nell’ufficio di Roma già operavano due centralini telefonici Opus 128, che sono stati aggiornati adottando i nuovi OmniSwitch 4400; a Matera, invece, si è scelto di sostituire l’intera centralina. Italia Net Services ha poi previsto per tutte le sedi un collegamento VoIP su rete Wlan e, per quella di Matera, anche un metodo che consentisse le comunicazioni in mobilità (nello specifico, un sistema VoIP WiFi, con 19 access point e 15 telefoni portatili WiFi). Nella città dei Sassi, infatti, il personale Asi lavora

anche nel Centro Nazionale di Geodesia, una struttura di oltre 5mila metri quadri dove un centinaio di ricercatori studiano la conformazione, le dimensioni e la rappresentazione grafica del globo terrestre. “La soluzione tecnologica adottata”, ha commentato Bruno Tribioli, head of planning investiments and finance dell’Asi, “ha permesso una migliore gestione dei costi interni, ma soprattutto una efficace sinergia tra le varie componenti dell’amministrazione, che per un’agenzia con diffuse collaborazioni internazionali come la nostra è il vettore principale per il raggiungimento dei risultati”. I motivi della scelta targata Alcatel-Lucent? La sua piattaforma ha saputo garantire affidabilità, è scalabile e consente di far convergere su’unica infrastruttura Ip dispositivi fissi e mobili. Ultimo dettaglio, è aperta a innovazioni future, come l’adozione di ulteriori strumenti di condivisione. I prossimi obiettivi pianificati dall’Asi sono l’implementazione di un fax server unificato e l’utilizzo di soluzioni di Unified Communication e comunicazione video. Anche in questo caso, firmate Alcatel-Lucent.


ECCELLENZE.IT | Poltrona Frau

GLI ARTIGIANI AI CONFINI DELLA BUSINESS INTELLIGENCE Grazie alla soluzione proposta da Microsoft, il Gruppo Poltrona Frau può capire meglio il comportamento dei clienti e realizzare attività di marketing più mirate sui punti vendita. Ed è già pronta per il cloud.

I

l Gruppo Poltrona Frau, che racchiude i brand Poltrona Frau, Cappellini, Cassina e Nemo, è nato nel 2005 con l’obiettivo di presentarsi sul mercato come un gruppo coeso di aziende il cui valore chiave risiede nell’artigianalità. Fino al 2009 le Aziende del Gruppo operavano in modo autonomo dal punto di vista dei sistemi, dei processi e organizzativo, e questo modello comportava ovviamente una serie di inefficienze. A partire dal 2009 ha avuto inizio un percorso di riorganizzazione radicale, e in tutto ciò la business intelligence, sviluppata su piattaforma Microsoft, ha permesso di superare le barriere di disomogeneità fra sistemi, dati e processi. Si è quindi riusciti a ottenere una visione univoca e condivisa delle informazioni a livello di Gruppo, migliorando i processi di analisi e di decisione. Tra le altre cose, ora gli utenti interni hanno la possibilità di mettere in relazione clienti diversi, canali diversi e mercati diversi (Europa, America, Asia ed economie emergenti). “Le soluzioni di business intelligence di Microsoft rappresentano un elemento strategico a supporto della crescita dei brand del Gruppo”, dice Roberto Boselli, Cio e digital communication manager di Poltrona Frau, “in un mercato in costante fermento come quello dell’arredamento e del design, dove per garantire un prodotto di alta qualità con tempi di lavorazione che hanno una

LA SOLUZIONE Il Gruppo Poltrona Frau ha puntato sulla business intelligence di Microsoft, implementando Sql Server. Questa soluzione offre affidabilità a livello mission critical con un costo totale di possesso (Tco) ridotto, ed è già pronta per le architetture cloud. Grazie alla Bi di Microsoft, Potrona Frau è stata in grado di realizzare un collegamento diretto fra strategia produttiva e posizionamento dei prodotti, sfruttando anche le informazioni provenienti dai social network, dai siti Web e dalle applicazioni mobili.

forte componente artigianale è necessario essere particolarmente efficienti nel controllo degli aspetti logistici e commerciali, e mettere in relazione prodotti diversi con mercati diversi per guidare le decisioni di business senza essere influenzati dalle flessioni dell’economia. La business intelligence ha costituito una leva d’efficienza per i nostri marchi storici e un motore d’innovazione per l’intero Gruppo”. “Il punto di forza della nostra soluzione di Bi”, ha aggiunto Luca Venturelli, direttore della divisione Server & Cloud di Microsoft Italia, “è che appartiene a una piattaforma integrata out-of-thebox, che comprende soluzioni per i big data, anche in cloud, algoritmi semantici e strumenti per esplorare i dati e animarli”. Potrona Frau ha voluto ampliare i confini della Bi, sfruttando tutti gli strumenti sviluppati sui canali digital e social per ottenere un quadro completo dei propri clienti: dalle preferenze sui prodotti alla personalizzazione dei cataloghi online, dalla vendita in-store all’utilizzo delle funzionalità di realtà aumentata e di quelle per la progettazione virtuale disponibile sulle app. Consolidando tutte queste informazioni in modo trasversale sulla piattaforma di business intelligence è ora possibile fornire informazioni più dettagliate sul comportamento di acquisto (suddiviso per brand, prodotto, canale e mercato) e sul ciclo decisionale, riuscendo così ad approcciare i clienti con attività più mirate nei punti vendita. FEBBRAIO 2013 | 29


ECCELLENZE.IT | Scuola Normale Superiore di Pisa

A PISA LA DINAMICA DELLE MOLECOLE NON È PIÙ UN MISTERO La Scuola Normale Superiore ha ridotto a un terzo i tempi di calcolo scientifico sostituendo i server con le Workstation Hp Z800. Ottenendo anche più flessibilità e personalizzazione per i ricercatori.

N

ata nel 1810 grazie a un decreto napoleonico, la Scuola Normale Superiore di Pisa non ha mai cambiato missione: da più di 200 anni offre a giovani meritevoli la possibilità di formarsi in un ambiente ai vertici della ricerca mondiale. Molti studiosi sono impegnati su questo fronte, soprattutto nei settori delle scienze dei materiali e delle nanotecnologie. Proprio in questo ambito opera uno dei più apprezzati Computational Chemist, Costantino Zazza, che vanta anche la qualifica di Performance Computing Expert. “Utilizziamo i computer per studiare sistemi molecolari complessi”, racconta Zazza. “Si tratta di calcoli molto complicati, perché coinvolgono un gran numero di atomi, spesso superiore al mezzo milione. Oltre al calcolo, che è il compito più impegnativo, la piattaforma computazionale deve anche eseguire il rendering grafico del sistema”. Alla ricerca di una sempre maggiore potenza, dopo aver utilizzato per anni le risorse di calcolo messe a disposizione da due server, Zazza decide di cambiare radicalmente e provare a sfruttare una workstation stand alone. “Ho avuto in prova per tre mesi una Hp 30

| FEBBRAIO 2013

Z800”, racconta Zazza, “e ho toccato con mano i vantaggi di questa macchina. Prima di tutto, ho potuto constatare la comodità di avere la piattaforma di calcolo sotto la scrivania e non in condivisione, come succedeva prima con i server, ma la vera differenza è stata la più elevata potenza a disposizione per le simulazioni numeriche”. Invece di aspettare oltre un mese per i risultati delle elaborazioni numeriche, i ricercatori ottengono le informazioni in una sola settimana, con una riduzione dei tempi di attesa compresa fra tre e cinque volte rispetto al sistema precedente. “Ho potuto configurare la macchina a mio uso e consumo”, aggiunge Zazza, “considerando infine che non solo Linux, ma anche tutto il resto dei software e dei tool è open source, librerie matematiche, compilatori e ambienti di sviluppo non sono costati alla Scuola Normale Superiore nemmeno un euro”. Con Hp Z800, la Scuola può studiare il comportamento dei sistemi molecolari in un ambiente liquido (non soltanto nel vuoto) ma anche visualizzarli in 3D rimanendo solidale con i sistemi stessi, quindi potendo osservare dall’interno la dinamica delle reazioni chimiche.

L’introduzione della nuova piattaforma ha aperto la strada anche a utilizzi più canonici da parte dei ricercatori, come quelli relativi al rendering tridimensionale. “La Scuola Normale Superiore ha adottato altre cinque workstation, questa volta in ambiente Microsoft Windows”, racconta Zazza, “per realizzare quello che dovrebbe essere il primo museo virtuale italiano, il Cave 3D. Concepito e creato dal Professor Vincenzo Barone, presidente della Società Chimica Italiana, il museo riproduce le opere d’arte ad altissima risoluzione, consentendo attività sia di tipo didattico, sia scientifico”. LA SOLUZIONE La Workstation Hp Z800, equipaggiata con una scheda grafica di ultima generazione, permette di operare in modalità multi-Gpu, sfruttando due unità Gpu per il calcolo e una per la grafica. L’esemplare utilizzato dalla Scuola Normale Superiore di Pisa utilizza l’ambiente Scientific Linux 6.1 e la soluzione Cuda, il tool per il calcolo parallelo realizzato da Nvidia.


ECCELLENZE.IT | Pirelli

PIRELLI E LA CACCIA AL TESORO: LA MAPPA DEL MERCATO PREMIUM Cavalcando l'onda delle nuove tecnologie di geomarketing la multinazionale ha fotografato la domanda di pneumatici, eseguendo sofisticate microanalisi e rendendo più efficaci le attività commerciali.

C

he il mondo dell’automotive sia in crisi non è sicuramente una novità. Così come è noto che in situazioni di difficoltà del mercato, gli attori che hanno una strategia chiara e che continuano a investire in tecnologia e innovare i processi spesso escono vincenti. Pirelli è uno di questi, premiato, tra le altre cose, dal chiaro orientamento strategico verso il segmento premium. L’azienda milanese ha deciso ormai da anni di perseguire in Italia un percorso evolutivo di attività e tecnologie che consenta, anche in un contesto di mercato sfavorevole, di individuare il “tesoro nascosto”, rappresentato da tutte le possibili opportunità di domanda di pneumatici di fascia premium. “Il primo passo” racconta Giovanni Ricci, direttore marketing di Pirelli Italia “è stato quello di mappare domanda e offerta di pneumatici, inserendole nel proprio contesto geografico di riferimento e rappresentandole territorialmente”. Con il supporto della società di consulenza Value Lab e basandosi sulla tecnologia Esri, Pirelli ha infatti sviluppato un progetto di geomarketing volto a far emergere il potenziale di mercato per zona geografica, nonché della pressione competitiva presente in tali aree. Il secondo step è stato quello di coniugare la presenza di domanda e di concorrenti con l’attuale copertura del territorio relativa alla rete di operatori specialisti appartenenti al network Pirelli Retail, evidenziando le aree gegrafiche prioritarie per le attività di sviluppo del network. “Le indicazioni più significative sono emerse analizzando congiuntamente

l’attuale presidio del territorio da parte di Pirelli e il potenziale inespresso presente in tali zone” spiega Carlo Bianco, Partner di Value Lab. Focalizzandosi, infatti, sulle aree ad alto potenziale ma scarsamente coperte, Pirelli è riuscita a effettuare un piano di espansione commerciale, concentrando i propri sforzi e le proprie risorse nelle zone più strategiche. “Le funzionalità di microanalisi del territorio messe a disposizione dalle tecnologie sviluppate da Esri e Value Lab” prosegue Marco Miani, responsabile geomarketing di Pirelli Italia “hanno reso inoltre possibile la condivisione con i nostri operatori dei potenziali di vendita sui loro bacini di riferimento. Questo approccio li ha aiutati a indirizzare meglio il proprio assortimento e alcune attività di marketing locali, supportandoli così nell’individuazione dei territori con maggior potenziale di business”. Dal punto di vista tecnologico, il pro-

getto è stato reso possibile attraverso una piattaforma di Geointelligence customizzata e personalizzabile, fornita da Value Lab. “Le esigenze di una grande azienda come Pirelli hanno richiesto una piattaforma flessibile, scalabile e completamente personalizzabile, in grado di rispondere sia ad esigenze analitiche, sia a esigenze di reportistica e diffusione delle informazioni” spiega Alessandro Olivari, manager di Value Lab. La scelta è infatti ricaduta su una soluzione composita desktop e Web, capace di conciliare potenti capacità di calcolo da una parte e semplicità d’uso dall’altra. “Dopo la fase iniziale del progetto, nella quale ci si è concentrati soprattutto sullo sviluppo del network”, conclude Ricci, “si stanno ora declinando le innumerevoli applicazioni dello strumento in area marketing. Anche sul mondo del consumatore finale, che è sempre più il centro della nostra strategia”. FEBBRAIO 2013 | 31


ECCELLENZE.IT | Regione Sardegna

UN'ISOLA AD ALTO CONTENUTO IT Digitalizzazione della scuola, copertura a banda larga su tutta l’isola e transizione degli uffici della Pubblica Amministrazione, centrali e periferici, in un private cloud basato su un data center dinamico e su tecnologie Vmware. Questo il triplice progetto della Regione, che mira a diventare un punto di riferimento nazionale.

P

arole d’ordine: efficienza, modernità e apertura. Queste le promesse fatte dalla Regione Sardegna ai suoi cittadini, attraverso una triade di progetti in corso che riguardano la digitalizzazione della scuola, la realizzazione su tutta l’isola di una rete a banda larga basata su fibra ottica, e il trasferimento nel cloud di tutti i servizi della Pubblica Amministrazione. Promesse impegnative e ancora in fieri, ma in parte già realtà. Nel corso del 2012, infatti, è partito il progetto pilota “S-Cloud”, un programma di transizione dell’infrastruttura Ict regionale verso una nuvola “federale”, che andrà ad ampliarsi nel tempo abbracciando le amministrazioni centrali e quelle periferiche. Liberandole da diverse preoccupazioni in termini di dimensionamento sistemistico e di provisioning. Il tutto è reso possibile da Vmware e da un modello di private cloud che permette di erogare on demand ai diversi dipartimenti e servizi regionali le risorse elaborative di cui hanno bisogno, opportunamente dimensionate in base alle necessità di ciascuno. 32

| FEBBRAIO 2013

LA SOLUZIONE Il nuovo data center regionale in architettura private cloud fungerà da centro erogatore di servizi on demand per tutte le Pa locali. Due le tecnologie al suo centro: Vmware vSphere e vCloud Director. La prima è una nota piattaforma di virtualizzazione per la creazione di infrastrutture cloud, che permette di eseguire in sicurezza applicazioni business critical, nonché di utilizzare le offerte di cloud pubblico compatibili, in un’ottica di sistema ibrido. Vmware vCloud Director, invece, raggruppa le risorse dell’infrastruttura virtuale nel data center e le rende disponibili come servizi su richiesta. L’obiettivo finale è ben più ambizioso: transiteranno verso il cloud (sfruttando una serie di servizi comuni) non solo l’amministrazione regionale, ma tutte le Pa locali sarde e, in prospettiva, anche di altre Regioni italiane. Insomma, l’isola che tutti amano per ragioni che poco hanno a che fare con la tecnologia, bensì con le bellezze della natura, si candida a diventare un punto di riferimento nazionale in quel percorso di modernizzazione dei soggetti pubblici oggi fortemente invocato dall’Agenda Digitale. Il primo passo in questo cammino è la realizzazione di un data center dinamico in architettura private cloud, basata su tecnologie Vmware in ambiente vSphere, realizzazione oggi in corso secondo un progetto di It Euromedia. Con il completamento dell’infrastruttura, la Regione potrà fungere da erogatore di servizi di nuvola (applicativi e di piattaforma) on demand verso altri enti della Pubblica Amministrazione locale; il sistema consentirà di configurare per ogni ufficio un data center virtuale, personalizzandone alcune caratteristiche

quali sistema operativo e database. E i vantaggi sono notevoli: un’unica infrastruttura cloud fortemente scalabile permetterà di spegnere interi sistemi che oggi assorbono grandi quantità di energia per la sicurezza, l’alimentazione elettrica e il raffreddamento. Sarà poi necessaria una sola persona per gestire la console di amministrazione di vCloud Director, da cui vengono assegnate le risorse cloud virtuali ai committenti. La migrazione dei sistemi preesistenti sulla nuova infrastruttura sarà un’operazione relativamente semplice: nell’80% dei casi si tratta infatti di architetture che prevedono un server, un database e una relazione con il client; in questi casi il porting è quasi automatico. Tra i prossimi step dell’impegno regionale verso la modernizzazione It ci sarà, come si diceva, anche il progetto “Scuola Digitale”, che mira a connettere in rete gli istituti scolastici e dotarli di lavagne interattive multimediali, che si collegheranno a una piattaforma di servizi cloud per la didattica. Per 243 comuni sardi è inoltre previsto il cablaggio in fibra ottica.


ECCELLENZE.IT | Vibram

IL LEADER DELLE SUOLE SI REGALA UN NUOVO SISTEMA INFORMATIVO Vibram punta su Ibm per costruire la nuova architettura a supporto dell'Erp e della crescita internazionale.

V

ibram è leader mondiale nella produzione e nella commercializzazione di suole in gomma ad alte prestazioni. Da oltre 70 anni l’inconfondibile ottagono giallo, che identifica il marchio conosciuto in tutto il mondo (l’azienda vanta una presenza diretta in tre continenti), è simbolo di qualità, innovazione e design. Penalizzata da un sistema Erp obsoleto, che mal si adattava alla crescita internazionale, Vibram ha realizzato un’approfondita analisi volta a individuare i punti deboli del sistema informativo in previsione del passaggio a Sap. “Dall’analisi è emersa”, racconta Adriano Zuccala, direttore generale di Vibram, “l’esigenza di rinnovare anche buona parte dell’architettura hardware, introducendo una soluzione di private cloud e iniziando un processo di virtualizzazione delle risorse”. I server e il sistema di backup erano infatti ormai obsoleti e sottodimensionati per i carichi di lavoro, e i costi di manutenzione erano elevati e incapaci di assicurare i livelli di efficienza necessari. I

guasti che si verificavano sempre più frequentemente rappresentavano una vera minaccia per la continuità operativa del sistema e di conseguenza per l’efficienza del business; fermi e manutenzione significavano, in ultima analisi, anche costi. L’obiettivo era consolidare la precedente piattaforma infrastrutturale, eterogenea e sparsa su diversi nodi fisici, utilizzando una soluzione innovativa in grado di virtualizzare e concentrare su tre nodi fisici gli ambienti applicativi in uso. La nuova infrastruttura doveva poter ridurre LA SOLUZIONE La nuova infrastruttura si basa su blade Ibm di tipo Center H con 14 lame di cui solo tre attualmente sono utilizzate. Le piattaforme storage impiegate sono Ibm System Storage DS3950 con 3 Tb di dati in Raid 5 e una libreria Ts3100 Tape. Il software di base utilizzato per la gestione della virtualizzazione e il back-up dei dati prevede Licenze Wmware vSphere 4.1 advanced e Ibm Tivoli Storage Manager.

drasticamente i tempi di monitoraggio e manutenzione ordinaria e consentire un accesso ai dati in alta affidabilità. Dopo un’attenta valutazione di diverse proposte di più vendor, Vibram ha scelto la soluzione Ibm. “Il sistema ora è più affidabile anche grazie alla ridondanza che abbiamo introdotto”, spiega Zuccala, “e le nuove funzioni predittive ci aiutano a prevenire eventuali malfunzionamenti o sovraccarichi”. Oltre alla tecnologia Predictive Failure Analysis, la nuova infrastruttura ha anche una migliore efficienza energetica e una più efficace gestione del raffreddamento grazie alla tecnologia Calibrated Vectored Cooling dei server blade Ibm. “Vantaggi tangibili si registrano anche sul fronte della business intelligence”, dice Zuccala, “ora siamo molto più veloci nelle attività di previsione”. Per quanto riguarda il caricamento dei dati, Vibram è in grado di quantificare il salto di qualità: i tempi di caricamento giornalieri sono passati da nove ore a 35 minuti, i tempi di caricamento durante il weekend sono passati da 40 ore a cinque ore. FEBBRAIO 2013 | 33


ITALIA DIGITALE

Dopo la conversione in legge di metà dicembre, il “documento” che ispira l’informatizzazione del Belpaese è ancora oggetto di critiche. Restano irrisolte le incognite sui fondi realmente a disposizione per avviare i progetti e si apre il dibattito sul ruolo che riserverà all’innovazione digitale l’esecutivo che nascerà dopo le elezioni.

L’AGENDA ALLA PROVA DEL NUOVO GOVERNO

N

el momento in cui scriviamo, e cioè a un mese dalla due giorni di voto (24 e 25 febbraio) per eleggere il nuovo Parlamento, la questione legata al documento che dovrebbe pilotare l’innovazione (in fatto di servizi e infrastrutture) nel Belpaese è rimasta parecchio in disparte in campagna elettorale. Per non dire del tutto ignorata. Altre le priorità nell’agenda dei candidati, evidentemente. In attesa di vedere chi e come prenderà parola sull’argomento, rimane aperta anche una questione parallela e 34

| FEBBRAIO 2013

strettamente legata alla messa in opera dell’Agenda, e cioè il programma di lavoro dell’Agenzia Digitale, l’organismo che si dovrà occupare concretamente di tradurre in opere i provvedimenti decisi sulla carta. A metà gennaio il Ministero dell’Istruzione ha ratificato la nomina di Agostino Ragosa a direttore dell’Agenzia. Una volta varato lo statuto che ne stabilisce le funzioni e l’ambito di attività (da tempo sui tavoli del Miur e del Ministero dello Sviluppo Economico, che aspetta apposito decreto della Presidenza del Consiglio), la neonata struttu-

ra dovrà fare i conti con la latitanza dei procedimenti attuativi finora registrata dopo l’approvazione del Ddl “Crescita 2.0”. E, se vorrà affermarsi come autorevole organismo di gestione della questione digitale, dovrà oliare e consolidare un canale di interlocuzione privilegiato con governo ed enti locali, Regioni in primis. Il problema delle risorse

L’Agenda (digitale) aspetta dunque la nuova agenda (di governo). Parlare di fase di transizione, in cui il rispetto dei tempi normativi previsti torna a essere


un “incubo” per i sostenitori della prima, non è quindi fuori luogo. Perché rimangono tutt’ora aperte ancora molte questioni, sebbene dal 13 dicembre 2012 (giorno in cui Camera rendeva legge dello Stato con 261 sì, 55 no e 131 astenuti) il decreto “Sviluppo Bis” la corsa alla digitalizzazione sia formalmente già scattata. Il problema principale è quello relativo ai fondi per finanziare gli interventi previsti. Qualcuno ha parlato di percorso a tappe di cui però non è certa la fine: alcune misure sono previste per il 2013, altre (la maggior parte) sono pianificate dal 2014 in avanti. Corrado Passera, disquisendo in aula a Montecitorio post approvazione del decreto “Crescita 2.0”, ricordava come le risorse finanziarie a disposizione dell’Agenda fossero “quelle che è stato possibile mobilitare in un contesto difficile, in cui il Governo non può prescindere dalla volontà di tenere in equilibrio i conti pubblici”. Tradotto dal politichese: le risorse sono limitate. Dalla comunità tecnologica, e più precisamente dal sempre molto critico Stefano Parisi, presidente di Confindustria Digitale, è arrivato tempo fa puntuale il monito per le forze politiche che guideranno il Paese da marzo in poi: mantenere gli impegni sul fronte dell’innovazione assunti dall’esecutivo Monti. Fascicolo sanitario elettronico e documento digitale unificato, che riunisce carta d’identità e tessera sanitaria, sono fra i primi traguardi da tagliare. Gli altri,

PA DIGITALE: RISPARMI PER 4,6 MILIARDI DI EURO Il IV rapporto I-Com (Istituto per la Competitività) presentato a dicembre parla chiaro: la rivoluzione digitale potrebbe evitare agli italiani, ipotizzando che tutti gli utenti siano dotati di accesso alla Rete, una spesa di 4,6 miliardi di euro l’anno

in ordine sparso, riguardano l’eliminazione del digital divide entro il 2013, la digitalizzazione dei rapporti di cittadini e imprese con la Pa e delle comunicazioni tra uffici pubblici, il progetto open data (le amministrazioni dovranno rendere accessibili i propri dati in modo da consentirne l’utilizzo a chiunque, anche a scopi commerciali) e le smart city. Nel complesso parliamo di “opere” per alcuni miliardi di euro: tra i fondi già stanziati, i bandi del Miur e i finanziamenti in arrivo dall’Ue, la dote attualmente in cassa non è sufficiente per fare tutto. Almeno fino a prova contraria. Cosa aspettarsi dal nuovo esecutivo?

L’Agenda rischia davvero di rimanere impastoiata nella congenita lentezza della macchina statale, così come ipotizza Guelfo Tagliavini di Federmanager Italia, o le nubi che oggi la interessano si diraderanno appena i procedimenti attuativi si metteranno in moto? Il dubbio rimane e i consigli sul da farsi si sprecano. Quello, ovviamente di parte, di Roberto Liscia, Presidente di NetComm, auspica il varo di una “Agenda eCommerce” a sostegno di un settore oggi condizionato (a suo dire) da troppi ostacoli fiscali ‒ vedi l’Iva al 21% sull’acquisto di libri elettronici ‒ e normativi, ma animato da milioni di consumatori e diverse migliaia di imprese aventi in organico moltissimi neolaureati. Gli interventi a sostegno dell’e-commerce e per spingere l’utilizzo dei canali di vendita

grazie a servizi più efficienti e alla possibilità di evitare code, perdite di tempo e costosi spostamenti. Lo studio ha messo in evidenza, in dettaglio, come utilizzando la Pec (Posta elettronica certificata) i cittadini risparmierebbero poco meno di 830 milioni di euro l’anno per comunicare con gli enti locali e centrali. Altri tagli, inoltre, deriverebbero dall’impiego della telemedicina,

digitali, lo ricordiamo, sono stati stralciati dal testo definitivo. L’input firmato dai rappresentanti delle Associazioni del settore Ict (Assintel e Assinform) è invece quello di costruire un sistema di governance dell’innovazione che dia conto degli interventi dell’Agenzia Digitale e che si muova nell’ottica di detassare le Pmi e le micro-imprese che investono in tecnologie digitali. Attuare i provvedimenti approvati nel decreto Sviluppo bis è il primo passo, ma non bisogna più perdere tempo. Alfonso Fuggetta del Cefriel-Politecnico di Milano ha lanciato in proposito il classico sasso nello stagno: in tema di agenda digitale, queste le sue parole, “gli ultimi dodici mesi possono essere riassunti con l’espressione un anno (quasi) perso pericolosamente”. Accusa fondata? Secondo Fuggetta sì, perché “pochi timidi provvedimenti e alcune buone intenzioni” non bastano e troppo poco si è fatto per far cambiare marcia al Paese in tema di innovazione digitale. L’obiettivo è imprescindibile e richiede la presenza di diversi elementi fra loro complementari: una cabina di regia per dare il la ai cambiamenti (dovrebbe essere l’Agenzia Digitale), interventi mirati sotto il profilo infrastrutturale (banda larga e WiFi pubblico) e organizzativo (maggiore integrazione dei sistemi informativi pubblici), misure ad hoc per favorire la crescita delle competenze e delle professionalità tecnologiche nel mondo del lavoro. Per ora siamo fermi alle buone intenzioni. Gianni Rusconi

che porterebbe nelle migliore delle ipotesi a ridurre i costi per gli spostamenti presso le Asl e i tempi di attesa correlati di circa 2,5 miliardi di euro, ipotizzando che il 50% dei malati cronici ricorra ai servizi di ehealth. Dall’e-learning, infine, potrebbero arrivare risparmi per circa 330 milioni di euro con l’utilizzo esclusivo di libri di testo in formato elettronico. 35


ITALIA DIGITALE

LE SMART CITY SONO AL PALO? MANCA LA PROGETTUALITÀ La carenza di risorse finanziarie pubbliche è solo una faccia del problema. Servono modelli di “project management” e visione a medio termine. E una regia tecnica e amministrativa. Ne è convinto Francesco Archetti dell’Università degli Studi di Milano-Bicocca.

L

e città intelligenti come risorsa per i cittadini e la società tutta, imprese incluse. Risorsa concreta e non solo sulla carta, sotto forma di progetti che superano barriere di natura economica, infrastrutturale e burocratica. Di smart city si parla da parecchio, ma spesso l’oggetto del discutere si ferma alle intenzioni e non a modelli e iniziative che hanno già trovato applicazione sul territorio. Non è però, e per fortuna, sempre così. E i progetti che hanno visto scendere in campo l’Università degli Studi di Milano-Bicocca al fianco di aziende di primo piano dell’universo tecnologico, come Ibm e Siemens, lo dimostrano. Ne abbiamo parlato con Francesco Archetti, Professore Ordinario di Ricerca Operativa presso il Dipartimento di Informatica, Sistemistica e Comunicazione e Prorettore alla Ricerca dell’ateneo milanese. 36

| FEBBRAIO 2013

Uno degli ostacoli più evidenti per lo sviluppo delle smart city in Italia è quello delle risorse economiche per finanziarle. Che al momento non ci sono o ci sono solo sulla carta (bandi del Miur e fondi Ue). Concorda con questa fotografia del fenomeno?

Le risorse pubbliche disponibili non sono certo sufficienti, anzi stanno diminuendo. I bandi Miur e Ue sono riservati a progetti di ricerca e realizzazioni pilota; sarebbe improprio pensare che possano costituire una quota significativa delle risorse necessarie. L’ostacolo più rilevante è l’incapacità della politica di ragionare, almeno per le grandi infrastrutture, in tempi medi dai tre ai cinque anni, e di esprimere una regia autorevole e unitaria che porti anche l’azione amministrativa a modalità di project management e financing coerenti con un progetto così ambizioso.

Potrei dire che ci manca un progetto “Apollo”, costruito su una vision e non solo su risorse. Quali sono, invece, le criticità di tipo tecnico e gestionale su cui sarebbe necessario intervenire? Anche nel merito dell’Agenda Digitale?

Vanno definiti investimenti in infrastrutture attivabili in un arco almeno triennale. È critico per le aziende avere un quadro in cui decidere i propri budget operativi ed è per questo necessaria una regia autorevole anche sotto il profilo tecnico, che definisca le piattaforme da utilizzare e garantisca il reale riuso del software. Il modello gestionale deve però non essere tecnocratico ma favorire processi decisionali anche di tipo “bottom up”, attenti alle esigenze dei cittadini, sopratutto delle fasce deboli. È fondamentale


garantire un ambiente di “open data” per consentire lo sviluppo di nuovi servizi a valore aggiunto. Le smart city sono un’occasione unica anche per la social innovation: nuovi modelli di business sono fondamentali per creare nuova occupazione. I vendor di tecnologia sostengono che alla fase di sperimentazione dei progetti debba seguire quella di esecuzione sistemica degli stessi: c’è una ricetta ideale per farlo?

La ricetta deve partire dalla constatazione che le tradizionali modalità di intervento pubblicio fanno riferimento ad articolazioni amministrative non sempre adeguate per le smart city, che richiedono dimensioni maggiori e la necessità di considerare grandi reti, mobilità, energia e salute in contesti di città-regione. Ha senso quindi parlare di “best practice” da poter replicare su scala nazionale, attraverso la condivisione delle esperienze fra i diversi enti locali?

Credo di avere già risposto, serve una regia forte sia tecnica sia amministrativa. La condivisione tra enti locali è importante, ma è decisivo rispecchiare

DALL’ACQUA ALLA SANITÀ, ECCO L’ITALIA CHE INNOVA Fra i progetti che vedono capofila l’Università degli Studi di Milano-Bicocca e dedicati ai servizi alla cittadinanza spicca H2Oleak, iniziativa finanziata con circa 950mila euro che ha dato vita (fra luglio 2010 e aprile 2012) a un sistema integrato per la gestione delle reti di distribuzione idrica urbana. Le componenti tecnologiche? Avanzati strumenti di business intelligence e di analisi dati, tool di reportistica onli-

nell’azione amministrativa le diverse scale territoriali di intervento proprie delle smart city. Gli italiani, lo ha confermato uno studio recente di Ipso, conoscono pochissimo l’argomento smart city. È, secondo lei, solo un problema di disinformazione o che cos’altro?

Non è solo disinformazione, è necessario tornare a ragionare in termini più ampi: non è ammissibile che lo spread sia il dato più importante nel dibattito politico ed economico, bisogna capire che la creazione di ricchezza è da tempo effettuata, in Italia e nel mondo, prevalentemente nei centri urbani e che disporre di città efficienti è irrinunciabile per la competitività del Paese e per il miglioramento dei livelli di occupazione e reddito.

colare del Miur) ed europee, con una presenza importante di partner industriali sia italiani sia stranieri. L’ateneo garantisce, grazie a indici di bilancio molto buoni e in base a una strategia a lungo termine, la quota di cofinanziamento richiesta. Che cosa hanno in comune fra di loro e quali sono le prospettive?

I progetti nascono su iniziativa di gruppi di ricerca dei vari dipartimenti dell’ateneo, secondo una strategia che favorisce l’integrazione di più competenze. Le fonti di finanziamento sono regionali, nazionali (in questo caso, in parti-

I settori principali sono energia, mobilità, acqua, giustizia e salute. Unimib contribuisce all'impostazione generale del progetto e conferisce sia competenze specialistiche che consentono la realizzazioni di componenti specifici, sia competenze economiche, organizzative e giuridiche. Le attività di testing, integrazione e sperimentazione sono invece tipicamente guidate dalle aziende. Le prospettive si articolano su tre dimensioni: il consolidamento della posizione di Unimib nei progetti di ricerca, in particolare attraverso il coordinamento di progetti europei; il rafforzamento del patrimonio tecnologico di brevetti; e infine la creazione di spin off con modelli di business abilitati sia da competenze specifiche sia dalla disponibilità di open data. Gianni Rusconi

ne, soluzioni di georeferenziazione Gis (Geographical Information System) e software di simulazione idraulica. L’innovazione apportata? La capacità di offrire un supporto decisionale per identificare una ripartizione ottimale della rete in distretti e migliorare i processi di rilevamento delle perdite o di eventuali prelievi fraudolenti. H-Cim, invece, è un progetto da oltre 1,7 milioni di euro tutt’ora in corso (partito a marzo 2009, scadrà a fine dicembre prossimo) e finalizzato allo sviluppo di una piattaforma per il monitoraggio non intrusivo di aspetti comportamentali e condizioni fisiche di pazienti cro-

nici in ambiente domiciliare. Acronimo di Healthcare Intelligent Monitoring, il sistema fa leva su una rete di sensori wireless e indossabili che tiene sotto controllo l’intero ambiente domestico raccogliendo e convogliando, da remoto e in tempo reale, informazioni sull’individuo. I benefici legati al progetto? Migliorare, o quanto meno mantenere, la condizione di salute del paziente domiciliato e al contempo ridurre i costi dell’apparato sanitario contenendo i tempi di degenza ospedaliera e le nuove ospedalizzazioni dovute a eventuali peggioramenti.

Parliamo, infine, dei progetti che vedono protagonista l'Università Milano Bicocca: come sono nati e chi li finanzia?

37


ITALIA DIGITALE

LO STALLO DEL LAVORO NELL’ ICT Assunzioni e stipendi fermi, calo dei posti fissi: il mercato delle professioni, in un settore che conta 132mila imprese, è in sofferenza. Nella fotografia di Assintel si intrecciano problemi di fondo e speranze di cambiamento legate a social network, cloud e mondo mobile.

G

randi speranze e innegabili difficoltà si intrecciano nel mercato del lavoro nell’Information & Communications Technology italiano, settore in cui operano circa 132mila imprese. La fotografia che ha scattato Assintel nell’Osservatorio 2012 è tutt’altro che incoraggiante: retribuzioni e assunzioni in stallo, crescente precarietà contrattuale, mancanza di investimenti sono tra i problemi di fondo, accentua-

Giorgio Rapari

ti dalla crisi economica e occupazionale che affligge l’Europa, e naturalmente anche l’Italia. Le speranze di un’inversione di tendenza nel 2013 si scontrano con una realtà che parla di 612mila addetti attivi in tutto il primo semestre dell’anno passato, un numero identico rispetto al 2011, e di un deflusso consistente dalle posizioni di lavoro dipendente a quelle atipiche, che oggi rappresentano un quarto del totale (il 25,1% per la preci-

sione) e si concentrano soprattutto nelle aree servizi It, software e nel canale. L’aspetto più critico del problema riguarda le retribuzioni, che crescono meno dell’inflazione: nei primi sei mesi dell’anno passato, in media, un impiegato del settore Ict ha perso il 2,8% del suo potere d’acquisto rispetto all’anno precedente, a fronte di uno stipendio cresciuto nel 2011 solo dello 0,7%. Meglio è andata ai dirigenti, che hanno visto un incremento in busta paga

TALENTI IMBRIGLIATI, MANCA LA CULTURA DELL’INNOVAZIONE

Non parlerei di responsabilità: il contesto economico negativo determina la necessità di tattiche di sopravvivenza e così, spesso, l’azienda perde di vista la strategia di lungo periodo. Ad agevolare questa miopia è l’assenza di politiche di valorizzazione dell’innovazione legata al know-how, che imbriglia i nostri talenti in un sistema di costi fissi troppo elevati e in una struttura contrattuale poco flessibile.

Botta e risposta con Giorgio Rapari, Presidente di Assintel, sulla stato dell’arte delle professioni dell’Information Technology.

Ha parlato recentemente di progressivo depauperamento del bene più prezioso per le aziende Ict, i talenti e la capacità innovativa: è solo un problema politico-normativo o anche le imprese hanno responsabilità? 38

| FEBBRAIO 2013

C’è necessità, a suo avviso, anche di un rinnovamento della classe dirigente nel settore hi-tech italiano?


nel primo semestre del 2,7%, mentre i compensi di quadri (+0,2%) e impiegati (-0,6%) sono rimasti sostanzialmente al palo in relazione a un’inflazione cresciuta del 2,2%. In generale, il trend delle tariffe professionali è negativo ormai da circa un decennio e la nota positiva arriva dal lieve rallentamento della flessione: “solo” l’1,5% nel primo semestre 2012, contro il 2,6% del 2011. Afflitte dal downpricing delle tariffe sono tanto le figure consulenziali quanto quelle più In parte sì. C’è già una nuova ondata di imprenditori e professionisti nativi digitali che è allineata con la cosiddetta “nuova It” e ha obiettivi compatibili con il contesto digitale. Ma c’è la criticità di una generazione “old style”, più orientata al consolidamento, che potrebbe avere problemi di adattamento. L’Agenda Digitale come potrebbe invertire una tendenza che penalizza, dal punto di vista retributivo, i professionisti dell’Ict? Tirandola per i capelli, qualcosa di positivo potrebbe arrivare, ma solo

tecniche mentre qualche spiraglio positivo si registra nella Pa, dove è iniziata una lenta inversione di tendenza dei minimi tariffari. Che però risultano ancora inferiori almeno del 15% rispetto a quelli in essere nei settori privati. Altri parametri che inducono a debite riflessioni riguardano il confronto fra gli stipendi degli addetti attivi nell’area It e quelli, decisamente migliori, dei colleghi impegnati in altre aree aziendali; le figure di marketing e vendita, in particolare, guadagnano in media il 24% in più se qualificate come dirigenti, il 12% se quadri e il 6,7% se assunte come impiegati. Solo alcuni specifici profili informatici, con la qualifica di quadri, se la passano meglio: gli analisti sistemisti hanno compensi superiori dell’8,2% rispetto alla media, i security engineer del 7,5%, i system engineer del 5,6% e i responsabili dello sviluppo software del 5,4%. L’economia digitale invertirà la tendenza? Mancano le risorse

Apriamo il capitolo giovani. Per i neo laureati in materie tecnologiche che aspirano a fare carriera in azienda c’è uno scoglio ben delineato da affrontare, ed è quello di retribuzioni in ingresso non particolarmente appetibili e precisamente, secondo l’Osservatorio Assintel, del 5,2% inferiori rispetto alla in modo indiretto e condizionato. Mi spiego: il settore è inserito in uno scenario in cui la stessa Pubblica Amministrazione, falcidiata dalla spending review e probabilmente da una classe dirigente aliena al digitale, non investe in innovazione ed è “inquinata” dalla presenza delle società in-house, che contribuisce a un abbassamento indecoroso delle tariffe professionali. Scardinare questi equilibri potrebbe riportare il mercato a tariffe più sensate, ma da qui a dire che le retribuzioni potrebbero ricominciare a salire è un azzardo, tanto che non prevediamo

media impiegatizia. Il gap si riduce nel giro di tre o cinque anni, ma rimanendo nell’ordine del 2,5%. Il quadro di “precarietà” trova purtroppo riscontro nelle doti che i professionisti indicano come necessarie per scalare le gerarchie aziendali: raccomandazioni, fortuna e disponibilità a lavorare molto. Le aziende, invece, dichiarano di mettere al primo posto le competenze e l’aggiornamento costante. Competenze a cui molte organizzazioni guardano soprattutto in chiave digitale, e cioè profili con avanzati skill in materia di Web, cloud computing, Big Data e mobile. Per il 51% delle aziende intervistate, infatti, la principale tipologia di investimento nei nuovi trend tecnologici riguarda capitale umano e ricerca & sviluppo; per contro il 40% del campione lamenta una mancanza di risorse e il 30% una carenza di conoscenze adeguate. Dove reperirle, partendo dal presupposto che il 40% delle imprese di medio grandi dimensioni ritengono non adeguati i percorsi di formazione in queste aree? Un’azienda su quattro (il 24,7%) confida nel supporto fornito dalla rete dei partner, il 15,1% nell’aggiornamento e il training delle risorse interne e il 17 % nelle nuove assunzioni. Che, come visto, non rappresentano certo la norma. Piero Aprile significative inversioni di tendenza nel corso del 2013. Perché? Perché la palla passerebbe alle aziende. Siamo davvero sicuri che il nostro tessuto Ict, costituito per la maggior parte da piccole imprese, sia culturalmente pronto per un vero approccio di “total reward”? E che sia così lungimirante da implementare sistemi di retribuzione ad hoc per attrarre e trattenere i talenti, fidelizzandoli e incentivando l’efficienza e lo sviluppo dell’eccellenza? 39


OBBIETTIVO SU | Philips Olac

I LED CAMBIANO FACCIA ALLE CITTÀ La multinazionale olandese prosegue nello sviluppo di soluzioni destinate a illuminare centri abitati e monumenti. Risparmiando energia, valorizzando i luoghi d'interesse e aumentando la sicurezza di cittadini e automobilisti. Un viaggio fotografico nel centro di ricerca Philips Olac, alla periferia di Lione.

A

pochi chilometri da Lione c’è una città giocattolo: una strada extraurbana, una piazza, un quartiere residenziale. Lo scopo, però, non è per niente ludico: è il centro di competenza e ricerche Olac (Outdoor Lighting Application Centre), dove Philips studia le soluzioni più innovative per illuminare in modo più efficace le nostre città, i luoghi di aggregazione, la infrastrutture e i monumenti. Secondo gli esperti della multinazionale, infatti, la luce può elevare, e non poco, la nostra qualità della vita, migliorando al contempo la gestione del servizio da parte delle autorità cittadine e portando a notevoli risparmi in termini di consumo energetico. Fortunatamente, le foto che vedete in queste pagine non si riferiscono solo al sia pur affascinante centro di ricerca, ma testimoniano come le soluzioni Philips siano già una realtà in molte città, anche italiane.

40

| FEBBRAIO 2013


SICUREZZA, economia e impatto estetico. Sono questi i vantaggi portati dal Led. Qui sopra l’impianto studiato da Philips per il ponte sull’autostrada A21, gestita da Centropadane, all’altezza di Brescia. Di fianco, esempi di installazioni a Catania (a sinistra) e Sulbiate (provincia di Monza e Brianza).

LA LUCE SVOLGE UN RUOLO IMPORTANTE NELLA NOSTRA PERCEZIONE DELLA SICUREZZA.

41


OBBIETTIVO SU | Philips Olac

IL COLORE CONTA Secondo molti ricercatori, l’illuminazione incide sul modo in cui i cittadini pensano e vivono la città: può trasformare un centro cittadino freddo e inospitale in un luogo caldo e vivibile, oppure può evidenziare simboli architettonici o artistici. I sistemi di gestione intelligente dell’illuminazione studiati da Philips possono anche variare le luci e i colori della città a seconda della stagione o dell’orario, spingendo cittadini e turisti a incrementare il tempo passato in determinati luoghi e, in ultima analisi, migliorando il business di hotel ed esercizi commerciali della città.

42

| FEBBRAIO 2013

VARIANTI di colore e diversi accenti luminosi applicati agli ambienti “artificiali” del centro sperimentale Olac di Lione.


43


OBBIETTIVO SU | Philips Olac

LA SOLUZIONE INTELLIGENTCITY DI PHILIPS È UN’OFFERTA INTEGRATA PER L’ILLUMINAZIONE DELLE CITTÀ CHE AIUTA AD AFFRONTARE PROBLEMATICHE PIÙ AMPIE COME LA RIURBANIZZAZIONE, LA RIDUZIONE DEL CONSUMO ENERGETICO E LA DOMANDA CRESCENTE DI SERVIZI DA PARTE DEI CITTADINI.

44

| FEBBRAIO 2013

LED ordinatamente disposti su più file per raggiungere la luminosità richiesta. A sinistra, un lampione di nuova generazione.


ILLUMINAZIONE con tecnologia Philips dei Mercati di Traiano a Roma. Nella pagina accanto, un’installazione a Lione, mirata a valorizzare un progetto artistico di arredo urbano.

Si chiama IntelligentCity ed è la soluzione integrata di Philips per l’illuminazione delle città, studiata per soddisfare le nuove esigenze di sicurezza, risparmio e valorizzazione degli spazi pubblici. La soluzione comprende il sistema CityTouch per la gestione intelligente dell’illuminazione stradale. Grazie alla tecnologia Led ma soprattutto al controllo informatizzato e centralizzato (l’intera città si può gestire da un’unica interfaccia, anche via Web), CityTouch consente di usare la luce solo quando e dove è necessaria, massimizzando la sicurezza degli automobilisti e dei pedoni, riducendo l’inquinamento luminoso e risparmiando fino al70% sui costi energetici e di manutenzione. CityTouch è già in fase sperimentale in molte città d’Europa, tra cui Londra, Praga e Rotterdam.

45


INTELLIGENCE INSIGHTS RESULTS ANALYTICS INING ✔ DATA M STING ✔ FORECA

BUSINESS INTELLIGENCE

GEOMARKETING

PUBBLICITA’

RETAIL PERFORMA NCE MANAGEM ENT ✔ SALE S FORCE EFFECTIVE NESS ✔

✔ DATA INTEG

RATION ✔ DATA QUA LITY

LTY CRM & LOYA MER ✔ CUSTO E INTELLIGENC ETING ✔ MARK N AUTOMATIO

Value Lab è un’innovativa società di consulenza di Management e Information Technology che opera a livello nazionale e internazionale, specializzata sui temi di marketing, vendite e retailing. Aiutiamo aziende di produzione, distribuzione e servizi ad aumentare i ricavi, ridurre i rischi e ottimizzare i costi migliorando le scelte strategiche e la gestione operativa di mercati, clienti, punti vendita e reti di vendita.

MILANO Via Durini, 23 Telefono: +39.02 77 88 931

ROMA Salita S. Nicola da Tolentino, 1/b Telefono: +39.06.91 80 20 01

www.valuelab.it


VETRINA HI-TECH

TUTTE LE PROMESSE DEI DISCHI SSD

LO STORAGE VA SULLE NUVOLE I costi dei dispositivi per archiviare i dati dei Pc si sono notevolmente abbassati. E c'è l'alternativa del cloud.

A

rchiviare i propri contenuti, personali e professionali, nel cloud: per molti un’alternativa che non necessariamente sostituisce, ma si affianca allo storage su supporti fisici quali hard disk esterni, schede Sd e pen drive. Da un lato l’idea, più rassicurante, di un backup solidamente “custodito” su un oggetto tangibile; dall’altro i noti vantaggi offerti dalla nuvola, ovvero ubiquità dell’accesso, sincronizzazione su più dispositivi e condivisione contenuti tramite link. Le alternative oggi a disposizione di singoli e aziende, gratuite o a pagamento, sono davvero tante, a partire dal popolarissimio Dropbox e da SkyDrive di Microsoft, entrambi utilizzabili anche tramite applicazione mobile (nel secondo caso, perfettamente integrata nei Windows Phone). Per non parlare dell’iCloud di Apple, che nel 2012 ha registrato una crescita boom passando da 85 a 250 milioni di utenti. Quanto basta per far etichettare dal Ceo Tim Cook la suite cloud-based come “una strategia per il prossimo decennio”. Tra le offerte

sbocciate di recente spicca invece quella di Telecom Italia, che a gennaio ha lanciato Ti Cloud: un servizio proposto in abbonamento ai clienti di rete fissa con collegamento Adsl flat, che mette a disposizione ben 200 GB. La nuvola per gli utenti di telefonia fissa fa il paio con quella introdotta a fine 2011 per i possessori di smartphone Android e Symbian, Tim Cloud. Vocazione decisamente più business e con uno spiccato accento sulle garanzie di sicurezza è quella di Trend Micro, che nella sua offerta SafeSync combina storage, virtualizzazione e protezione dei dati. Ci sono poi i cloud “proprietari” degli Oem, accessibili da programmi integrati su Pc desktop, notebook e tablet dei singoli produttori: come il WebStorage di Asus oppure AcerCloud. Quest’ultimo, recentemente ampliato con il supporto ai dispositivi mobili Android e iOS, utilizza lo spazio libero sul disco fisso di un Pc, scelto dall’utente, come spazio di archiviazione cloud, custodendo i file – immagini, video, ma anche documenti di Office.

Già spopolano all’interno degli ultrabook, garantendo loro il profilo slim che li qualifica, mentre ancora rappresentano la minoranza nell’offerta di memorie esterne. Sono le unità Solid State Drive, o Ssd, tecnologia alternativa a quella degli hard disk e che sostanzialmente assolve alla medesima missione, ma con tutta una serie di miglioramenti prestazionali. A cominciare dalla maggiore velocità di avvio, dal momento che questi dischi non utilizzano parti meccaniche in movimento (tant’è che la definizione “dischi” è in realtà impropria). Più rapidi sono anche i tempi di trasferimento dei file dal Pc alla periferica, e viceversa, ridotti in media di un terzo rispetto alle unità Hdd tradizionali, così come più veloci sono la ricerca dei file (fino a otto volte), il caricamento delle applicazioni e l’esecuzione di attività quali l’editing fotografico e video dei file. C’è poi il fattore resistenza, anch’esso legato all’assenza di componenti mobili: le Ssd promettono maggiore tolleranza a calore, urti e vibrazioni, e non rischiano di subire danni se a contatto con fonti magnetiche. Oltre al fatto di essere più silenziose, leggere e sottili dei classici hard disk. Nessun difetto? Forse, almeno attualmente, la relativa limitatezza dell’offerta e il fatto che bisognerà aspettare un po’ prima di veder calare i prezzi come già è accaduto nel mercato degli Hdd, dove oggi si possono comprare modelli da 1 o 2 TB con cifre contenute. FEBBRAIO 2013 |

47


VETRINA HI-TECH

I dischi esterni si sfidano sul fronte della velocità Dopo l’innovazione dell'Usb 3.0, la prossima frontiera dell’Enhanced SuperSpeed promette performance a 10 Gbps. Supporto a Windows 8 e streaming senza fili tra le funzioni speciali.

S

empre più capienti, veloci e semplici da utilizzare. Non si può dire che “facciano notizia” come i più scintillanti tablet e smartphone di questi tempi tanto protagonisti delle cronache, anche di quelle non specializzate. Eppure gli hard disk esterni sono uno strumento non meno prezioso per il normale utente e per il professionista, non fosse altro che per quel fenomeno di proliferazione dei dati, documenti, foto, video in alta risoluzione, che comunemente chiamiamo “big data”. La nuova frontiera si chiama Usb 3.0, tecnologia che è già realtà su tutti i nuovi modelli di Pc desktop e notebook messi in commercio fra 2012 e 2013, nonché appunto sui drive esterni di ul-

tima generazione. Rispetto al “vecchio” standard Usb 2.0, con la cui interfaccia è retrocompatibile, il 3.0 garantisce velocità di trasferimento dati teoriche di 5 Gbit/s, oltre dieci volte più rapide rispetto alla tecnologia precedente. Ma il futuro (vicino) è ancora più sorprendente: all’ultimo Ces di Las Vegas è stata ufficialmente annunciata l’evoluzione Enhanced SuperSpeed Usb 3.0, con la promessa di prestazioni di trasferimento dati a 10 Gbit/s, oltre a quella di un minor consumo energetico a carico del Pc collegato. Quando? Per vedere sul mercato i primi prodotti con Usb di nuova generazione bisognerà aspettare la fine del 2014 o l’inizio del 2015. Secondo quanto riferito dal consorzio promotore, per sfruttare la veloci-

tà migliorata (legata, innanzitutto, a un perfezionamento del data encoding) occorreranno porte riprogettate con nuovi controller e nuovi cavi certificati per i 10 Gbit/s. Il connettore sarà invece del tutto simile a quelli degli attuali device Usb, nonché pienamente retrocompatibile con software e dispositivi Usb 3.0 e 2.0. Velocità a parte, altra linea di innovazione degli hard disk esterni riguarda la connettività wireless: alcuni drive supportano lo streaming senza fili da dispositivi mobili come smartphone e tablet, dicendo addio ai cavi. Due esempi: il Wi-Drive di Kingston, con WiFi incorporato, compatibile con i terminali iOS, Android e Kindle, proposto nei tagli da 32, 64 e 128 GB; e

VERBATIM GT PORTABLE HARD DRIVE

WESTERN DIGITAL MY PASSPORT ENTERPRISE

KINGSTON DATATRAVELER HYPERX PREDATOR 3.0

Capacità di storage: 500 GB, 1 TB Interfaccia: Usb 3.0 Dimensioni: 195 x 121 x 33 mm, Funzioni: storage; registrazione programmi da Smart Tv; backup programmato e crittografato

Capacità di storage: 500 GB Interfaccia: Usb 3.0 Funzioni: storage; backup pianificato; supporto a Windows To Go; crittografia BitLocker Dimensioni: 82 x 111 x 15 mm

Capacità di storage: 512 GB, 1 TB Interfaccia: Usb 3.0 Funzioni: le stesse di un hard disk, con le dimensioni di una chiavetta Usb Dimensioni: 72 x 26,9 x 21 mm

PREZZO: DA 104 EURO

PREZZO: DA 103 EURO

PREZZO: DA DEFINIRE

48

| FEBBRAIO 2013


il nuovissimo Wireless Plus di Seagate, che arriva addirittura a 1 TB e supporta i medesimi sistemi operativi, nonché le Smart Tv Samsung e i lettori Blu-ray. Fra i modelli caratterizzati da una vocazione business spicca il nuovo My Passport Enterprise di Western Digital, pensato per gli utenti Windows 8 e Seven: supporta infatti Windows To Go, una funzione di portabilità di documenti e applicazioni da un Pc all’altro.

LaCie 5big Thunderbolt Series PREZZO: DA 1.139 EURO

Trasferimenti dati alla velocità della luce e per grandi carichi di lavoro? L’alternativa all’Usb è il Thunderbolt, la tecnologia sviluppata da Intel in collaborazione con Apple, che permette di ricevere e trasmettere dati al ritmo di 20 Gbit/s. Con la limitazione di dover collegare la periferica a un dispositivo dotato di interfaccia ad hoc. In quest’ambito, una novità rivolta a chi ha bisogno di particolari prestazioni è 5big Thunderbolt Series di LaCie, una soluzione Raid a cinque scomparti, che offre capacità di storage da 10 a 20 TB e velocità di trasferimento fino a 785 Mb/s. I dischi supportano la funzionalità “hot swap”, ovvero è possibile sostituirli e inserire supporti nuovi senza dover spegnere il sistema, e grazie alle doppie porte Thunderbolt è possibile collegare a catena fino a sei periferiche.

TOSHIBA STOR.E CANVIO

SEAGATE WIRELESS PLUS

LACIE PORSCHE DESIGN P’9223 PER MAC

Capacità di storage: 1, 2 o 3 TB per desktop; 500 GB in versione slim Interfaccia: Usb 3.0 Funzioni: storage; software per il backup; crittografia con password.

Capacità di storage: 1TB Interfaccia: Usb 3.0; supporto AirPlay e Dlna Funzioni: storage; streaming in wireless da dispositivi mobili, Smart Tv Samsung e lettori Blu-ray.

Capacità di storage: 500 GB/1 TB nella versione hard disk; 120 GB in quella Slim con Ssd Interfaccia: Usb 3.0 Funzioni: storage. Dimensioni: 77 x 130 x 15 mm (hard disk); 128 x 79 x 11 mm (Ssd)

PREZZO: DA 56 EURO

PREZZO: 200 DOLLARI

PREZZO: DA 80 EURO

49


VETRINA HI-TECH

pillole digitali

DELL Latitude 10

ASUS Transformer AiO Un po’ computer desktop all-in-one, un po’ maxi-tablet. Si presta a diventare strumento di produttività, ma anche terminale multimediale, il nuovo Transformer AiO, il primo Pc “tutto in uno” equipaggiato con Windows 8 che monta uno schermo tattile da ben 18,4 pollici e con risoluzione Full Hd. La configurazione prevede la presenza di processori Intel Core di terza generazione e sezione grafica Nvidia Gt730M, Ram che va da 4 a 8 GB a seconda dei modelli, e spazio di archiviazione da 500 GB a 2 TB. Altra caratteristica del tutto peculiare di questo all-in-one è la sua natura convertibile: una volta estratto dall’alloggiamento docking, il dispositivo diventa una tavoletta basata su Android 4.1 e su un processore quad-core Nvida Tegra 3. Certo non si tratta di un tablet tascabile da portare con sé nei propri spostamenti, ma il Trasformer Aio è utile in quei contesti da ufficio in cui ci si alza dalla scrivania con la possibilità di spostare da una stanza all’altra il proprio Pc. Asus assicura un’autonomia della batteria che va dalle quattro alle cinque ore. Prezzo: da 1.299 euro

50

| FEBBRAIO 2013

Dopo la versione da 64 GB, Dell amplia la gamma dei suoi tablet, utili a piccole aziende, istituti scolastici e professionisti, con una variante da 32 GB del suo Latitude da 10 pollici. Dato il buon rapporto qualità/prezzo e la presenza di Windows 8, si tratta di una proposta indirizzata a chi vuole utilizzare il tablet come strumento di lavoro, e non solo di svago. Come nella configurazione standard, anche in quella “essentials” lo chassis è in lega di magnesio ricoperta da uno strato di colore morbido al tocco, il processore è un Atom Z2760 Clover Trail a 1,8 GHz affiancato da 2 GB di memoria Ram. Presenti all’appello l’interfaccia Usb e il lettore di scheda Sd, mentre una docking station (acquistabile separatamente), trasforma la tavoletta in laptop. Prezzo: 499 euro

JABRA Speak 510 Evoluzione del precedente Speak 410, il nuovo speakerphone di Jabra integra anche la tecnologia Bluetooth, così da garantire maggiore flessibilità di utilizzo e la possibilità di connetterlo senza fili anche al proprio smartphone, oltre che attraverso il cavo Usb a qualsiasi

interfaccia di questo tipo. L’accessorio può dunque essere sfruttato per chiamate telefoniche, conference call e ascolto musicale, connettendosi non solo ai cellulari, ma anche a tablet, Pc portatili e altri device con supporto al Bluetooth, tanto in situazioni “statiche”, a casa o in ufficio, quanto in movimento. Il dispositivo, fra l’altro, è venduto insieme a una custodia da viaggio e promette un’autonomia di 15 ore con una ricarica completa. Prezzo: 156 euro

SONY Xperia Z Un nuovo top di gamma, che mira a far concorrenza alla triade composta da iPhone 5, il Samsung Galaxy S3 e il Nokia Lumia 920. Il nuovo Xperia Z di Sony, un terminale Android con schermo Full Hd da 5 pollici, sulla carta presenta ottime caratteristiche tecniche che possono giustificarne il prezzo e che potremo verificare da marzo in poi, quando il telefono sarà in distribuzione. Una su tutte, le fotocamere: ben 13 megapixel quella posteriore, 2,1 quella frontale. E poi pocessore quadcore Snapdragon S4 Pro da 1,4 GHz, 16 GB di memoria interna, slot per scheda microSd e una potente batteria da 2.330 mAh, che secondo le stime del produttore può garantire fino a 11 ore di conversazione e 550 di standby. Inoltre è super-sottile, con soli 7,9 millimetri di spessore, e pesa solo 146 grammi. Prezzo: 649 euro


A: “Gianni - Specialista IT” gianni.sistemi_informativi@mycompany.com

Oggetto: Che cosa dovrei fare?? Gianni, ho una riunione e non riesco ad aprire il link sul tablet, questo dispositivo è pessimo!

A volte è difficile risolvere gli imprevisti IT. Assumi il controllo e rimani sempre un passo avanti rispetto ai problemi. Gestisci la tua infrastruttura IT in maniera semplice e proattiva, riducendo i costi e aumentando l’efficienza.

Il nuovo modo di gestire, monitorare e supportare i sistemi IT. INVENTARIO DELLE RISORSE IT

GESTIONE DEI COMPUTER E DEI DISPOSITIVI

SUPPORTO E ASSISTENZA DA REMOTO

MONITORAGGIO E CONTROLLO

REPORT ATTIVITÀ

SCOPRI I VANTAGGI E RICHIEDI UNA DEMO A

IT-systemsmanagement.pandasecurity.com Panda Security – Via G. B. Piranesi, 34 – 20137 Milano - Tel. 02-24202.208 – Email: marketing@it.pandasecurity.com



Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.