Technopolis 7

Page 1

NUMERO 7 | FEBBRAIO 2014

STORIE DI ECCELLENZA E INNOVAZIONE

IL TRAFFICO DI DATI CHE ACCELERA I TRASPORTI Massimo Schintu, direttore generale di Aiscat, ha scelto le migliori tecnologie per analizzare le informazioni di traffico e pedaggi autostradali. Così l'Italia continuerà a essere una best practice in Europa.

CLOUD COMPUTING

16

A che punto siamo con l'implementazione dell'It sulle nuvole: le Pmi italiane provano a non restare a terra.

SPECIALE SICUREZZA

25

L'analisi delle nuove minacce informatiche e delle soluzioni per contrastarle. La panoramica completa su vendor e prodotti.

DESIGN TAIWANESE

42

Viaggio fotografico nella sede di Asus a Taipei, dove vengono concepiti gli ultrabook e i tablet del futuro.

Distribuito gratuitamente con “Il Sole 24 ORE”


Make IT Dynamic

Concentrati sul Business. Sviluppato da Fujitsu per aiutare le aziende a ridurre i costi e migliorare le infrastrutture IT, MAKE IT DYNAMIC è un insieme di soluzioni modulari, complete e affidabili che integrano le tecnologie di Fujitsu e dei suoi solution partner. MAKE IT DYNAMIC offre soluzioni basate sui server PRIMERGY con Windows Server 2012, che ottimizza le tecnologie esistenti e introduce nuove funzionalità per permettere ai professionisti IT di aumentare l’affidabilità e l’efficienza dell’infrastruttura server.

www.fujitsu.com/it 800 466 820 E-MAGAZINE » http://tech4green.it INFO »

NUMERO VERDE »

PRIMERGY RX300 S8


SOMMARIO STORIE DI ECCELLENZA E INNOVAZIONE

N° 7 - Febbraio 2014 Periodico bimestrale registrato presso il Tribunale di Milano al n° 378 del 09/10/2012. Direttore responsabile: Emilio Mango

4 STORIE DI COPERTINA Il traffico dei dati che accelera i trasporti: Aiscat

9 IN EVIDENZA L’analisi di Gianni Rusconi: i trend hi-tech del 2014

Informatica da indossare

HP svela il nuovo stile dell’It

Teamsystem acquisisce Acg da Ibm

Coordinamento: Gianni Rusconi Hanno collaborato: Piero Aprile, Luca Bastia, Valentina Bernocco, Carlo Fontana, Laura Tore

Red Hat: il cloud ora è più vicino alle Pmi

Progetto grafico: Inventium Srl Sales and marketing: Francesco Proietto Foto e illustrazioni: Istockphoto.

16 SCENARI

Il monito di Check Point sulla sicurezza Lenovo punta al trono dei server

Big Data: servono grandi uomini

Cloud Computing in Italia: si punta in alto

La nuvola per le Pmi

Quanto ti fidi del tuo It?

25 SPECIALE

Sicurezza informatica

Editore, redazione, pubblicità: Indigo Communication Srl Via Faruffini, 13 - 20149 Milano tel: 02 36505844 info@indigocom.it www.indigocom.com Stampa: RDS Webprinting - Arcore © Copyright 2012 Indigo Communication Srl Tutti i diritti di proprietà letteraria e artistica riservati. Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto. Pubblicazione ceduta gratuitamente.

34 ECCELLENZE.IT Chiesi Farmaceutici - NetApp Canali - Capgemini Carapelli - HP 38 ITALIA DIGITALE

Agenda a rischio, il bivio dei fondi UE

PA digitalizzata: avanti troppo adagio

42 OBBIETTIVO SU Asus

47 VETRINA HI TECH Viaggio nel car infotainment Pillole digitali


STORIA DI COPERTINA | Aiscat

IL TRAFFICO DI DATI CHE ACCELERA I TRASPORTI Dagli apparati di telepedaggio arrivano grandi quantità di informazioni, che Aiscat gestisce utilizzando i Sistemi Ingegnerizzati di Oracle. Per assicurare la continuità, la struttura è replicata su due siti diversi.

4

| FEBBRAIO 2014

L’

integrazione del sistema di autostrade e strade a pedaggio in Italia e in Europa rappresenta una sfida tecnologica anche in ambito digitale e, allo stesso tempo, una grande opportunità di efficientamento e creazione di valore. Per capire perché, basti pensare che gli autotrasportatori sono stati costretti nel recente passato a utilizzare, viaggiando sulla rete viaria del Vecchio Continente, fino a sette diversi apparati di telepedaggio, e a stipulare altrettanti contratti con i provider. La spinta a uniformare e rendere interoperabili i vari sistemi arriva dall’Europa e

inizia nei primi anni Duemila. Una volta tanto, però, l’Italia, avendo già affrontato a livello locale problematiche simili, è arrivata almeno tecnologicamente e organizzativamente preparata a questo processo, anche grazie a enti come Aiscat, l’Associazione Italiana Società Concessionarie Autostrade e Trafori, che rappresenta e coinvolge i maggiori operatori nazionali. “Loyola de Palacio, commissario europeo ai trasporti, fu la prima a spingere tutti i Paesi all’adozione di un unico sistema per il telepedaggio”, racconta Andrea Manfron, direttore tecnico di


UN RUOLO GUIDA Nata nel 1966, l’Aiscat, Associazione Italiana Società Concessionarie Autostrade e Trafori, ha il compito di raccogliere e confrontare le esperienze e le esigenze delle concessionarie italiane di autostrade e trafori a pedaggio (la rete autostradale delle associate si estende per circa 5.800 km). Si occupa inoltre dell’uniformazione delle procedure e dei comportamenti delle concessionarie per quanto concerne le modalità operative del servizio, e dei rapporti con l’utenza e con l’ente concedente; il tutto nel rispetto delle singole autonomie decisionali. Rappresenta, poi, gli interessi e le necessità del settore presso gli organismi nazionali e internazionali. Aiscat aderisce a Confindustria, ricoprendo pertanto un ruolo primario nel sistema di rappresentanza del mondo industriale italiano.

Aiscat, “e da allora sono stati fatti molti progressi. La direzione è quella della semplificazione per l’utente finale, che in un prossimo futuro potrebbe circolare liberamente su autostrade, ponti, aree Ztl cittadine e addirittura traghetti di tutto il continente con a bordo un unico dispositivo e stipulando un unico contratto. Ma il primo risultato di questa politica è stato ottenuto a livello infrastrutturale, con la separazione di fatto tra rete e sistemi di pagamento”. Il vantaggio dell’interoperabilità tra i vari apparati di telepedaggio è evidente anche per il viaggiatore “privato”, che potrebbe girare l’Europa senza preoccuparsi dei singoli pagamenti e senza fare lunghe code ai caselli; ma il vero valore aggiunto dei progetti in corso ricade sul trasporto di merci, che potrebbe recuperare parecchi punti di efficienza, un toccasana soprattutto in periodi di “spending review”. La gestione integra-

ta del traffico genera però, inutile dirlo, una grande mole di dati, perché i sistemi (satellitari o terrestri che siano) raccolgono informazioni in tempo reale e spesso sotto forma di immagini. L’Italia è un passo avanti

Il nostro Paese ha i numeri per contare in Europa. Questa volta, però, non si tratta di rappresentare una corporazione o difendere interessi nazionali, ma di mettere in campo l’esperienza che deriva dall’aver abbattuto già a partire dagli anni Ottanta le barriere di divisione nelle competenze territoriali tra concessionarie differenti. Aiscat raccoglie i dati provenienti dalle tratte di 24 società associate, per un totale di circa 5.800 chilometri di autostrade (per non parlare di 635 gallerie, 1.555 ponti e viadotti e tre trafori internazionali). Di più, i tre centri principali di gestione della rete nazionale raccolgono 5


STORIA DI COPERTINA | Aiscat

i dati da 35 stazioni di controllo, oltre 5mila telecamere, 2.400 pannelli a messaggio variabile, circa 1.600 porte di pedaggio self service e più di 2.200 impianti di telepedaggio. Forte di questa enorme mole di dati, ma soprattutto del sistema informatico che permette di gestirli, Aiscat ha giocato finora un ruolo chiave nello scenario europeo, e si sta preparando all’importante appuntamento di ottobre 2014, mese in cui il Set (Servizio Europeo di Telepedaggio) verrà esteso a tutti i veicoli. La partnership con Oracle

“La sfida affrontata da Aiscat nel realizzare l’infrastruttura Ict”, racconta Manfron, “è stata innanzitutto dover mettere d’accordo 24 società, con giro d’affari e competenze decisamente diverse. Insieme a loro abbiamo selezionato il principale partner tecnologico, e la scelta è caduta su Oracle, che è sembrato avere le carte migliori sia sul tavolo dei database sia su quello della piattaforma hardware”. “Sul fronte della gestione dei dati”, gli fa eco Paolo Giorgi, project leader di Aiscat, “le difficoltà più grandi sono state l’implementazione dei due siti paralleli (vedi il box “La Soluzione” pubblicato in questa pagina, ndr) e l’elaborazione in tempo reale dei dati di tipo fotografico, entrambe superate brillantemente grazie alla flessibilità dei Sistemi Ingegnerizzati e alle poche limitazioni in termini di budget”. A oggi, l’implementazione dei due data center di Firenze e Lucca (geograficamente separati per motivi di sicurezza ma vicini per consentire un backup veloce delle informazioni) è in fase avanzata, ovviamente nel rispetto delle più recenti norme europee, e a breve Aiscat potrà gestire in tempo reale le informazioni relative al traffico. Quelli per il telepedaggio, in realtà, sono solo alcuni dei servizi che potranno essere erogati, perché le architetture Oracle scelte dai tecnici Aiscat mettono a disposizione degli ingegneri una potenza di calcolo che permette di immaginare nuovi e futuristici sviluppi. Emilio Mango 6

| FEBBRAIO 2014

A fianco, Paolo Giorgi, project leader di Aiscat. Più a destra, Andrea Manfron, direttore tecnico

LA SOLUZIONE Pensato nei primi mesi del 2012 e realizzato nell’arco dell’anno successivo, il Sistema di Gestione del Traffico di Aiscat è stato progettato secondo un’architettura a “due siti”. Si compone, infatti, di un sito primario di produzione (deputato all’elaborazione dei dati in normali condizioni di attività) e di un sito secondario di business continuity e disaster recovery, in grado di garantire la continuità operativa in caso di eventi anche catastrofici con un tempo di ripristino inferiore ai 30 minuti. Per gestire l’enorme mole di dati,

Una barriera dotata di Telepass, un sistema conosciuto da tutti i viaggatori

calcoli e analisi, Aiscat ha puntato sui Sistemi Ingegnerizzati di Oracle, in particolare su Oracle Exadata e Oracle Exalogic, che costituiscono il cuore elaborativo del data center. Nel dettaglio, Exadata si occupa dei carichi di lavoro del database, mentre Exalogic è deputato alla gestione delle applicazioni e del middleware. A fianco dei Sistemi Ingegnerizzati, Aiscat ha collocato, sempre nel sito primario, dei server chassis Sun Blade 6000 e le tecnologie Zfs Storage Appliance. Queste ultime architetture costituiscono anche l’ossatura del sito secondario.


L'eccellenza nei trasporti intelligenti L'Italia ha molto da dire in merito alla gestione del traffico e dei pedaggi autostradali. L'opinione di Massimo Schintu.

A

nni di esperienza nella gestione di un sistema complesso, sia geograficamente sia organizzativamente. Per questo, Aiscat ha un ruolo importante nel percorso evolutivo dell’interoperabilità autostradale in Europa. Technopolis ha intervistato Massimo Schintu, direttore generale di Aiscat.

Massimo Schintu

Che ruolo ha giocato l’Aiscat nello scacchiere europeo nella fase di regolamentazione dell’interoperabilità delle infrastrutture?

In merito all’interoperabilità dei sistemi di esazione elettronica del pedaggio, l’Aiscat e il comparto autostradale italiano hanno sempre svolto un ruolo attivo, partecipando costantemente ai gruppi di lavoro creati nelle ultime due decadi dalle istituzioni comunitarie in fase di elaborazione e di follow-up di tutta la normativa che regola lo Eets (European Electronic Tolling Service). Inoltre, l’Aiscat e alcune delle sue concessionarie partecipano come partner attivi al progetto regionale Reets (Regional European Electronic Tolling Service), volto a realizzare una prima fase “regionale” del servizio europeo di telepedaggio, attraverso il coinvolgimento di sette Stati membri (Austria, Danimarca, Spagna, Francia, Italia, Polonia, Germania), ai quali si aggiunge anche la Svizzera, con reti caratterizzate da più alti livelli di densità del traffico. Scopo del progetto è, oltre che dimostrare l’efficacia e il funzionamento dell’interoperabilità a livello regionale, affrontare aspetti procedurali e di rapporti commerciali che hanno finora frenato l’effettiva operatività. Le so-

luzioni rintracciate dovrebbero poi essere estese a tutto il territorio dell’Unione e facilitare, attraverso tale armonizzazione, la circolazione delle persone e dei beni nell’ambito della UE. Qual è il posizionamento del sistema autostradale italiano rispetto al resto d’Europa?

L’introduzione del telepedaggio oltre vent’anni fa in Italia (in questo pioniera rispetto al resto dell’Europa) e il suo progressivo sviluppo e perfezionamento rappresentano un punto di forza della rete autostradale nostrana; basti pensare, anche numericamente, agli oltre 8 milioni di utenti di telepedaggio in Italia sul un totale dei quasi 25 milioni a livello europeo. Tutti questo ha fatto sì che l’Italia sia diventato un esportatore apprezzato di know-how e tecnologia applicata in campo autostradale, in particolare nella gestione dell’esazione del pedaggio. Quale valore aggiunto può dare l’Aiscat sul fronte tecnologico rispetto alle concessionarie?

L’Aiscat segue da anni l’evoluzione della tecnologia applicata al trasporto stradale attraverso lo sviluppo dei cosiddetti Its (Intelligent Transportation Systems). Gli Its sono fondamentali per contribuire a migliorare le prestazioni del trasporto su strada in un settore dove il gestore, oltre a essere investito di funzioni pubbliche, è chiamato a migliorare le prestazioni, l’efficacia e la sicurezza dell’infrastruttura. La conseguenza è la continua ricerca di innovazione: possiamo affermare con certezza, per esempio, che tale approccio ha contribuito notevolmente a far sì che la rete autostradale sia in linea con l’obiettivo comunitario volto a dimezzare il numero delle vittime di incidenti. Mentre le singole concessionarie autostradali sono dei veri e propri laboratori per la creazione, lo sviluppo e il perfezionamento dei Sistemi Intelligenti di Trasporto, avendo più volte dato dimostrazione dell’alta qualità e del livello innovativo di servizi e soluzioni tecniche, l’Aiscat ha svolto e continua a svolgere un ruolo di coordinamento e interfaccia tanto a livello nazionale, quanto soprattutto a livello europeo e internazionale, promuovendo e coordinando la partecipazione delle proprie concessionarie a progetti di dimensione paneuropea volti allo sviluppo armonizzato dei sistemi intelligenti di trasporto in tutto il territorio dell’UE. L’intensa attività svolta in tal senso nei progetti euro-regionali ha consentito di creare stretti legami di cooperazione nel settore autostradale in concessione tra soggetti provenienti da diverse regioni europee. Infine, è di assoluto rilievo l’attività che Aiscat sta conducendo per la messa in opera di un nuovo sistema per la gestione centralizzata delle transazioni da pedaggio. Infatti, la Aiscat Servizi è stata individuata come soggetto preposto al governo del sistema in un’architettura pseudo-centrica che permetterà, per alcuni processi, una gestione interoperabile e unificata nel comportamento tra le concessionarie. a cura di Emilio Mango 7


PUBBLICITA’


IN EVIDENZA

l’analisi

Le imprese e le tecnologie del 2014. La prima sfida? Imparare a usarle App di classe enterprise, nuove architetture It, Internet delle cose e, naturalmente, cloud e mobility. Il passo in avanti cui sono chiamati i Cio apre anche nuovi fronti di complessità. Superabili?

La spesa in hardware, software e servizi informatici salirà quest’anno a 3,8 trilioni (miliardi di miliardi) di dollari, in crescita del 4% rispetto al 2013. Il dato, di Gartner, apre subito a una domanda: su quali tecnologie investiranno maggiormente le aziende? Cavalcheranno, e come, le nuove tendenze tech? Detto che cloud (a 100 miliardi di dollari, secondo Idc, ammonterà nel complesso la spesa per i servizi e le soluzioni nella nuvola) e Big Data saranno due delle voci più importanti per i budget It 2014, è utile capire quali siano, secondo gli analisti, i paradigmi tecnologici ritenuti più strategici, e cioè a maggiore impatto sulle organizzazioni e sul cambiamento di prospettiva del business in chiave digitale, per gli anni a venire. Le difficoltà per i Cio si evidenzieranno, per esempio, in relazione agli effetti inattesi dei progetti Byod, che raddoppieranno o addirittura triplicheranno la dimensione della forza lavoro mobile in seno alle aziende. Esaminare, aggiornare e ampliare le policy (privacy compresa) relative all’uso, per scopi lavorativi, dei device personali dei dipendenti sarà un dogma. Non procrastinabile. I nuovi fronti

Le applicazioni di classe enterprise chiameranno i Cio a fare propri i dettami dello standard Web Html5 e gli sviluppatori a concentrarsi sulla creazione di modelli di interfaccia, integrando servizi voce e video capaci di connettere le persone in modi diversi. Dove sta la complessità? Nel fatto che, per i prossimi anni, non sarà disponibile uno strumento universale per le

app mobili ma ne saranno utilizzati diversi. Impegnativo, per molte aziende, sarà quindi digerire in tempi brevi i concetti di “software-defined anything”, ‒ e quindi gli standard avanzati per la programmabilità delle infrastrutture, di rete e di storage ‒ e l’interoperabilità dei data center, e di “Web-scale It”, modello atto a cambiare in modo sistemico la catena del valore delle tecnologie informatiche usate in azienda, cloud in primis. Essere preparati a cavalcare la rivoluzione dell’Internet delle cose, di una Rete che si va a estendere oltre i Pc e i dispositivi mobili abbracciando gli apparati utilizzati sul campo, è infine la sfida più grande. Nel 2020, quando i dispositivi connessi in attività saranno 30 miliardi, la spesa in tecnologie per il cosiddetto Iot (Internet of things) salirà a 1,9 trilioni di dollari, con il forte contributo di settori quali la sanità, il retail e i trasporti. Il cloud cambia faccia

Riunire in un unico ambiente operativo i servizi di tipo pubblico, anche di natura personale, e quelli di tipo privato: in tema di computing a nuvola, l’imperativo che delineano da Gartner è

abbastanza chiaro. Ed è tendente a esaltare i benefici che può generare un ambiente ibrido, frutto dell’integrazione e dell’interoperabilità fra i due modelli. Termini come “overdrafting” e “cloud bursting” indicano le potenzialità delle tecnologie nella nuvola ma presuppongono la necessità di una gestione corretta di tali processi, pena il rischio di seri danni all’interno dell’azienda. Con la migrazione delle applicazioni in un’ottica di servizio, le caratteristiche dei device diventeranno meno importanti, sebbene computer, tablet e via dicendo rimarranno per l’azienda componenti necessari. Nessun dispositivo sarà però l’hub principale per l’accesso ad app, dati e servizi, perché tale ruolo sarà assunto dalle soluzioni di personal cloud. E i Cio? Dovranno gestire e proteggere adeguatamente gli accessi alla nuvola e le informazioni memorizzate e condivise online. Gianni Rusconi FEBBRAIO 2014 |

9


IN EVIDENZA

Il Pc si fa piccolo e indossabile e avrà i nostri sensi Intel Edison è un computer dalle dimensioni di una scheda SD. La tecnologia del silicio guarda avanti. Anche dentro l’auto. L’ultima edizione del Consumer Electronic Show di Las Vegas ha celebrato il fenomeno della tecnologia indossabile. Occhialini, braccialetti, accessori di varie forme e dimensioni. E anche un micro computer, grande (anzi piccolo) quanto una scheda di memoria SD. L’innovazione in questione si chiama Edison, è uscita dai laboratori di Intel e opera con una Cpu dual-core a 22 nanometri il cui ingombro è un quinto di quello di un

processore Atom. Dove troverà posto? Nei weareable device. Per dotarli di notevoli capacità di calcolo e connettività Bluetooth e WiFi. Al fianco dei sensori “umani” integrati in componenti hardware e software (la tecnologia RealSense) per tablet, device “due in uno” e all-in-one, Edison è sicuramente un passo in avanti nel modo di intendere il computing. Ora tocca agli sviluppatori, per cui il colosso di Santa

I Google Glass vanno sul tapis roulant Il futuro è in mano ai wearable device? Guru e analisti ne sono convinti. Meglio quindi adeguarsi da subito al fenomeno, e l’italiana Technogym l’ha fatto, presentando al Ces 2014 il primo tapis roulant interattivo per i Google Glass. Tramite gli occhialini sarà possibile controllare via voce tutte le funzioni della macchina, ricevendo i feedback sull’allenamento attraverso le lenti con la realtà aumentata degli stessi. Il tutto grazie a Unity, la consolle Android di Technogym integrata con la piattaforma cloud proprietaria Mywellness, tramite la quale tutti gli 10

| FEBBRAIO 2014

attrezzi per l’allenamento saranno compatibili con ogni app o device esterno.

Clara ha stanziato un budget di 1,3 milioni di dollari in premi per stimolarne la creatività in fatto di applicazioni indossabili. Qualche esempio? Sul palco di Las Vegas, Intel ha mostrato il prototipo di una tartarughina giocattolo cucita su una tutina per neonato, che monitora i parametri vitali del bambino e li invia ai genitori su una tazza dotata di luci Led. L’era di Edison assumerà forma presto, a partire dal secondo semestre di quest’anno, a conferma del fatto che la società californiana sta prendendo molto sul serio l’affare “wearable”. Il Ceo Brian Krzanich, del resto, molto ha puntato in occasione del Ces sul concetto del “rendere ogni cosa smart”. Auricolari, cuffie capaci di riconoscere la voce, ciotole per la ricarica a risonanza magnetica: tutto può diventare più intelligente, grazie al silicio. Intel, per contro, deve ancora concretizzare sotto forma di prodotti, vendite e relative quote di mercato la volontà di giocare un ruolo da protagonista nei chipset mobili. Qualcomm e Nvidia, le due regine dei processori per smartphone e tablet, hanno approfittato del Ces 2014 per esibire lo stato dell’arte delle loro soluzioni: per i device mobili, ma anche per i sistemi di infotainment in auto e le smart Tv. Il Tegra K1 di Nvidia, superchip grafico da 192 core dedicato alla piattaforma Android e pensato per prendere servizio anche nei cruscotti di bordo, è forse l’emblema di una rivoluzione che sta marciando a passi molto più veloci rispetto al passato. E lo stesso Krzanich, quando asserisce che “stiamo entrando in una nuova era del computing, definita non dal dispositivo ma dall’integrazione della tecnologia negli stili di vita degli utenti”, ne è del tutto consapevole. Il primo passo è soluzioni capaci di alimentare tablet ibridi a doppia piattaforma, Windows 8.1 e Android (di questa categoria fa parte l’Asus Transformer Book Duet da 13,3 pollici presentato a Las Vegas). Poi sarà la volta dei dispositivi con capacità sensoriali e di quelli indossabili. Gianni Rusconi


, Corrado Farina, Relicense

David Scott, a capo della divisione storage di HP, sul palco del Discover

HP SVELA IL NUOVO STILE DELL’IT Cloud, sistemi convergenti, tanta tecnologia e soprattutto un posizionamento più aggressivo in termini di costo/prestazioni. I concorrenti in ambito storage e server sono avvisati. L’annuale prova di forza europea di HP, l’evento Discover (tenutosi a dicembre a Barcellona) è stata ancora una volta l’occasione per il top management, compresa la numero uno Meg Whitman, per fare il punto sul mercato e soprattutto sull’offerta It, sempre più articolata, della multinazionale. La voce grossa di HP in termini di completezza del portafoglio di soluzioni e di integrazione tra queste ultime, echeggia ancora più forte dopo il recenti annuncio della cessione da parte di Ibm della divisione server x86. Ora la multinazionale guidata dalla Whitman può veramente vantarsi di essere l’unica sul mercato a poter mostrare una gamma talmente estesa da comprendere tablet e data center “in a box”, software per l’analisi dei dati non strutturati e cartucce di inchiostro per stampanti. Naturalmente l’accento dell’ultima edizione è stato posto soprattutto sulle architetture cloud e “convergenti”, soluzioni hardware e software talmente scalabili da poter essere adottate dalle Pmi, così come dalle organizzazioni

enterprise. Le soluzioni più in vista sono state quelle in ambito server basate sulla tecnologia Moonshot, i Converged Systems che ricadono nel progetto “Shark”e quelle di storage della famiglia 3Par. L’architettura Moonshot per i server (che consente di risparmiare fino al 90% di energia elettrica a parità di potenza di calcolo mediante l’utilizzo di piccoli moduli da rack con Cpu sottodimensionate) viene declinata con i nuovi Converged Systems 100, progettati per Citrix e per la virtualizzazione dei desktop. Importanti novità arrivano anche dal segmento dello storage, con l’ampliamento della famiglia 3par (nuovo software per lo StoreServe 7450, che ora ha un costo per Terrabyte inferiore del 50% rispetto a sei mesi fa) e con l’introduzione di una nuova generazione StoreOnce, decisamente più competitiva rispetto alla concorrenza. Insomma, per la Whitman e per HP, il “nuovo stile di It”, per citare uno degli slogan ripetuti durante l’evento europeo, prevede una rinnovata dose di aggressività, che non guasta mai.

Nuova vita al software con Relicense Per risparmiare sull’uso di software in azienda non è necessario sconfinare nell’illegalità, rischiando multe salate. L’acquisto di licenze di “seconda mano” in Italia è fenomeno recente, ma su scala globale movimenta un giro d’affari di 2 miliardi di euro, concentrati principalmente in Europa (Svizzera e Germania in testa). Ed è probabile che questi numeri lieviteranno ora che una sentenza della Corte Europea di Giustizia ha sancito la completa legalità di questa pratica. Nata in Germania nel 2008, Relicense dallo scorso dicembre ha avviato ufficialmente le attività nel nostro Paese, con la nomina di Corrado Farina (già in Microsoft, Bt Albacom e KpnQwest) nel ruolo di territory manager. L’azienda tratta principalmente licenze Microsoft e ha recentemente aggiunto all’offerta anche quelle relative alla serie 2013, fra cui Office 2013, Sql Server 2012 e Visio. Per chi acquista, i risparmi vanno dal 40% al 70% rispetto al costo del software nuovo. “Il risparmio è sicuramente il vantaggio più evidente, ma non è assolutamente l’unico”, spiega Farina. “Grazie a Relicense, chi fa ancora uso di sistemi operativi o di applicazioni non recentissime può acquisire nuove licenze in modo totalmente lecito e trasparente, garantendosi così la compliance”. 11


IN EVIDENZA

Imation prende Nexsan e punta sul canale Con l’acquisizione di Nexsan da parte di Imation viene completato un portafoglio d’offerta, nel segmento professionale, che permette alla multinazionale di posizionarsi in modo unico sul mercato, potendo contare su una gamma completa di soluzioni di archiviazione. Nexsan si affianca infatti alla gamma di cartucce a nastro e di dispositivi di memorizzazione sicura per utenti mobili, portando in dote le apprezzate piattaforme scalabili per l’archiviazione su disco dei dati aziendali. “L’acquisizione di Nexsan da parte di Imation rappresenta un entusiasmante passo avanti della nostra trasformazione strategica”, ha dichiarato Mark Lucas, presidente e amministratore delegato di Imation, “perché ci permette di offrire soluzioni molto adatte a mercati connotati da un forte tasso di crescita e di servire in particolare il segmento delle Pmi, con dispositivi e sistemi studiati appositamente per loro”. Con l’acquisizione, Imation non intende snaturare l’offerta di Nexsan, che vanta da qualche anno (fonti della stessa azienda, ndr) fatturato e utili in crescita. L’unico intervento degno di nota è stato il restyling del logo, passato dal colore giallo al rosso (per adeguarsi a quello del gruppo). Per quanto riguarda il business, l’attività commerciale sarà delegata al cento per cento al canale indiretto.

12

| FEBBRAIO 2014

TeamSystem si allarga con Acg Il Gruppo specializzato in software gestionali eredita da Ibm lo storico marchio di soluzioni Erp. Due gli obiettivi: ampliare il target in clientela e sfruttare sinergie sul fronte commerciale e dei prodotti. TeamSystem investe e pensa alle aziende di dimensioni medio-grandi, ampliando e rafforzando la propria offerta e la propria rete commerciale. Lo fa attraverso un’acquisizione, annunciata a fine novembre 2013 e ufficialmente operativa dall’inizio di quest’anno: quella di Acg, storico marchio di Ibm (creato nel 1988) specializzato in soluzioni di Enterprise Resource Planning per le piccole e medie imprese. “Metteremo a fattor comune le reciproche esperienze e capacità, valorizzando al massimo il business e le soluzioni acquisite, continuando a investire nella manutenzione ed evoluzione dei prodotti Acg e nello sviluppo del mercato”, ha promesso Federico Leproux, amministratore delegato di Gruppo TeamSystem. Di cifre non si è parlato, ma TeamSystem ha sottolineato come si tratti della più grande operazione di acquisto sinora realizzata nella storia del Gruppo. Due le motivazioni strategiche alla base di questa mossa: la complementarietà e contiguità delle due offerte da un lato, e le sinergie attivabili a livello commerciale dall’altro. Il target di riferimento di Acg è l’impresa dai 200 ai 2.500 dipendenti, mentre TeamSystem finora si è focalizzata sulle aziende di dimensioni inferiori, medie e piccole. “Si tratta di un investimento industriale importante, alla base del quale c’è una strategia di espansione in un segmento di clientela contiguo a quelli tradizionalmente serviti da TeamSystem”, spiega il direttore business development del Gruppo, Giuseppe Busacca. “TeamSystem è nata per servire il mondo dei professioni-

Giuseppe Busacca, TeamSystem

sti per poi allargarsi anche alle micro, piccole e medie aziende, e oggi fa un ulteriore passo con l’obiettivo di espandere la sua presenza nella fascia più alta del mercato Pmi”. A livello di prodotto, sebbene le due offerte rimangano distinte e complementari, si sta già lavorando per rendere possibile l’eventuale integrazione di moduli TeamSystem all’interno degli Erp di Acg. Quanto alle sinergie commerciali, la rete capillare di business partner di Acg “è uno dei motivi per cui abbiamo voluto questa acquisizione”, sottolinea Busacca. “Potremo anche sfruttare sinergie di vendita, ora che possiamo dire di essere l’unica software house in Italia in grado di servire in continuità tutte le fasce del mondo delle Pmi, dalla microazienda fino a imprese da oltre 2.500 dipendenti”. Un terzo aspetto legato all’acquisizione è il rilancio del marchio Agc, “un marchio importante e storico nel panorama della Pmi italiane”, ricorda Busacca, “che vogliamo rivitalizzare nei contenuti e allo stesso tempo associare al brand TeamSystem”. V. B.


Red Hat: cloud più vicino alle Pmi grazie alle piattaforme Terminata la fase esplorativa, oggi quasi tutti i clienti del vendor stanno passando ad azioni concrete nella nuvola. Le aziende e la Pubblica Amministrazione italiana passano alla fase due: dopo un momento di esplorazione, il cloud è ora oggetto di implementazioni concrete, su piccola o grande scala. A detta di Gianni Anguilletti, country manager di Red Hat Italia, in questo scenario le piattaforme gestionali hanno un ruolo abilitatore poiché rendono più semplice l’adozione e il mantenimento di ambienti di nuvola. A che punto sono le aziende italiane nell’adozione del cloud?

Negli ultimi dodici mesi l’interesse si è fatto decisamente più concreto, passando da una fase esplorativa, fatta di progetti pilota, a una decisamente più concreta, con il lancio di veri e propri ambienti di produzione. A oggi quasi tutti i nostri principali clienti, sia in Italia sia a livello mondiale, hanno in cantiere infrastrutture di tipo cloud e molti di essi sono già in produzione. Da evidenziare come questo tipo di progetti, per esprimere appieno il loro potenziale, necessitino di un supporto consulenziale.

C’è qualche case history italiana?

Oggi praticamente tutti i nostri maggiori clienti stanno utilizzando o rivisitando, in diversa misura, le nostre tecnologie in ottica cloud. Alcune implementazioni sono degne di nota, come quelle di un’azienda leader nei servizi informatici per il settore bancario e le istituzioni finanziarie che, avendo compreso i vantaggi offerti dall’Open Hybrid Cloud, ha abbracciato totalmente questo tipo di approccio. E si è dotata di uno stack open source completo, composto da Red Hat Enterprise Linux per il sistema operativo, Red Hat Enterprise Virtualization come layer di virtualizzazione tradizionale, CloudForms per la gestione di ambienti cloud eterogenei, Red Hat OpenStack per i servizi di nuova generazione erogati tramite IaaS, e Red Hat OpenShift per gli ambienti di sviluppo agili offerti tramite PaaS.

tà di CloudForms di gestire ambienti di virtualizzazione eterogenei permette di far leva sugli investimenti già effettuati anche su piattaforme come vSphere o HyperV, affiancando a esse uno stack open source e mantenendo un unico strumento di gestione che accompagni il cliente verso il cloud, senza vincolarlo ad alcuna tecnologia sottostante. La possibilità di gestire, sempre con un unico strumento, anche ambienti di public cloud come Amazon AWS o sistemi di Infrastructure-as-a-Service come OpenStack, costituisce davvero un elemento di massima libertà di scelta. Il tutto senza dimenticare la copertura funzionale, l’innovazione e i vantaggi in termini di costi, da sempre prerogativa dei prodotti open. Valentina Bernocco

Che ruolo hanno le piattaforme di gestione, come la vostra CloudForms?

Hanno ridotto in modo significativo le barriere all’entrata: in realtà è la strategia “Open Hybrid Cloud”, che costituisce il cuore della proposizione Red Hat in ambito cloud, ad aver abbattuto notevolmente le difficoltà di ingresso. Solo per citare uno dei tanti vantaggi, la capaci-

Gianni Anguilletti, Red Hat Italia

Linux alla riscossa: lo scelgono otto aziende su dieci L’open source non è più una scelta “alternativa”, bensì una filosofia di massa. Secondo una ricerca condotta dalla Sda Bocconi School of Management, l’83% delle realtà italiane ha già adottato soluzioni basate su software libero, percentuale che sale all’89% se si

considerano le intenzioni future. Ed è significativo che in tre casi su quattro (77%) le tecnologie open siano sfruttate in ambienti mission critical. Paolo Pasini, head dell’Unità Sistemi Informativi e docente della Sda Bocconi, ha spiegato che “rispetto al passato, quando le aziende consideravano le tecnologie aperte un’alternativa volta ad abbattere i costi It, oggi si è riscontrato un importante cambiamento: si cercano nell’open

source altri benefici, sia tecnici sia manageriali”. In particolare, la volontà di liberarsi dal cosiddetto “effetto lock-in”, che impone il ricorso alle tecnologie di un determinato fornitore. Dati simili emergono da un’indagine di Suse, realizzata su duecento professionisti It di organizzazioni grandi e medie: l’83% di queste realtà ha già adottato Linux per i propri server e oltre il 40% lo sta usando come sistema operativo primario. 13


IN EVIDENZA

Il monito di Check Point: serve un approccio nuovo Botnet, vulnerabilità software, applicazioni usate senza permesso e perdita di dati sono alcuni fra i rischi che più minacciano le aziende. La soluzione è una sicurezza costruita su misura, sovrapponendo diversi elementi, in base alle esigenze del cliente. La sicurezza non è un blocco unico, ma una costruzione da personalizzare, strato dopo strato. Proprio di “layer”, strati, parla Check Point Software Technologies nel descrivere l’approccio che, a suo dire, oggi può offrire maggiori garanzie alle aziende. “È necessario che le aziende segmentino i propri network”, ha spiegato il presidente della società, Amnon Bar-Lev, durante il suo recente passaggio italiano, tappa del Check Point Security Tour del novembre scorso. “Oggi le reti sono diffuse ovunque, non ci sono confini chiari, per via del cloud e del mobile. Bisogna dunque segmentare le reti, in modo da poter capire quale sia l’area problematica e contenere eventuali rischi in corso. Il secondo principio da seguire è la prevenzione, perché la detenction da sola non basta. E il terzo è quello della protezione multi-layer, che moltiplica la possibilità di risolvere i problemi”. Problemi che oggi derivano da diversi tipi di attività cybercriminali. Tra i fenomeni in ascesa c’è quello delle botnet, che secondo i monitoraggi eseguiti da Check Point oggi colpiscono oltre il 60% delle aziende; inoltre, durante

un periodo di osservazione durato tre mesi, il vendor ha potuto verificare che il 75% delle organizzazioni è entrato in contatto con siti malevoli, mentre il 54% ha avuto almeno un episodio, effettivo o potenziale, di perdita di dati. Rispetto alla botnet, gli strumenti proposti nell’approccio multi-livello di Check Point sono tecnologie anti-bot, programmi antivirus e il Threat emulation, un motore cloud-based che sfrutta una sandbox per individuare i rischi ancora sconosciuti. Altro pericolo è rappresentato dalle applicazioni Web utilizzate senza permesso dai dipendenti: “Abbiamo scoperto che il 61% delle aziende da noi monitorate ha rilevato applicazioni di peer-to-peer installate”, ha sottolineato Bar-Lev. In questo caso gli strumenti di difesa proposti dal vendor sono l’Url filtering, che evita l’accesso a siti pericolosi, e l’application control, che blocca le applicazioni Web non sicure. Altro problema sono gli exploit che sfruttano le debolezze di applicativi di largo impiego: ogni anno vengono a galla circa 5mila nuove vulnerabilità software, ma il dato più preoccupante

Amnon Bar-Lev, Check Point Software Technologies

(legato non tanto al cybercrimine, ma alla negligenza delle aziende) è che il 53% dei sistemi che ospitano questi software non hanno a bordo la versione più aggiornata. La proposta multistrato di Check Point sovrappone la tecnologia di Urlf (il filtraggio degli indirizzi Internet, che evita l’accesso a siti maliziosi) e l’application control (previene l’uso di applicazioni Web rischiose). “Il 54% delle organizzazioni perde dati”, conclude Bar-Lev, citando l’ultima fra le grandi minacce pendenti sulle oganizzazioni, “e sono di ogni genere: numeri di carta di credito, codice sorgente, informazioni sulle paghe ai dipendenti, numeri di account bancari, business data record e via dicendo”. Check Point propone tecnologie di Data Loss Prevention (impediscono che i dati siano mandati ai destinatari sbagliati), di crittografia degli hard drive, dei supporti di storage removibili e dei documenti. V. B.

McAfee: fine di un marchio, ma non dei suoi prodotti Del legame con il suo fondatore, uscito dall’azienda a metà degli anni Novanta, da tempo a McAfee era rimasto soltanto il nome. Ed era giunto il momento che questo nome cambiasse, a rimarcare non più il passato bensì l’attuale appartenenza dell’offerta a Intel, azienda 14

| FEBBRAIO 2014

che nel 2010 ha acquisito la società di sicurezza un tempo proprietà di John McAfee (oggi suo denigratore), pagandola7,68 miliardi di dollari. Presentato il mese scorso dall’amministratore delegato di Intel, Brian Krzanich, il nuovo brand “Intel Security” mantiene

un richiamo al marchio precedente attraverso il simbolo della “M” racchiusa nello scudo rosso. D’ora in poi sarà utilizzato per identificare i prodotti e servizi di sicurezza Intel, e progressivamente andrà a inglobare anche tutti i prodotti McAfee.


Lenovo punta anche al trono dei server x86 A otto anni dall’acquisizione della divisione dei personal computer, il produttore cinese rileva da Ibm, per 2,3 miliardi di dollari, anche i prodotti destinati ai data center. Era metà gennaio quando Ibm presentava alla stampa italiana la sesta generazione della sua X-Architecture dedicata ai server System x, confermando il proprio impegno nello sviluppo di soluzioni a tecnologia x86 e assicurando ai clienti (con la nuova roadmap) la protezione degli investimenti già effettuati. Dieci giorni più tardi, e precisamente il giorno 23, arrivava l’annuncio dell’accordo definitivo raggiunto con Lenovo per la vendita della divisione x86. L’operazione sarà perfezionata per un controvalore di 2,3 miliardi di dollari (di cui due miliardi in contanti e il resto in azioni Lenovo) e prevede la cessione delle famiglie dei prodotti server e switch System x, BladeCenter eFlex System, i sistemi integrati Flex e le linee NeXtScale e iDataPlex con relativi software. Dell’accordo fanno parte anche i 7.500 dipendenti di Big Blue della divisione, che dovrebbero essere assorbiti. A Ibm rimarranno, invece, i mainframe System z, Power Systems e Storage Systems, i server Flex basati su architettura Power e le appliance hardware PureApplication e PureData. Nei suoi laboratori continueranno a essere sviluppati i software per la piattaforma x86 dedicati ai sistemi operativi Windows e Linux.

mancato di salutarlo come un’operazione che alimenterà la crescita profittevole della società e che ne estenderà la strategia denominata “Pc Plus”, che abbraccia anche i tablet e i notebook trasformabili. Per quanto eclatante, la vendita dunque era nell’aria da tempo, e prova ne siano le voci che appena prima dell’annuncio vedevano come papabili acquirenti sia Dell sia Fujitsu. Da parte di Lenovo, per contro, il giugno scorso era stato lo stesso Ceo a dichiarare pubblicamente come l’obiettivo a tre anni per la società fosse quello di conquistare una quota di mercato nei server compresa fra il 5 e il 10%, rispetto al 2,6% di share vantato a fine 2012. E l’acquisizione di Ibm va ovviamente in questa direzione, sebbene il business dei sistemi x86 sia da tempo in flessione. A fine 2013, in ogni caso, Big Blue era ben posizionata sul terzo gradino del podio nelle vendite a valore, sotto a Hewlett-Packard e a Dell, catturando circa il 10% del giro d’affari globale di questo segmento. Lenovo, per contro, non risultava (secondo i dati di Idc) nella top 10 della classifica mondiale. Strategie a confronto

Per il primo vendor di personal computer al mondo, la cui scalata si può

far partire dal 2005 (anno in cui Lenovo rilevò da Ibm la divisione pc ThinkPad), si tratta ora di trovare le giuste alleanze con i produttori di software di classe enterprise, quali Oracle, Vmware e altri. Dopo aver stretto con Emc un importante sodalizio sul fronte storage, il prossimo passo a detta degli analisti sarà quello di creare un vero e proprio ecosistema di soluzioni e di partner, che sia appetibile per le grandi aziende. È evidente, in ogni caso, come la mossa della casa asiatica sia un guanto di sfida lanciato verso Dell e HP nel mercato dei server di fascia medio-bassa. E Lenovo, in tal senso, può mettere in campo ottime capacità produttive e un canale di vendita ben rodato. Dal punto di vista di Ibm, invece, l’accordo si inserisce nella strategia finalizzata a riorganizzare il portfolio d’offerta attorno ai prodotti enterprise a maggior valore aggiunto. A tal proposito vanno ricordati gli annunci di inizio anno relativi agli investimenti che la società di Armonk ha pianificato per l’evoluzione in chiave servizi del supercomputer Watson (oltre un miliardo di dollari) e per insediare 15 nuovi data center in cinque continenti a supporto della propria offerta cloud (altri 1,2 miliardi di dollari). Gianni Rusconi

Alcuni modelli di server x86 della famiglia System x di Ibm

Un deal annunciato

L’accordo è stato trovato dopo che l’anno scorso il deal fallì per divergenze legate al prezzo di acquisto. Il Ceo di Lenovo, Yang Yuanqing, non ha 15


SCENARI | Big Data

NON CI SARANNO GRANDI DATI SENZA GRANDI SPECIALISTI

Carmine Stragapede, Intel

Anche Intel punta ai Big Data ma, grazie al suo ruolo "istituzionale", può permettersi di dettare alcune regole fondamentali per usarli bene. E rivela che il fattore umano è ancora il più importante per il successo della tecnologia.

D

alla sua posizione privilegiata di fornitore di tecnologie e soluzioni di base, Intel osserva il fenomeno dei Big Data con un approccio laico. “Dalla Pubblica Amministrazione al retail”, dice Carmine Stragapede, enterprise market director per il Sud Europa di Intel, “non c’è settore di mercato che non beneficerà dell’analisi dei Big Data. In tempo reale, le organizzazioni potranno conoscere il comportamento e le preferenze dei loro clienti per fidelizzarli meglio, oppure catturarne di nuovi grazie a campagne tempestive e mirate”. Questo salto quantico, però, non ha bisogno solo di silicio, ma anche di regole chiare, per non esplodere in una bolla di sapone come alcuni promettenti ma sfortunati paradigmi dell’It. Così, Intel ha elaborato il Data Society Manifesto, un documento che riassume i passi irrinunciabili per avere successo con le tecnologie dei Big Data. Molti di questi step prendono in considerazione, e qui sta l’aspetto più sorprendente, il fattore umano. Il primo consiglio, infatti, è di coinvolgere e convincere gli esperti di analisi e statistica: i tecnici It dovrebbero guadagnar16

| FEBBRAIO 2014

si l’attenzione dei “rivali” elaborando previsioni insieme a loro, e mostrando come l’unione dell’esperienza umana e della capacità di calcolo delle macchine sia la vera arma vincente. Il secondo punto è la promozione dell’attività di condivisione dei dati: gli open data (che in Italia stanno diventando una realtà) permetteranno alle piccole imprese e alle strutture di ricerca di accedere ad anonime ma preziose informazioni. Il terzo fattore è la crescita della cultura analitica e statistica e, più in dettaglio, la promozione della figura del “data scientist”. Oggi sono ancora pochi, e non possono reggere l’urto della grande domanda di analisi e previsioni che sta montando in tutto il mondo e in tutti i settori di mercato. D’altra parte, e questo è il quarto punto, gli strumenti di analisi devono diventare anche più facili da usare, in modo che anche i manager di business e non solo gli uomini It possano approfittarne. Il quinto punto riguarda la sicurezza, un aspetto ormai trasversale in ogni nuovo fenomeno digitale (si pensi alla mobilità o al cloud computing). Secondo Intel va inserita in ogni progetto Big Data a partire dai primissimi passi, non

può essere considerata solo a posteriori. Il sesto punto del Data Society Manifesto è forse uno dei più provocatori: proprio la proliferazione dei dati non permetterà di archiviarli tutti. Meglio fare selezione da subito e non tentare nemmeno di tenerli per sempre. La “regola” numero sette è fondamentale: conquistare la fiducia dei consumatori circa le policy di privacy. Non ci sarà futuro per i Big Data se l’atteggiamento dei clienti sarà poco collaborativo. Il fattore umano regna anche nell’esposizione dell’ottavo punto: mai dimenticarsi che i dati rappresentano persone reali, ed evitare di usarli come se non si avesse di fronte il proprietario. Nono e ultimo punto: regolamentare l’uso e prevenire l’abuso dei dati. Insomma, proprio dai guru della tecnologia arriva un monito: l’uomo viene sempre prima delle macchine.


PER FAR FRUTTARE I BIG DATA SERVONO COMPETENZE La spesa delle grandi aziende italiane in soluzioni di Big Data analytics e di Business Intelligence è in sensibile crescita. Latitano, però, veri progetti dedicati. E i Cio devono vincere subito la sfida della governance.

Q

uanto sono “big” i Big Data in Italia? Il fenomeno è tra le voci più in fermento nella pancia delle aziende nostrane, pur in un anno di generale contrazione della spesa Ict, la cui frenata nel 2013 è dell’ordine del 4% rispetto all’anno precedente. In un panorama avaro di indicazioni positive per l’industria dell’informatica, la spesa per i sistemi e le soluzioni di analytics e di business intelligence è accreditata invece di una crescita media del 22% anno su anno. E non solo. Stando all’Osservatorio redatto dalla School of Management del Politecnico di Milano, il 42% dei Cio dichiara di voler aumentare gli investimenti in queste tecnologie (solo il 14% intende rivederli al ribasso) destinando la gran parte del budget disponibile, in modo equamente ripartito, all’acquisto di nuove licenze software, di servizi di integrazione e di hardware dedicato (server e apparati di storage e networking). Solo il 3% della spesa è invece finalizzato ai servizi cloud. Parliamo sicuramente di un mercato concentrato nelle grandi imprese, quelle più mature nell’adozione di soluzioni Ict e quelle con una maggior mole e tipologie di dati da trattare. È comunque incoraggiante il fatto che il 91% di un campione di 450 decision maker italiani (censiti da Emc) riconosca come un utilizzo più efficiente dei dati aziendali sia un fattore chiave per prendere decisioni di business maggiormente efficaci. E che il 40% confermi di aver già ottenuto un vantaggio competitivo grazie ai Big Data. Per contro, il principale elemento che blocca l’adozione di questa “tecnologia” in azienda è un Roi (Return of in-

BDA&BI

Ict - 4%

Distribuzione spesa Ict in sistemi di BDA&BI

+ 22%

Networking 44%

15%

4 % 3% 27%

9% 5%

Servizi cloud

Servizi di integrazione

TREND

Crescita sostanziale (>25%) Crescita moderata (<25%) Stabilità (+/-3%) Diminuzione moderata (<25%) Diminuzione sostanziale (>25%)

32%

Licenze softwa re

31%

13%

17%

Server

Storage

La variazione del Budget Ict e BDA&bi

vestment) poco chiaro, indicazione che lascia trasparire i (tanti) dubbi che ancora assillano i Cio e le aziende nel fare proprio questo paradigma. Il rovescio della medaglia

Anche le evidenze emerse dall’Osservatorio presentano, del resto, una doppia anima. Da un lato risultano in crescita un po’ tutte le attività che ruotano intorno ai dati: raccolta, analisi, monitoraggio dei social, valutazione delle informazioni non strutturate e intelligenza predittiva. Dall’altro solo nel 19% dei casi si può parlare a pieno titolo di Big Data, e cioè di progetti in cui la quantità di informazioni da gestire è tale da rendere inefficiente il ricorso a database tradizionali e da richiedere sistemi di memorizzazione scalabili. La sensazione di fondo è che la maggior parte delle aziende e delle amministrazioni pubbliche siano solo all’inizio dell’iter che porta ai veri “grandi dati” e al miglioramento dell’efficienza e della competitività attraverso gli analytics.

Le criticità per i Cio

Se le potenzialità dei Big Data appaiono fuori discussione, altrettanto certe sono le complessità legate alla loro gestione. Compito vitale, per qualsiasi azienda, è in tal senso quello di predisporre i sistemi di analytics per la trasformazione e integrazione di dati di diversa natura, e insieme quello di comprendere come usare strategicamente i dati stessi in funzione del business. Che cosa serve, in parole povere, alle organizzazioni? Gli esperti non hanno dubbi: una governance coordinata, che permetta di raggiungere benefici quantificabili e di lungo periodo. Ma serve, nel contempo, anche la capacità di stare al passo con l’aumento di competenze richieste alle figure deputate a gestire i Big Data, i cosiddetti data scientist. Professionisti che devono esibire non solo capacità informatiche, statistiche e di processo ma anche doti di demand management nei confronti delle linee di business. P. A. 17


SCENARI | Mobilità

SORRIDI, SEI IN MOBILITÀ Secondo CA Technologies chi implementa strategie di mobility soddisfa di più clienti e dipendenti.

M

obile uguale soddisfatto. Questo, in sostanza, il risultato di una ricerca realizzata da Vanson Bourne per conto di CA Technologies e riferita ai vantaggi percepiti dagli It manager nei confronti di dipendenti e clienti delle aziende che adottano strategie di “Enterprise Mobility” in modo organico. Anticipando le conclusioni dello studio, intitolato TechInsights Reports: Enterprise Mobility – It’s All About the Apps, si può dire che poiché tutti noi passiamo molto tempo in situazioni di mobilità (tipicamente nei trasferimenti casa-ufficio e viceversa) e usiamo sempre più spesso dispositivi portatili, troviamo utile ed efficace poter usufruire di servizi pensati per funzionare attraverso questi strumenti. Così, anche se può sembrare scontato, hanno risposto i 650 responsabili It di altrettante aziende (tra cui 75 italiane) interpellate da Vanson Bourne, evidenziando come il 45% delle organizzazioni abbia già adottato o adotterà a breve una strategia di “mobility” e anche, scendendo un po’ più nel dettaglio, che nella maggior parte dei casi (il 76%) la strategia sia declina nello sviluppo di app rivolte a clienti e dipendenti. I vantaggi di queste strategie sembrano già chiari e misurabili: le aziende che le hanno adottate hanno registrato un aumento del livello di soddisfazione del cliente del 27%, e un incremento della produttività dei dipendenti del 29%. Non tutti, però, ce la fanno. Molti trovano ostacoli a livello di budget (e la cosa non sorprende, visti i tempi che corrono), altri si fermano di fronte alla 18

| FEBBRAIO 2014

paura di non poter garantire privacy e sicurezza, altri ancora non trovano la necessaria collaborazione degli altri reparti aziendali. Manco a dirlo, questi tre ostacoli sono percepiti in modo particolare dalle aziende italiane. Tanto per fare un esempio, i problemi di budget vengono citati dal 49% degli intervistati, contro il 30% della media europea. “È positivo che i responsabili It italiani

vedano grandi opportunità nelle strategie di mobility”, dice Luca Rossetti, senior business technology architect di CA Technologies, “mentre gli ostacoli apparentemente alti che impediscono di realizzarle sono facilmente superabili ricorrendo all’approccio olistico proposto da CA, che comprende, tra le altre cose, la metodologia DevOps per incrementare la collaborazione tra reparti aziendali diversi”.

Con DevOps si risparmiano tempo e soldi Il mondo di DevOps è relativamente nuovo per Ca Technologies, che ha iniziato a occuparsi di pre-produzione “solo” due anni fa. Ma questo segmento è considerato dalla multinazionale come uno dei tre assi di crescita più importanti nel prossimo quinquennio, insieme al cloud e alla mobilità. La strategia DevOps sviluppata da CA promette di accorciare drasticamente i tempi di rilascio delle app (lo sviluppo delle quali, per inciso, dovrebbe assor-

bire il 50% del budget It delle grandi imprese nel medio periodo), armonizzando e coordinando le attività di sviluppo e di produzione/esercizio, che di solito operano in modo asincrono con grande spreco di risorse e di tempo. Anche in questo caso, una ricerca condotta da Vanson Bourne su 1.300 responsabili It ha evidenziato come in Italia le aziende che adottato la metodologia DevOps abbattano del 30% i costi di sviluppo.


SCENARI | Cloud computing

CLOUD: IN ITALIA SI PUNTA A TRIPLICARE ENTRO IL 2015 Uno studio del Boston Consulting Group, confortato anche da altre stime, indica che nei prossimi due anni in Italia il mercato dell'informatica sulle nuvole esploderà. Coinvolgendo anche le piccole e medie imprese.

I

servizi di email e storage backup nel cloud sono ormai entrati in molte aziende (anche medie), tanto che su questo fronte gli esperti parlano quasi di una maturità di questo segmento. Le imprese conoscono i provider e sono in grado di confrontare prezzi e servizi, di videocomunicazione e collaboration in primis. Altre soluzioni “as a service” con una maggiore criticità per i sistemi informatici, invece, registrano una minore diffusione e fra queste ci sono Crm e analytics e soprattutto document & content management. La fotografia scattata da Anfov sullo stato del cloud in Italia ritrae una sorta di cantiere aperto, con esempi tangibili di trasformazione di ambienti It in atto nel segno del computing nella nuvola. E non solo con l’idea di ridurre i costi di gestione, anche se la significativa crescita della domanda di servizi di cloud pubblico (Idc parla di un aumento del 25% per il 2014, mentre si ferma al 18% l’incremento del private cloud) sembra andare proprio in questa direzione. Anche i dati raccolti dall’Osservatorio Cloud & Ict as a Service del Politecnico di Milano inducono a pensare che molti imprenditori vedano nella nuvola uno strumento per ridare brio al “motore”

della propria impresa. La spesa per le soluzioni e i servizi cloud, pubblici e privati, cresce in una grande azienda (oltre 250 addetti) su due; la maggiore propensione a investire interessa anche il 40% delle Pmi. Il trend è quindi positivo e si specchia in un mercato che nel 2013 ha sviluppato un giro d’affari da 493 milioni di euro (di cui però solo 21 milioni arrivati dalle medie e piccole imprese), con una crescita dell’11% rispetto all’anno precedente. “La vera esplosione”, secondo Fabrizio Pessina del Boston Consulting Group, “si avrà entro il 2015, quando il mercato italiano varrà circa 1.400 milioni di euro e quando anche le Pmi avranno il loro peso”. “Finalmente il cloud è sostenibile”, gli

fa eco Giovanni Ravasio, application country leader di Oracle Italia, “lo osserviamo tutti i giorni parlando con i nostri clienti: il 70% dei business leader a livello mondiale è convinto che la nuvola sia il modo migliore per incrementare i livelli di agilità e innovazione e per rimanere quindi competitivi”. Tutto bene dunque? Non esattamente. Nonostante i numeri siano incoraggianti, il cloud computing in Italia rappresenta circa il 3% della spesa It complessiva, e nelle imprese più piccole è presente ancora a macchia di leopardo. Una ricerca Microsoft-Ipsos Mori rivela che il 53% delle piccole aziende italiane ritiene il cloud sempre più importante per il proprio successo. Peccato che il 42% di esse non possieda un It manager. 19


SCENARI | Cloud computing

I DATI CRITICI DELLE BANCHE ITALIANE NELLA NUVOLA IRLANDESE Nei data center Microsoft di Dublino e di Amsterdam sono archiviate decine di terabyte di informazioni appartenenti a Credito Valtellinese. Ecco come vengono protette e gestite, ed ecco perché la scelta di portarle extra confine è legata all’infrastruttura It dell’azienda.

U

n asset strategico per la crescita dei servizi cloud di Microsoft in tutta la regione Emea. Questo il ruolo del data center di Dublino della società nordamericana, struttura per cui è stato ratificato lo scorso novembre un piano di ampliamento da 170 milioni di euro. Qui sono appoggiate le soluzioni nella nuvola destinate al mercato europeo, da Office 365 a Skype, da Xbox Live alla piattaforma Windows Azure. Qui sono stivati, anche, i dati di migliaia di aziende, società finanziarie e banche, e le informazioni relative alle migliaia di clienti di queste ultime. Credito Valtellinese è una delle realtà italiane che si è affidata allo storage “in the cloud” di Azure per archiviare i dati (parliamo di diverse decine di terabyte) che la legge italiana obbliga a conservare per dieci anni. Il modello operativo seguito dall’istituto di credito lo riassume efficacemente Luigi Crocco, responsabile divisione architetture operative della sussidiaria Bankadati Servizi Informatici: “Nei nostri data center di Sondrio e Milano effettuiamo il backup e la crittografia dei dati, in maggior parte non strutturati e pre compressi, poi 20

| FEBBRAIO 2014

li inviamo via rete Vpn protetta da protocollo Ssl alle strutture di Microsoft a Dublino e Amsterdam liberando risorse dai nostri centri dati, che vengono di conseguenza focalizzati sulle attività core dell’azienda”. La componente integrazione

Perché, per evitare qualsiasi rischio, i dati sensibili di Credito Valtellinese non sono finiti nel data center di un provider italiano? La risposta a questa domanda spiega come la questione della tutela e della governance delle informazioni abbracci molteplici aspetti, legati a doppio filo alle modalità con le quali le aziende bancarie, e non solo, processano asset per loro strategici (le informazioni dei clienti) all’interno dei propri sistemi informativi. “Spostare i dati in modo sicuro nella cloud”, dice Crocco, “è parte di un processo fortemente integrato con l’architettura informatica dell’azienda. Il nostro data center è basato su tecnologia Microsoft e i database sono Sql: utilizzare la nuvola di Azure ci permette una gestione dei dati trasparente e priva di complessità. Abbiamo fatto una selezione di ordine tecnologico, valutando la

soluzione che ci garantiva meno sforzi in fatto di integrazione. Se fosse stato possibile, avremmo ovviamente sfruttato anche la componente vicinanza”. Le piattaforme cloud di Telecom o di Aruba non avrebbero assicurato altrettante facilitazioni in termini di integrazione; un data center Microsoft in Italia non c’è, ed ecco spiegato perchè i dati dei clienti di Credito Valtellinese viaggiano verso Dublino e Amsterdam nel rispetto dei parametri fissati dalla normativa Ue, che impone la conservazione delle informazioni sensibili all’interno dei confini comunitari. E la garanzia che queste informazioni non vengano spostate in altri centri fuori dall’Europa? Non sembra costituire un problema. “Quando inviamo i dati”, conferma ancora Crocco, “abbiamo la certezza che le informazioni siano replicate fra i due data center perché Microsoft è chiamata a rispettare precisi parametri di service level agreement, e ci assicura la totale accessibilità e reversibilità del dato, la cui proprietà è nostra: noi lo rendiamo sicuro, solo noi ne conosciamo il contenuto e lo gestiamo come meglio opportuno nel rispetto di quanto prevede la legge”. Gianni Rusconi


INTEL, DELL E ARUBA INSIEME PER IL CLOUD COMPUTING PRÊT-À-PORTER Una partnership tra la multinazionale dei microprocessori, il fornitore globale di piattaforme e il provider italiano per offrire alle medie imprese un servizio completo e configurabile addirittura tramite smartphone.

C

he cosa succede mettendo insieme il re dei microchip, un leader nel mercato dei server e un dinamico provider nazionale che gestisce alcuni moderni data center? Che ne viene fuori un curioso ma efficace mix di competenze, in grado di portare le meraviglie del cloud computing fino alle porte delle medie (ma anche piccole) imprese italiane. Così, lo strano terzetto, interpretato da Intel, Dell e Aruba, ha stretto un’alleanza che ha tutte le carte in regola per riuscire a sdoganare il cloud computing anche in quelle realtà che fino a oggi hanno resistito. “Il cloud computing è un paradigma talmente importante per noi”, dice Carmine Stragapede, enterprise market director per il Sud Europa di Intel, “che abbiamo fissato alcune regole per noi e i nostri partner, tra cui quella per cui l’erogazione dei servizi deve essere automatizzata, vale a dire che l’utente deve poter attivare nuove risorse in modo autonomo e con pochi clic, e che queste risorse devono poter essere riallocate in

modo facile e trasparente per l’utente”. Intel e i suoi partner si sono spinti anche oltre, realizzando un’app, disponibile nel Windows Store, con la quale gli utenti possono configurare e gestire i servizi nel cloud attraverso qualsiasi dispositivo mobile (in ambiente Windows). Dotata di un’interfaccia intuitiva, l’applicazione consente di avere una visione immediata dello stato della propria infrastruttura nel cloud e apportarvi modifiche, come per esempio accendere o spegnere una virtual machine. “L’idea di unire tre competenze così diverse”, dice Stefano Sordi, direttore marketing di Aruba, “nasce dall’esigenza dei clienti, anche di livello enterprise, di poter avere a disposizione un servizio completo, che fa riferimento a data center strutturati, come quelli che noi mettiamo a disposizione sul territorio italiano (ma ce ne sono anche all’estero) e che rispettano le più stringenti norme internazionali di operatività e sicurezza, unitamente alle competenze di gestione di queste infrastrutture”.

“Abbiamo fatto con Aruba e Intel in Italia quello che facciamo in tutto il mondo”, dice Fabrizio Garrone, solution manager di Dell Italia, “vale a dire mettere a disposizione dei provider di servizi in cloud le nostre soluzioni tecnologiche. Siamo anche in grado di intervenire direttamente presso gli utenti finali in caso la loro architettura ideale consista di una parte virtualizzata nel cloud e di una parte fisicamente presente in sede, realizzando così configurazioni ibride. Di recente, infatti, abbiamo presentato un prodotto molto interessante anche per le Pmi, denominato Vertex ma più comunemente chiamato Data Center in a Box, che offre tutte le risorse di un vero data center ma che sta comodamente sotto una scrivania”. Grazie alla partnership tra Intel, Dell e Aruba, la gamma di soluzioni erogate in cloud, anche in formula ibrida, è talmente vasta che non può non adattarsi a qualsiasi esigenza, e ora è anche facilmente accessibile. Piccoli e medi imprenditori non hanno più alibi.

21


TECHNOPOLIS PER ZYCKO

L’INFRASTRUTTURA SICURA GARANTISCE IL BUSINESS

Se a livello superficiale si può pensare che le soluzioni di sicurezza It abbiano un ruolo complementare e accessorio, con un’analisi più accurata ci si accorge che non è così. Alla base del business c’è sempre, o quasi, un’infrastruttura It solida, a volte complessa e indispensabile per la garanzia della continuità aziendale. E per la continuità di guadagno. L’infrastruttura It acquista un valore maggiore, meno di contorno, e diventa patrimonio It. Ed anche il termine “sicurezza” perde il significato tradizionale e assume responsabilità più marcate. Quanto business potreste garantire a Pc spenti o inutilizzabili? Quanto stimereste di poter perdere, se la piattaforma Web di e-commerce che utilizzate per la vendita dei vostri prodotti e servizi non fosse disponibile per un’intera giornata? Abbandonando ogni tono allarmista, il mercato offre tutte le soluzioni che permettono l’implementazione di un’infrastruttura It sicura, protetta e performante, che

Non solo sicurezza, ma anche continuità

22

| FEBBRAIO 2014

possa garantire continuità e serenità alle aziende e ai loro dipartimenti It. Forse, l’unico inconveniente rimane proprio l’elevata offerta, che si traduce in un ostacolo per l’identificazione e l’adozione rapida delle soluzioni di cui si ha bisogno. “Zycko è il distributore internazionale a valore aggiunto”, sottolinea Piera Loche, managing director di Zycko Italia, “che si propone come intermediario nei processi di scelta, con un qualificato lavoro di due diligence che si completa con l’offerta delle migliori tecnologie, definite best in class sul mercato, ovvero leader nei rispettivi settori di appartenenza. Oltre a questo, garantiamo piena interoperabilità con qualsiasi infrastruttura esistente e offriamo supporto per l’analisi delle esigenze e la completa installazione”. “In ambito di sicurezza tradizionale, Barracuda Networks è la nostra scelta”, prosegue Loche. “Con prodotti avanzati come Barracuda Spam Firewall, Barracuda Web Filter e Barracuda Firewall, Barracuda Networks protegge l’infrastruttura It da attacchi malevoli via mail, Web e istant messaging.” Inoltre le soluzioni Barracuda Networks si contraddistinguono per essere implementabili semplicemente (si parla di 15 minuti) e per ricevere aggiornamenti in tempo reale. Riguardo quest’ultimo punto, è altresì interessante il Barracuda Central, una base operativa 24/7 che raccoglie informazioni da tutte le appliance installate, per il riconoscimento dei nuovi tipi di “attacchi” e per la distribuzione rapida degli aggiornamenti eventualmente necessari. Le soluzioni Barracuda Networks offrono ben oltre quanto si possa raccontare. Per provarle è sufficiente richiedere una evaluation gratuita di 30 giorni senza impegno. Una bella comodità per avere sicurezza di infrastruttura e sicurezza d’investimento.

Riverbed Technology è la performance It company resa famosa dalle sue soluzioni di ottimizzazione del traffico di rete, ma nel corso del tempo, tra expertise e acquisizioni, il portfolio di offerta si è arricchito. Riverbed Performance Management è la suite di prodotti per il monitoraggio e la visibilità di rete a livello profondo, utile per avere un’immagine chiara di cosa succede nella propria infrastruttura, in qualsiasi momento. Si potrebbe dire che una soluzione di questo tipo semplifichi l’individuazione delle problematiche It per una pronta risoluzione, ma forse impressiona di più sottolineare come sia possibile evitare i problemi di rete ancor prima che si manifestino, senza ripercussioni a livello utente e senza paralisi nella routine produttiva. Grazie a un sistema di alert riceverete informazioni mirate che vi possano in guardia quando i valori di performance abituali si avvicinano a livelli fuori standard. Sarà facile, così, per i dipartimenti It avere una lista di priorità operative.


SCENARI | Sicurezza

QUANTO TI FIDI DEL TUO IT? Emc e Vanson Bourne studiano a livello mondiale la relazione tra fiducia nella propria infrastruttura tecnologica e propensione ad adottare le soluzioni più innovative, come il cloud computing e i Big Data. I risultati? La Cina è leader, mentre in Italia c’è ancora molta strada da fare.

Massimo Vulpiani, Rsa Italia

C

arenza di budget o mancanza di fiducia? Uno studio realizzato a livello mondiale da Vanson Bourne per conto di Emc ha evidenziato come l’adozione di tecnologie avanzate per la sicurezza dei sistemi It non sia solo una questione di vil danaro, ma dipenda anche da una sorta di pericoloso circolo vizioso in cui la riduzione degli investimenti ha portato all’aumento del numero di “incidenti” e, di conseguenza, a un’aspettativa più bassa da parte dei manager. Poiché, al contrario dei responsabili aziendali, il fato e gli hacker non dormono mai, il rischio concreto è che le aziende e più in generale le organizzazioni abbassino la guardia, mettendo in pericolo la continuità del business e la riservatezza delle informazioni. Ma andiamo con ordine: la ricerca di Vanson Bourne ha preso in esame le risposte di 3.200 decisori It di 16 diverse nazioni, misurando in modo inequivocabile il grado di adozione delle soluzioni più innovative (cloud, Big Data, social network e mobility) e la fiducia che questi responsabili hanno nella loro capacità di contrastare le minacce di malfunzionamenti e attacchi. Il risultato dello studio è una “curva di maturità dell’It”, che traccia in modo sintetico lo status quo dell’information technology mondiale. Lo studio ha evidenziato che il Paese più

L’indice di maturità calcolato da Vanson Bourne in relazione al settore di mercato SERVIZI FINANZIARI TECNOLOGIA SETTORE PUBBLICO MANIFATTURIERO PRODOTTI DI CONSUMO ENERGIA CONSULENZA

54,1 53,8 51,1 51 49,8 49,4 46,1

confidente nelle proprie risorse in termini di sicurezza è la Cina, seguita dagli Stati Uniti. Ma i risultati globali non sono molto confortanti, perché oltre della metà degli intervistati (il 57%) appartiene alle categorie a maturità più bassa, quelle posizionate nella prima metà della curva: i “ritardatari” e gli “osservatori”. “Appare chiaro”, dichiara Massimo Vulpiani, country manager di Rsa Italia, la divisione di Emc che si occupa di sicurezza, “come ci sia una relazione diretta tra la fiducia che i decisori hanno nelle soluzioni di sicurezza implementate e il grado di adozione delle tecnologie maggiormente in voga, che poi sono anche quelle che portano più valore aggiunto al business delle aziende: in pratica, le nazioni e le organizzazioni che si posizionano più avanti nella curva di maturità sono quelle a più alto tasso competitivo”. Le aziende (e le nazioni) che si collocano nella fascia più alta della Global It Trust Curve, quella dei “leader”, sono

quelle in grado di evitare gli incidenti dovuti a malfunzionamenti o attacchi, o comunque di reagire più in fretta in caso di eventi negativi. Tanto per fare un esempio, il 53% delle aziende del segmento “leader” dichiara tempi di recovery dell’ordine dei minuti, o anche meno nel caso di applicazioni mission critical, mentre il 76% è sicura di poter ripristinare, sempre in caso di incidente, il 100% dei dati eventualmente perduti. È evidente come per questo tipo di organizzazioni sia più facile pensare a implementazioni anche spinte di architetture cloud, piuttosto che a sistemi di analisi dei Big Data. “La ricerca ha evidenziato anche importanti differenze tra aziende di diversi comparti”, spiega Vulpiani, “e se appare scontata la prima posizione del segmento bancario e finanziario (con un indice pari a 54,1), sorprende il minor grado di maturità del retail (49,8) e delle società di consulenza (46,1). Sul fronte geografico, manco a dirlo, l’Italia non brilla nella classifica stilata da Vanson Bourne, posizionandosi al dodicesimo posto su sedici, con un indice di maturità di 49,1 (contro il 65,2 della Cina, leader assoluto, ma anche il 51,6 della Spagna, buona sesta). “In Italia”, dice Vulpiani, “ la maturità nell’implementazione di una corretta strategia di gestione dei rischi è ancora poco diffusa, e la scarsa fiducia nella propria infrastruttura tecnologica, che dovrebbe garantire disponibilità, sicurezza, backup e recovery, ci fa comprendere quanta strada le aziende del nostro Paese debbano ancora fare”. E. M. 23


SPECIALE | Sed ut perspiciatis TECHNOPOLIS PER WATCHGUARD

WATCHGUARD: PROTEZIONE DALLA PMI ALL’ENTERPRISE Con un market share consolidato del 22% nel mercato Smb, sia a livello mondiale sia italiano, WatchGuard Technologies guarda oggi anche alle realtà enterprise con un’offerta di alta qualità a costi competitivi.

Quello dell’Unified Threat Management, Utm, è un mercato fortemente in crescita sostanzialmente per due motivi. “Il primo”, spiega Fabrizio Croce, area director Semea di WatchGuard Technologies, “è la consapevolezza delle piccole e medie imprese e della Pubblica Amministrazione Locale della necessità di dotarsi di strumenti di protezione perimetrali efficaci, che salvaguardino la business continuity ma anche l’azienda stessa dall’utilizzo improduttivo di Internet tramite meccanismi di filtraggio e controllo delle applicazioni; il secondo è la riduzione dei budget Ii che colpisce le enterprise e la Pubblica Amministrazione Centrale, che in un periodio di contrazione economica e di revisione di spesa valutano l’adozione di soluzioni Utm all-inclusive di alta qualità ma di costo inferiore rispetto ai rinnovi delle licenze in uso”. Di fronte a un simile scenario, le soluzioni di sicurezza WatchGuard offrono alle Pmi le tecnologie normalmente utilizzate in ambito enterprise ma a costi contenuti, e al mercato mid-enterprise una soluzione Utm

estremamente semplice, efficace e performante a una frazione dei costi sostenuti fino a oggi. Dalla Pmi all’enterprise, l’offerta orizzontale di appliance di sicurezza WatchGuard riesce a coprire le esigenze di realtà da dieci fino a 20mila utenti, da tutti i loro bisogni di sicurezza perimetrale (antivirus, antispam, Web filtering, Ips e controllo delle applicazioni) fino alla completa messa al sicuro della posta elettronica con specifici dispositivi per email security e DLP (data loss prevention). L’offerta è costituita da firewall multifunzione XTM (eXtensible Threat Management), appliance per la sicurezza dei contenuti XCS (eXtended Content Security), soluzioni di accesso remoto SSL e access point wireless che estendono la sicurezza Utm alle reti wireless. Per i fornitori Iaas, SaaS e PaaS, WatchGuard propone anche la sua versione Firebox XTMv che si installa in ambienti virtualizzati come un’istanza aggiuntiva, proteggendo i server dal loro interno e risparmiando sui costi di hardware ed energia, oltre che per il raffreddamento dei firewall in server farm. Ciò che contraddistingue l’azienda americana è l’utilizzo di tecnologie innovative all’interno dei propri apparati (WatchGuard è stato il primo vendor a utilizzare la tecnologia per il filtraggio dei pacchetti a livello 7) e di un’infrastruttura hardware studiata per massimizzare le prestazioni Utm: un recente test indipendente sulle performance condotto dal laboratorio Miercom ha confermato come l’offerta Utm di WatchGuard sia di quasi 3,5 volte più veloce rispetto a soluzioni similari di competitor, con tutte le funzionalità Utm standard attive. Tutto ciò, unito ai servizi realizzati con accordi privilegiati in Oem con i best-of-breed del settore come AVG, Broadweb, Commontouch e Websense, differenzia fortemente la soluzione WatchGuard dalla concorrenza, mettendo a disposizione del cliente il meglio della tecnologia di sicurezza che il mercato possa offrire.

Sin dal 1996, anno della fondazione, sono state installate in tutto il mondo oltre 1.000.000 di appliance di sicurezza WatchGuard dal caratteristico colore rosso. Oggi WatchGuard Technologies si appoggia a una rete di oltre 15mila partner qualificati in 120 Paesi. La sede centrale è a Seattle, Washington, mentre uffici sono presenti in America del Nord, in America Latina, in Europa e nella regione Asia-Pacifico. In Italia WatchGuard conta 12mila clienti tra Smb, Pal e mid-enterprise. Segui WatchGuard su Twitter @WatchGuardTech, Facebook, LinkedIn, blog.watchguard.com WatchGuard Technologies Italia Viale Cesare Giulio Viola, 27 - 00148 Roma - Tel e Fax: +39 06.6020.1221 - italy@watchguard.com - www.watchguard.it 24

| FEBBRAIO 2014


SPECIALE | Sicurezza It

ARRIVANO LE MINACCE 3.0 Il 2014 è iniziato sotto l'insegna degli attacchi informatici, fenomeno che negli ultimi anni ha continuato a crescere. Ma gli strumenti per difendersi non mancano.

C

omputer, smartphone, tablet, applicazioni, server, dati affidati al cloud, e ancora account bancari e di posta elettronica, oltre alle reti delle comunicazioni machine-to-machine: per i cybercriminali, gli obiettivi da colpire si moltiplicano continuamente. Così come aumentano, in numero e raffinatezza, gli strumenti che permettono di realizzare attacchi e compromissioni di risorse It, venduti sul mercato nero del Web a prezzi sempre più stracciati. Il 2013 è stato un anno faticoso per utenti e aziende dal punto di vista della sicurezza: secondo i dati di Kaspersky Lab, il numero delle minacce Internet globali è cresciuto del 6,9%, e più di quattro utenti di Pc su dieci sono stati colpiti almeno una volta. Per portare a termine le loro operazioni i criminali informatici

hanno utilizzato 10.604,73 host unici, Le sabbie mobili del mobile cioè il 60,5% in più rispetto al 2012. Quella che potrebbe sembrare una quePer non parlare del malware mobile, stione che affligge gli utenti nella loro fenomeno sbocciato soltanto nel 2011 sicurezza privata è, in realtà, una patata e lo scorso anno letteralmente esploso: bollente che le aziende sono obbligate nel solo mese di ottobre Kaspersky ha a gestire in tempi di “bring your own rilevato quasi 20mila nuove varianti di device” e di promiscuità fra i dispositivi programmi nocivi, un volume pari alla personali dei dipendenti e le applicaziometà di quelle osservate in tutto il 2012. ni, i dati e le reti delle organizzazioni. Dati simili li ha Poiché rinunciare diffusi McAfee, al mobile significa Le soluzioni di security saranno osservando cirprecludersi flessiefficaci solo se progettate per ca 700mila nuo- unire le forze di componenti differenti bilità e incremenvi esemplari di ti di efficienza, ed evoluti, se capaci di comunicare malware Android la soluzione sta in ogni istante lo stato degli asset in appena un tri- aziendali e che, condividendo queste nelle tecnologie, mestre, il terzo nei sistemi di deinformazioni, sappiano valutare del 2013, e un auvice management il rischio in modo dinamico mento del 30% di (quelli che conattacchi rivolti al sentono agli amPierpaolo Alì, HP robottino verde. ministratori It di

25


SPECIALE | Sicurezza It

gestire il parco di dispositivi utilizzati dai dipendenti) ma ancor prima in policy di sicurezza ad hoc. Secondo un’indagine condotta da Vanson Bourne per conto di CA Technologies, nel 2013 soltanto il 38% delle aziende europee già possedeva una strategia di enterprise mobility, mentre il 22% si diceva intenzionata ad averla entro un anno.

il 2015 un deficit del 30-40% negli stanziamenti destinati alla sicurezza, a fronte di un continuo aumento delle vulnerabilità. Le fonti di rischio, infatti, si moltiplicano e sono d’altra parte legate a quelle stesse tecnologie che rappresentano opportunità di business e di innovazione: mobilty, cloud computing, Internet delle Cose. I pericoli aumentano perché aumentaUpdate, questo sconosciuto no i luoghi e le modalità in cui i dati In relazione agli incidenti informatici, vengono creati, conservati, trasmessi. a volte quello delle aziende è un pianto E aumentano perché gli strumenti del da coccodrillo. La banale causa di molti crimine diventano sempre più raffinati, attacchi è il mancato rispetto di una baeconomici e facili da ottenere. silare regola di sicurezza: l’aggiornamenGli obiettivi, inoltre, si diversificano. to delle applicazioni. Un monitoraggio Per quanto riguarda il mondo mobile, condotto da Websense la scorsa estate Android resterà il sistema operativo più su aziende di vari Paesi del mondo ha bersagliato, con un nuovo record di apsvelato che appena il 19% dei computer plicazioni dannose rilevate: 3 milioni, aziendali basati su Windows, fra quelstima Trend Micro. A detta del vendor, li osservati, aveva nel corso dell’aninstallato l’ultima no si assisterà a un Il futuro ci riserva soluzioni versione di Oracle integrate, mirate a implementare difese evento di grande Java, mentre i re- robuste nascondendo la complessità; portata in termini stanti risultavano infrastrutture in grado di proteggere di violazione dei esposti a exploit. dinamicamente l’organizzazione dati almeno una E non è un provolta al mese, con blema da poco tanto di database Antonio Forzieri, Symantec considerando che resi pubblici, siti oltre il 90% degli attacchi che sfruttano oscurati e informazioni trafugate. Gli le vulnerabilità colpiscono Oracle Java attacchi prenderanno di mira le vulne(il dato è di Kaspersky). Anche i sistemi rabilità di software ampliamente diffusi operativi hanno un ruolo nella strategia ma non più supportati, come Java 6 (gli di difesa delle organizzazioni: un report aggiornamenti sono terminati nel 2013) di Microsoft ha evidenziato per i sistee Windows XP (Microsoft finirà di supmi basati su Windows XP un rischio di portare ufficialmente il sistema operainfezioni sei volte superiore rispetto ai tivo in aprile). Parallelamente a questi Pc con a bordo Windows 8, a parità di assalti via Web “di massa”, si intensifialtri parametri. cheranno le minacce nei confronti del mobile banking e gli attacchi mirati. Per Un futuro sempre meno roseo realizzare questi ultimi sarà sempre più Scorrendo le previsioni tracciate dai popolare il ricorso a tecniche di social vendor di sicurezza, è chiaro che le engineering, che a partire dalle piattaaziende non potranno abbassare la guarforme più diffuse (quali Facebook, Twitdia. D’altro canto non si può dire che ter, LinkedIn) tentano di indurre l’utenil problema sia sottovalutato, tant’è che te a cliccare su link che lo reindirizzano (da dati di Gartner) su scala globale i su oggetti dannosi. budget destinati alla sicurezza quest’anIl phishing, cioè il furto di dati attrano cresceranno del 4%. Basterà? No, verso raggiri di vario genere (presunte almeno secondo Idc, che stima entro vincite, avvisi, richieste di aiuto), affian-

26

| FEBBRAIO 2014

cherà alle mailing di massa anche operazioni più chirurgiche, in cui la falsa promessa o il falso mittente può risultare credibile al singolo destinatario dal momento che quest’ultimo è stato “studiato” nelle sue abitudini di navigazione e nella sua identità. L’oroscopo del cybercrimine

Quanto all’Internet delle Cose, gli attuali 1,9 miliardi di oggetti connessi saranno destinati a diventare 9 miliardi o più entro il 2018, sull’onda della domotica, dell’automotive robotizzato, dei wearable device e dei sensori che andranno sempre di più a controllare le catene di montaggio industriale, gli impianti di illuminazione urbani, i cantieri. Già quest’anno secondo Trend Micro l’intelligenza cybercriminale potrebbe partorire un’applicazione “killer” in grado di intercettare e compromettere questa miriade di dati. Kaspersky Lab mette invece in guardia altri due bersagli che nel 2014 non avranno vita facile. Il primo sono i fornitori di servizi Internet, che non a caso di recente hanno potenziato le proprie misure di protezione dei dati, per esempio prevedendo la crittografia di tutti quelli trasmessi attraverso i propri server; addirittura, secondo Kaspersky l’attuazione di misure di sicurezza avanzate diventerà per le aziende un fattore chiave nella scelta del provider a cui affidarsi. Il secondo bersaglio sono i fornitori di cloud storage: una volta ottenuto l’accesso, un eventuale hacker avrebbe a disposizione un enorme volume di dati, che diventano non solo leggibili ma anche manipolabili. Sulla stessa linea si è espressa Websense, prevedendo che nel 2014 i criminali si interesseranno di più ai dati affidati al cloud rispetto a quelli circolanti sulle reti aziendali. Il medesimo vendor scommette su un’altra tendenza: il volume complessivo dei malware inizierà a calare, ma gli attacchi diventeranno più pericolosi. In ogni caso, c’è da aver paura. Valentina Bernocco


TECHNOPOLIS PER TREND MICRO

SICUREZZA IT: LE NUOVE SFIDE ALL’ORIZZONTE

A cura di Gastone Nencini, country manager di Trend Micro Italia

Il 2014 in pillole: le previsioni di Trend Micro

Una volta all’anno, a dicembre, tutti i principali vendor di sicurezza rilasciano le proprie previsioni sulle minacce peggiori che affliggeranno consumatori e aziende nei mesi a venire. Per il 2014 i tratti comuni, evidenziati da tutti, sono la diffusione di malware sempre più complessi, lo sfruttamento delle vulnerabilità nel mondo del mobile e l’elaborazione di strategie di attacco e social engineering sempre più elaborate. Questi scenari sono inevitabili. Mano a mano che la tecnologia progredisce e la sua diffusione nel mass market cresce, vengono scoperte nuove falle che il cybercrime può sfruttare e nuovi ambiti di guadagno per la criminalità online. Ormai, infatti, non parliamo più di singoli hacker isolati che si divertono a far comparire letterine che cadono sui Pc dei singoli malcapitati, ma di gruppi organizzati e internazionali con scopi di lucro, che sfruttano ogni possibile appiglio e puntano a obiettivi precisi ed economicamente rilevanti. Proprio per questo, il furto e la sottrazione dei dati si confermeranno anche nel 2014 l’obiettivo primario della criminalità informatica. I dati, dai numeri delle carte di credito fino allo spionaggio industriale, sono infatti una delle fonti economicamente più rilevanti. Nelle nostra analisi prevediamo attacchi su vasta scala con compromissione dei dati, che nel 2014 si verificheranno almeno una volta al mese. Già il 2013 ci ha riservato sorprese di ogni tipo: enormi violazioni come quella subita da Adobe, attacchi al sito del New York Times o al sistema informativo del Parlamento Europeo. E così, sfruttando ogni possibile vulnerabilità, continueranno a essere presi di mira governi, aziende e infrastrutture critiche, senza ri-

sparmiare i sistemi di controllo e acquisizione dati in ambito industriale (Supervisory Control And Data Acquisition, Scada) oppure i target legati alle tecnologie di radiofrequenza (i sistemi di navigazione per esempio), che non sono stati progettati fin dall’inizio includendo funzionalità di sicurezza It. Il cybercrime, infatti, guarda al presente e al futuro della tecnologia, senza risparmiare nessun campo. Credo che, in questo senso, il futuro ci riserverà molte sorprese legate al cosiddetto “Internet del Tutto” (Internet of Everything, IoE), uno scenario in rapida evoluzione che vedrà nel 2014 il preludio all’ondata di innovazioni tecnologiche che chiuderanno questo decennio. Attualmente l’IoE rappresenta più che altro una sfida per gli operatori di rete – telco e service provider –, che vedrà miliardi e miliardi di oggetti, persone, luoghi, sistemi connessi in rete, con una trasformazione nel modo di vivere, lavorare e portare informazioni. Oggi però non si può ancora parlare di Internet del Tutto su vasta scala. Il vero cambiamento, a mio avviso, avverrà quando si affermerà una sorta di app “killer”, ovvero una nuova tecnologia ad ampia diffusione che possa tradursi in un target di interesse per il cybercrime, come per esempio i display indossabili. Ma lo scenario IoE promette comunque di cambiare le regole dl gioco nel mondo della sicurezza e della tecnologia a uso personale. Un futuro sempre più prossimo, in cui la realtà aumentata sarà accessibile tramite dispositivi indossabili (la wearable technology) come occhiali e orologi, e che consentirà al crimine informatico di portare il furto di identità su larga scala verso nuove possibilità, mano a mano che le nuove tecnologie prolifereranno.

• I criminali informatici utilizzeranno sempre più le metodologie tipiche degli attacchi mirati come la ricerca open source e lo spear phishing altamente personalizzato, oltre ai vari exploit. • Nel contesto degli attacchi mirati, assisteremo a un numero maggiore di attacchi clickjacking e watering hole, nonché ad attacchi eseguiti tramite smartphone e tablet. • Assisteremo a un incidente da violazione dei dati di portata consistente ogni mese. • Gli attacchi che sfruttano le vulnerabilità di software molto diffusi ma non più supportati, come Java 6 e Windows XP, si intensificheranno. • Il Web invisibile metterà in forti difficoltà le forze dell’ordine, che faticano a sviluppare capacità per affrontare il crimine informatico su larga scala. • Aumenterà la sfiducia negli utenti, specie a seguito dell’esposizione delle attività di controllo promosse dallo Stato, che porteranno a un periodo di tentativi disparati per ripristinare la privacy. • Non si assisterà ancora a minacce relative all’Internet of Everything diffuse su larga scala. Per questo si dovrà aspettare una “killer app”, che potrebbe palesarsi nel campo della realtà aumentata sotto forma di tecnologia, come per esempio i visori a sovrimpressione. 27


SPECIALE | Sicurezza It

VISIONE E CONTROLLO, I PILASTRI DELLA DIFESA Qualsiasi strategia di sicurezza It non può che partire dall’analisi del rischio e del contesto. L’accesso ai dati, inoltre, dev’essere gestito in base agli utenti e non ai dispositivi.

D

a dove parte una strategia di sicurezza It? Il primo passo è l’analisi del rischio. Trascurarlo può significare il mancato raggiungimento degli obiettivi di business, e dunque bisogna capire quali sono gli scenari di pericolo possibili e calarli nel proprio contesto, vedere che tipo di impatto potrebbero avere e solo a questo punto studiare le forme più adeguate di protezione. Le soluzioni ci sono per tutti, anche per le piccole e medie imprese. Oggi l’evoluzione tecnologica sta dando una grossa mano a questa dimensione di aziende, perché molte soluzioni di sicurezza sono anche disponibili in modalità Softwareas-a-Service, ospitate nel cloud. Così le aziende di piccole dimensioni, in cui spesso non è presente un responsabile It, 28

| FEBBRAIO 2014

possono evitare di gestire da sole questa problematica e adottare misure di protezione adeguate, rivolgendosi comunque ai leader di mercato ma a costi inferiori, poiché non hanno più bisogno di acquistare hardware e software bensì soltanto un servizio. Anche per le imprese che decidono di dotarsi internamente degli strumenti di sicurezza esiste, poi, la possibilità di affidarne all’esterno la gestione attraverso società specializzate in managed service. Una volta fatta l’analisi del rischio, è necessario acquisire le soluzioni tecnologiche o reperirle nel cloud. Ma non solo: dato che non tutte le minacce si gestiscono comprando tecnologie o servizi di sicurezza, una parte dei rischi sono da mettere sotto controllo definendo opportune policy. In azienda, regole e

tecnologie sono entrambi elementi essenziali e complementari. Per affrontare queste problematiche (analisi del rischio e stesura delle policy) è consigliabile che le piccole e medie imprese si affidino alla società che già fornisce loro la tecnologia di sicurezza. Le tante anime dell’It security

Le tecnologie sono diverse e ciascuna opera su uno specifico rischio. Le soluzioni di Data Loss Prevention servono a evitare la fuoriuscita incontrollata dei dati, consentendo di monitorare i diversi mezzi con cui l’azienda può far circolare informazioni, ovvero email, stampe, device, chiavette Usb, eccetera, ed eventulamente impedendo la diffusione di dati riservati. La sicurezza perimetrale la si può assicurare con firewall, reti chiuse


come le Virtual Private Network, antipo libero, con tutti i rischi della commispam e antivirus, sistemi di prevenzione stione fra tecnologie, dati, applicazioni (Intrusion prevention system, Ips) e di professionali e personali. scoperta delle violazioni (Intrusion deUna recente ricerca realizzata per conto tection system, Ids). di Fortinet, che ha coinvolto a livello Per mettere al riparo gli endpoint (pormondiale, anche in Italia, 3.200 dipentatili, desktop e denti di un’età server) ci si affida La sicurezza deve essere sempre compresa tra i 21 invece a pacchetti e i 32 anni, ha più integrata nei processi aziendali, antivirus, antimesso in evidenza come processo da considerare a spam e antimalwa- ogni livello e non più come semplice lo scarso rispetre. Infine, per geto per le policy prodotto o soluzione ad hoc stire e arginare gli di sicurezza. La accessi non sicuri maggioranza dei Rodolfo Falcone, Check Point ci sono le tecnolorispondenti si è gie di Identity & Access Management e dichiarata favorevole all’implementazioi sistemi di identificazione degli accessi. ne del bring your own device in azienda, ma più della metà (51% in generale Il mobile e 52% in Italia) è disposta a infrangere Nell’era della mobilità le organizzazioni qualsiasi regola che vieti l’uso di disponon possono più restare ancorate alla sitivi personali al lavoro o per motivi di classica infrastruttura rigida del passato. lavoro. Il perimetro aziendale ora ha una conQuasi il 90% di questi giovani sfrutta notazione flessibile e non può rimanere un account personale per almeno un chiuso dietro a un firewall, ma va definiservizio di archiviazione cloud (come to intorno all’utente. Dropbox o SkyDrive) e il 70% di loro lo La grande diffusione di tablet e ha utilizzato per motivi di lavoro. Non smartphone e il loro utilizzo sempre più solo: il 12% di questo gruppo ammette frequente per accedere a reti e applicadi memorizzare anche password lavorazioni di lavoro abbattono le tradizionali tive su tali account, il 16% vi archivia barriere che fino a ieri avevano garantito informazioni finanziarie, il 22% docula sicurezza delle aziende. menti privati critici come contratti/piani Oggi bisogna accertarsi che soltanto i commerciali e un terzo (33%) affida alla dipendenti autorizzati accedano a certe nuvola dati relativi ai clienti. In Italia le informazioni e contenuti, ed evitare che percentuali sono anche superiori: il 23% i device mobili accolgano dati sensibiper quanto riguarda le password di lavoli sfuggendo al controllo dell’azienda. ro, il 26% per le informazioni finanziaServono, dunque, specifiche policy di rie, il 34% per i documenti privati critici sicurezza focalizzate sull’interazione tra e addirittura il 46% per i dati relativi ai persone e dati, policy che definiscano a clienti. quali categorie di dati può accedere una Dunque sono ugualmente necessari due certa tipologia di utenti, senza limitazioelementi: informazione da un lato, e ni rispetto al device utilizzato per farlo. controllo dall’altro. Nel concreto, bisoInoltre, diventa sempre più fondamentagna implementare un processo incentrale che tutti gli utenti aziendali siano a coto sulla difesa dei dati sensibili e sistenoscenza dell’importanza e del valore dei mi che permettano di avere una visione dati che si trovano a maneggiare nell’amunificata della security e che abbraccino bito del proprio lavoro. L’informazione ogni tipologia di dati, le diverse applicaagli utenti è determinante, soprattutto zioni e qualsiasi dispositivo utilizzato dai per le nuove generazioni abituate a utidipendenti. lizzare i dispositivi mobili anche nel temLuca Bastia

Crimine It: dalla quantità alla qualità Il livello di rischio non è soltanto una questione numerica, bensì qualitativa. “Gli attacchi verso le aziende stanno diventando sempre più aggressivi, le soluzioni perimetrali tradizionali, benché necessarie, non sono più sufficienti in alcuni scenari”: Luis Corrons, direttore tecnico dei laboratori di Panda Security, riassume una dinamica denunciata un po’ da tutti i vendor, cioè la crescita degli attacchi mirati, quelli che si focalizzano su un target specifico, studiandone i punti deboli e ripetendo l’assalto nel tempo. Le motivazioni spaziano dalla sottrazione di denaro al furto o manipolazione di dati, con lo scopo di danneggiare le finanze e la reputazione della vittima. Nel corso del 2013 Kaspersky Lab ha rilevato attacchi mirati verso imprese dell’industria petrolifera, compagnie di telecomunicazioni, istituti di ricerca scientifica e aerospaziale, cantieri navali, governi. La casistica è disparata, ma il metodo più popolare è quello degli exploit: frammenti di codice nocivo che sfruttano le vulnerabilità di un programma, sia quelle note sia (negli attacchi zeroday) quelle ancora non venute a galla. Spesso il pericolo viaggia sulla posta elettronica sotto forma di link o di allegato, ed è facile che il destinatario sia un dipendente che i criminali considerano un “anello debole”, o perché il suo ruolo fa sì che sia quotidianamente sommerso di email, o perché già profilato attraverso tecniche di social engineering. In una survey condotta da Kaspersky Lab e B2B International, il 91% delle aziende intervistate ha dichiarato di aver subìto almeno una volta nell’arco di 12 mesi un assalto informatico, il 9% è stato vittima di un attacco mirato. V. B. 29


SPECIALE | Sicurezza It

Quali sono le minacce più pericolose e nuove, e quali le armi di difesa più efficaci? I vendor invitano a proteggere gli endpoint, le applicazioni e le reti, ma anche a migliorare la cultura della security.

IT SOTTO ASSEDIO: ECCO COME DIFENDERSI

L

e minacce alla sicurezza dei sistemi informatici sono continuamente in evoluzione. E studiano i punti deboli di aziende e utenti per sferrare attacchi finalizzati all’inserimento di malware che possono sottrarre informazioni, arrecando danni economici e d’immagine. Ma quali sono, oggi, i rischi più insidiosi e quali i metodi per arginarli? In generale, molti dei vendor ritengono che uno dei pericoli principali sia il fatto che le aziende sottovalutino l’importanza delle minacce più diffuse. La scarsa consapevolezza dei dipendenti e gli scarsi investimenti in sicurezza provocano gravi conseguenze.

Gli attacchi mirati

“Da un punto di vista tecnico, uno dei principali problemi sono gli attacchi mirati”, sostiene Aldo Del Bò, managing director di Kaspersky Lab. “Le campagne di spionaggio informatico sono molto comuni, in grado di infiltrarsi nelle reti e rubare gigabyte di dati per anni. La mancanza di consapevolezza sui temi della sicurezza favorisce gli attacchi mirati, e la maggior parte di essi utilizza l’ingegneria sociale come vettore di infezione”. “La minaccia più pericolosa”, aggiunge Antonio Forzieri, Emea cyber security e Iss lead, Technology sales and services di Symantec, “è data dalla

Aldo Del Bò, Kaspersky Lab

Maurizio Martinozzi, Trend Micro

Antonio Forzieri, Symantec 30

| FEBBRAIO 2014

commistione di tre fenomeni: attivismo (attacchi motivati da ideologie sociopolitiche e religiose), cybercrime (attività che puntano alla monetizzazione), attacchi mirati (che hanno come fine ultimo lo spionaggio industriale o il sabotaggio), che sfruttano un insieme d’ingegneria sociale e nuove vulnerabilità”. In quanto alla difesa, secondo Forzieri, “per aziende poco mature la regola d’oro è far bene l’abc: sicurezza della rete, dell’endpoint, hardening dei sistemi, monitoraggio in tempo reale e user awareness; mentre per aziende più mature occorre adottare standard o linee guida avanzate”. Anche Miska Repo, country manager

Miska Repo, F-Secure


di F-Secure Italia, parla degli attacchi razione, che partendo dalle necessità mirati come di un rischio importante: effettive di un’organizzazione sappia im“In oltre l’80% dei casi i cybercriminali plementare una difesa personalizzata e penetrano nell’infrastruttura aziendale proporre tecnologie per la protezione inattraverso le vulnerabilità dei software tegrata dei dispositivi e delle infrastrutcomuni”, sottolinea. “Gli Advanced Tarture, con un approccio proattivo”. geted Attack (Ata) rappresentano una nuova famiglia di attacchi estremamenByod e cloud te pericolosi”, sostiene anche Joe Sarno “Un’ulteriore criticità è rappresentata vice presidente sales South East Europe dagli aspetti gestionali che vedono gli di Fortinet. “Gli Ata puntano a obiettivi IT manager affrontare richieste contispecifici all’interno delle organizzazionue di adattamento dell’infrastruttura ni, tipicamente soggetti con accesso ai di protezione ai cambiamenti”, afferma dati di interesse, si infiltrano utilizzando Martinozzi di Trend Micro alludendo a vettori multipli fenomeni quali il (attacchi phishing Grazie allo sviluppo del cloud e cloud, l’utilizzo di mirati, Web drivedevice personali da della mobility diventerà sempre più by, ecc.) e fanno parte dei dipenrilevante il concetto di “Complete uso esteso di tecnidenti (il cosiddetto security”, dagli utenti e i loro che di evasione per dispositivi fino alla rete e ai server “bring your own rimanere nascosti device”, o Byod) e per lunghi periodi la mobilità. “PerMarco D'Elia, Sophos prima di trafugare ciò è importante informazioni”. Per difendersi contro gli sviluppare una cultura della security atAta, Fortinet ha sviluppato una nuova traverso l’educazione sulle nuove minacversione del proprio sistema operatice, oltre a implementare delle policy di vo per i gateway di sicurezza Fortigate, accesso e gestione adeguate”. il FortiOS 5.0, che include capacità di “Contro le minacce introdotte dal fenoprotezione ai massimi livelli, chiamata meno Byod bisogna soprattutto prestare Advanced Threat Protection. attenzione alla sicurezza degli end-point Data la natura complessa e multi-livello e al controllo degli accessi”, dice Miska di questo tipo di operazioni, è necessaRepo. “F-Secure ha recentemente interio utilizzare tecnologie multiple. Trend grato nelle proprie soluzioni end-point Micro, attraverso le parole di Maurizio la funzionalità di Software Updater, Martinozzi, manager sales engineering, che permette ai clienti di aggiornare in propone una sua ricetta per contrastare modo automatico tutti i software prequesti rischi: “L’arma più potente è un senti su Pc. Ma è anche importante avere approccio alla sicurezza di nuova geneun’ottima protezione dei device mobili”.

Rodolfo Falcone, Check Point

Pierpaolo Alì, HP

Sull’argomento interviene anche Elio Molteni, senior solution strategist di CA Technologies Italia: “Premesso che nella creazione di applicazioni per il mobile la protezione delle informazioni è spesso trascurata dagli sviluppatori, è inevitabile che le carenze nella verifica delle identità siano comuni, e che di conseguenza siano sensibilmente aumentati gli attacchi quali il man-in-the-middle”. Cioè i casi in cui qualcuno cerca di intercettare le informazioni “mettendosi in mezzo”. A detta di Molteni, è indispensabile potenziare la protezione delle Application Programming Interface usate per creare app, “garantendo adeguati servizi di autenticazione e di autorizzazione all’accesso e all’utilizzo, e controllando il linguaggio con cui sono scritte”. A tale scopo CA Technologies ha recentemente acquisito la società Layer7, specializzata in gestione e messa in sicurezza delle Api. “Il nuovo stile It, quello che mette la tecnologia al servizio del social e della collaboration, crea con cloud computing, mobile computing e Byod nuove opportunità per le aziende, ma al contempo amplia la superficie di attacco”, sostiene Pierpaolo Alì, regional sales director HP Enterprise Security di Hewlett-Packard Italiana. “Le Web application in grado di dare un accesso diretto al back-end aziendale diventano il bersaglio preferito”. Come predisporsi agli attacchi? L’approccio più innovativo, secondo Alì, è il “paradigma dell’applicazione perfetta: applicazioni prive di vulnerabilità ridurrebbero di molto il perimetro di atElio Molteni, CA Technologies

Joe Sarno, Fortinet 31


SPECIALE | Sicurezza It

tacco”. L’inserimento della sicurezza nelle prime fasi di sviluppo di servizi e app è ciò che HP propone nella sua suite di application security Fortify, declinabile in Static e Dynamic code Analysys oppure come servizio Software-as-a-Service. “Diventa indispensabile per le imprese implementare una soluzione in grado di rispondere efficacemente alle esigenze in ambito mobile”, aggiunge Marco D’Elia, country manager di Sophos Italia. “La nuova versione 3.5 di Sophos Mobile Control mette a disposizione funzionalità che semplificano la reportistica e l’amministrazione, facilitando la messa a punto e l’implementazione di policy Byod. Inoltre, la tecnologia Sophos di ‘next generation firewall’ garantisce protezione completa in un’unica appliance modulare che può essere installata come hardware, software, appliance virtuale o persino nel cloud”. Altre minacce da non sottovalutare

“Ogni giorno nel mondo vengono distribuite tra le 70mila e le 100mila varianti di malware, particolarmente insidiose per chi non si avvale di servizi gestiti di sicurezza o, banalmente, sconta ritardi nell’aggiornamento delle proprie difese. Per questo si parla di minacce zero-day, ovvero di quelle per cui non esistono ancora contromisure testate”, afferma Rodolfo Falcone, country manager di Check Point Software Technologies Italia, vendor che rispetto a questo problema ha lanciato recentemente ThreatCloud Emulation Service: un servizio, Alessandro Peruzzo, Panda

Domenico Raguseo, Ibm 32

| FEBBRAIO 2014

disponibile anche come appliance, che previene le infezioni causate da exploit non identificati, nuove varianti malware, attacchi mirati e advanced persistent threat (Apt). Il servizio ispeziona velocemente i file sospetti, emula il loro modo di operare per scoprirne il comportamento maligno e blocca istantaneamente il nuovo malware identificato in allegati email, file scaricati e contenuti Web. Per Domenico Raguseo, security systems technical sales di Ibm Europe, “le vulnerabilità note e non corrette nelle applicazioni Web e nel software sono il presupposto per il verificarsi degli attacchi. Oggi però l’attenzione dei responsabili aziendali della sicurezza delle informazioni è rivolta soprattutto alle vulnerabilità e agli attacchi più evoluti, relativi alle tecnologie mobile e social”. A detta di Raguseo, per difendersi da questi assalti sofistifcati servono “soluzioni innovative, che associno intelligence, cloud computing, mobile computing e tecnologie desktop”, e che siano “in grado di correlare le relative informazioni con tecniche di security intelligence”. “Oggi più che mai le aziende si trovano a dover affrontare un malware avanzato, più sofisticato e furtivo, le cosiddette minacce stealth”, puntualizza Ombretta Comi, marketing manager per l’Italia di McAfee. “Molte aziende si affidano ai prodotti di sicurezza tradizionali in attesa che vengano integrati con la protezione dal malware avanzato, ma in tal modo rischiano di esporrsi a possibili attacchi”. McAfee sottolinea come oggi

non sia più possibile difendersi con un unico prodotto. “Il modo migliore per combattere gli attacchi mirati e per attivare rapidamente azioni di ripristino”, prosegue Comi, “sono le soluzioni che integrano la visibilità e i controlli a livello di endpoint e di rete, e McAfee offre qualcosa di più dei singoli prodotti, focalizzati su una specifica funzione, e dell’analisi statica sandboxing: rileva il malware avanzato grazie alla nuova appliance McAfee Advanced Threat Defense, blocca le minacce con le soluzioni di rete e avvia un processo di correzione con McAfee Real Time for ePO”. Secondo Alessandro Peruzzo, amministratore unico di Panda Security Italia, “gli hacker si stanno concentrando molto su azioni di cyber war e cyber spionaggio, per carpire informazioni su iniziative di governi, Paesi e organizzazioni, per rivenderle o anticipare nel cyber spazio eventuali mosse strategiche che apportino vantaggi competitivi. Le tecniche di ingegneria sociale utilizzate sono sempre più sofisticate e individuare e bloccare i nuovi codici richiede tecnologie sempre innovative. Da non sottovalutare anche i social media, uno degli strumenti sempre più sfruttati per accedere, attraverso numerosi raggiri, agli account sia di privati sia di aziende, e diffondere così nuovo malware”. Panda Security propone soluzioni di sicurezza basate su cloud e tradizionali per la protezione dell’intera infrastruttura It aziendale e dei dispositivi mobili da ogni tipologia di minaccia. Luca Bastia Marco D’Elia Sophos

Ombretta Comi, McAfee


TECHNOPOLIS PER CA TECHNOLOGIES

NON C’È SICUREZZA SENZA AUTENTICAZIONE

Social engineering, frodi, violazioni della sicurezza, accessi non autorizzati: tutte preoccupazioni ampiamente diffuse e condivise fra le aziende. Le stesse aziende che, allo stesso tempo, in tempi di mobilità e di cloud computing non possono non consentire a dipendenti, partner e clienti di accedere alle informazioni di lavoro da qualsiasi luogo e qualsiasi dispositivo, smartphone e tablet compresi. Per risolvere questa contraddizione fra esigenze di sicurezza, da un lato, e di libertà ed efficienza, dall’altro, è necessario dotarsi di un sistema avanzato di autenticazione e prevenzione delle frodi, un sistema che sia flessibile, scalabile e sicuro. Stando alle previsioni di Gartner, entro il 2016 oltre il 30% delle organizzazioni utilizzeranno servizi cloud-based per le loro implementazioni di user authentication, con un deciso aumento rispetto al 10% di aziende che giè oggi li utilizza. Da qui al 2016, inoltre, partendo dall’attuale 5% arriverà al

Tanti metodi, un unico obiettivo

30% la fetta di aziende che sfruttano l’autenticazione contestuale, quella che valuta elementi come la localizzazione, l’orario, la rete o il device da cui l’utente prova ad accedere a determinate risorse. A detta degli osservatori, dunque, si profila uno scenario in cui sarà sempre meno possibile fare a meno di strumenti capaci di conciliare sicurezza, bring your own device e mobilità. Va però sottolineato come Gartner, nell’abbondanza di offerta di prodotti per l’autenticazione attualmente presenti sul mercato, consideri meno di un decimo dei vendor come una “scelta credibile”. La stessa società di analisi, nel suo “Magic Quadrant for User Authentication” relativo al 2013, ha posizionato per il terzo anno consecutivo CA Technologies nel quadrante dei “leader”, e lo ha fatto in considerazione di diversi punti di forza: l’ampiezza del portfolio di strumenti di autenticazione e detenzione di frodi, il tasso di crescita superiore alla media del mercato, il gran numero di clienti di fascia enterprise, il pricing e le caratteristiche dei prodotti. Le soluzioni di CA Technologies, usufruibili come software on-premise o come servizi basati su cloud, forniscono un’ampia varietà di metodi di autenticazione a due fattori e basata su rischio, volti a semplificare la gestione della verifica delle identità nonché a garantire benefici in termini di sicurezza e risparmio. Il cuore dell’offerta è rappresentato da CA AuthMinder, un sistema versatile che permette di rilasciare e gestire un ampio spettro di metodi di autenticazione (vedi il box in questa pagina).

La principale caratteristica di CA AuthMinder è la flessibilità: il sistema permette di creare e gestire una eterogenea gamma di metodi di autenticazione, da quelli basati su password ai token a due fattori (dispositivi fisici o “chiavi” software che generano password temporanee da combinare con una password di partenza), passando per le credenziali hardware. Il sistema, inoltre, offre metodi di autenticazione “out-of-band”, come Sms, email o comunicazione vocale di codici utilizzabili una sola volta (One time password, Otp). CA AuthMinder supporta anche l’autenticazione a due fattori per le Virtual Private Network e può proteggere l’accesso e le transazioni su Pc desktop, laptop, tablet e smartphone, permettendo alle aziende di definire una strategia coerente per tutti questi device. Infine, la soluzione include applicazioni mobili e software development kit utili per incorporare l’autenticazione a due fattori all’interno di app per smartphone e tablet. Il server di CA AuthMinder comprende una console di amministrazione flessibile e flussi di autenticazione in grado di semplificare il deployment e la gestione. La sua peculiare infrastruttura public-key e la credenziali software-based per la Otp forniscono un migliore livello di sicurezza, grazie una tecnologia brevettata, presente unicamente nell’offerta di CA Technologies. CA AuthMinder è integrato con CA RiskMinder, una potente soluzione di authentication che opera in tempo reale per valutare il contesto, calcolare il rischio, fornire raccomandazioni e alert; è integrato, inoltre, con CA SiteMinder Secure SSO and Access Management, soluzione altamente scalabile per le autenticazioni con Single Sing-on, utile per contrastare gli accessi non autorizzati e le frodi. 33


ECCELLENZE.IT | Chiesi Farmaceutici

ANCHE IN FARMACIA I BIG DATA SONO SINONIMO DI INNOVAZIONE L’azienda emiliana ha creduto nel cloud per riorganizzare la propria infrastruttura di storage, affidandosi alle soluzioni di NetApp. I benefici? Flessibilità ed efficienza di processi e sistemi.

C

hiesi Group è una multinazionale che rivendica il titolo di più importante realtà italiana del settore farmaceutico. Nata come laboratorio di farmacia nel 1935, per iniziativa di Giacomo Chiesi, a inizio anni Ottanta entra nel mercato brasiliano e da lì in avanti diventa un’azienda di respiro internazionale. Oggi è presente con oltre 4mila dipendenti in 25 Paesi e vanta circa 400 ricercatori ripartiti fra la sede di Parma e centri R&D dislocati in Francia, Stati Uniti, Inghilterra e Danimarca. L’azienda ha tutti i numeri da grande organizzazione (1,1 miliardi di euro il fatturato 2013) e in Italia si trova anche LA SOLUZIONE L’azienda ha rinnovato le piattaforme di storage nel 2009, con l’architettura Data Ontap di NetApp, in una logica di storage unificato che andava a risolvere il problema di sistemi (San e Nas) disgiunti e non integrati. A valle dell’intervento sono stati installati, nel data center principale, circa 80 terabyte utili per la parte di produzione e circa 100 terabyte per il backup dei sistemi. Il disaster recovery si concretizza in due direzioni: gestionale Sap replicato su storage NetApp a Milano e tutte le altre applicazioni replicate su un sito nei pressi della sede di Parma, dove opera un sistema Fas V3140 coadiuvato dalla soluzione SnapVault. I volumi di dati gestiti sono di tutto rispetto: l’occupazione logica dei sistemi è pari a 2 petabyte mentre l’allocazione fisica è pari a circa 500 terabyte. 34

| FEBBRAIO 2014

lo stabilimento principale del gruppo (gli altri sono in Francia e in Brasile), una fabbrica che produce ogni anno 22 milioni di confezioni nel reparto solidi, 13 milioni di confezioni di fiale monodose, 28 milioni di confezioni di inalatori pressurizzati, 400mila fiale di Curosurf Sterile Suspension (farmaci salvavita per neonati) e 2,5 milioni di confezioni Dry Powder Inhalers. Doveroso, quindi, che nel cuore di questa impresa pulsi anche un sistema informatico all’avanguardia, capace di assicurare una gestione sicura e flessibile delle informazioni critiche, visto e considerato che i dati principali relativi alla formulazione delle nuove molecole hanno l’obbligo di conservazione di 65 anni. Per un’azienda come Chiesi, che vede ogni anno crescere mediamente di oltre il 10% il volume dei dati da gestire (generati in gran parte dalle attività di laboratorio), era di vitale importanza dotarsi di sistemi di archiviazione altamente scalabili, che le consentissero di potenziare

lo storage e di incrementare la capacità dei dischi in maniera potenziale, senza modificare l’infrastruttura. Per questo ha messo in piedi una piattaforma centralizzata e condivisa, affiancata da soluzioni di backup “tapeless”. Il fornitore cui l’azienda si è affidata é NetApp e, come racconta Umberto Stefani, Cio di Chiesi Farmaceutici, “la scelta dei servizi e delle tecnologie da adottare è partita da una visione che mette al centro il business dell’azienda, a cui dobbiamo garantire proattività, sicurezza e capacità di fornire soluzioni innovative”. Da qui la decisione, maturata gradualmente, di abbracciare il cloud privato. “Abbiamo iniziato a parlare di consolidamento dello storage a inizio anni Duemila”, spiega ancora Stefani, “e non si è trattato quindi di una scelta di moda, bensì di una risposta alle esigenze del business. I benefici portati dall’infrastruttura cloud? Il giusto livello di solidità, flessibilità ed efficienza a livello di processi e di sistemi”. Gianni Rusconi


ECCELLENZE.IT | Canali

IT INTEGRATO PER IL MADE IN ITALY Il nuovo sistema informativo del gruppo, proprietario di 230 boutique e mille negozi di moda maschile, unifica su piattaforma Microsoft Dynamics tutti i processi di business, dalla produzione alla vendita.

I

l Made in Italy va alla conquista del mondo anche grazie alla tecnologia. E quando l’azienda che si fa portatrice della qualità italiana si ritrova a operare su molte sedi lontane fra loro, alla frammentazione geografica si può contrapporre sul piano tecnologico il principio dell’integrazione, dell’unità. Canali, storico specialista in capi sartoriali di lusso, oggi è un’azienda fortemente internazionale: il gruppo, guidato dalla terza generazione, ha sette centri produttivi in Italia, 1.600 dipendenti, oltre 230 boutique e mille altri punti vendita in un centinaio di Paesi. “Dal 1934, anno di fondazione, Canali ha assistito a una rapida espansione del proprio business a livello globale”, spiega il chief information officer, Giovanni Colzani, “con la conseguente necessità di creare un’infrastruttura informatica più avanzata a sostegno delle varie funzioni aziendali. Il retail diretto, per esempio, è cresciuto esponenzialmente soprattutto nei mercati esteri, Asia e Stati Uniti in primo piano, facendo diventare fondamentale l’utilizzo di sistemi informativi capaci di soddisfare in tempi rapidi le nuove esigenze delle linee di business”. La risposta è arrivata da Capgemini, uno tra i più affermati provider di servizi di consulenza, tecnologia e outsourcing, e da DataFashion, realtà che da oltre quindici anni fornisce soluzioni It per il settore della moda e del lusso: insieme, le due società hanno ridisegnato il sistema informativo di Canali utilizzando la piattaforma Microsoft Dynamics come base della nuova architettura applicativa. In essa i diversi processi di business e relative applicazioni (produzione, gestione della clientela, pianificazione delle risorse, vendite, analisi dei dati, ecc.) operano in modo integrato. Al momento, il nuo-

vo approccio è stato adottato da Canali in Asia e negli Stati Uniti, e nel prossimo triennio Capgemini e DataFashion saranno impegnate nell’implementazione end-to-end della piattaforma Microsoft Dynamics AX in ambito europeo, parallelamente alla ristrutturazione dei sistemi informativi e dei processi produttivi degli stabilimenti. La strategia di fondo mira a creare una struttura d’impresa connessa che, attraverso un sistema gestionale avanzato, tiene le redini di tutti i processi del gruppo e dei siti produttivi italiani. “Il mondo della moda e del lusso è molto esigente”, dichiara Edoardo Bolzani, presidente di DataFashion. “Le aziende necessitano di strumenti gestionali particolarmente sofisticati in quanto devono soddisfare elevati standard qualitativi, e questo ci ha spinto a cercare un system integrator leader nel settore It. Lo abbiamo trovato in Capgemini”. Le due società hanno quindi formato una partnership con l’obiettivo di supportare le aziende del settore fashion e del retail nell’adozione di strumenti di Enterprise Resource Planning più attuali e soluzioni basate su Microsoft Dynamics AX. “Da

questo momento”, ha aggiunto Giuseppe Camia, vice presidente manifacturing retail & distribution leader di Capgemini, “i clienti di questo mercato potranno beneficiare di un supporto completo: dall’inserimento dei prodotti con specifici servizi di consulenza all’integrazione di sistemi, dalla formazione all’affiancamento e al supporto nella gestione delle infrastrutture tecnologiche”. LA SOLUZIONE Il nuovo sistema informativo, basato sulla piattaforma Microsoft Dynamics AX abbinata a Microsoft Dynamics Crm, integra tutti i processi di Erp, i pagamenti tramite Point-osSale, il Crm, la Business Intelligence e la tesoreria. L’architettura applicativa gestisce ora tutte le attività aziendali, dalla produzione alla commercializzazione, alla vendita in store. Finora sono stati implementati i nuovi sistemi per le società estere del gruppo (Asia e Usa) mentre nei prossimi due anni verrà rinnovato il sistema It della capogruppo. FEBBRAIO 2014 |

35


ECCELLENZE.IT | Carapelli

L’IT FILA LISCIO COME L’OLIO GRAZIE A HEWLETT-PACKARD La storica azienda fiorentina, oggi parte di un gruppo internazionale, ha rinnovato la sua dotazione di personal computer e di stampanti affidandosi alle serie Elitebook e Compaq e alle multifunzione di HP. Con un occhio ai costi e l’altro alla produttività dei dipendenti in movimento fra una sede e l’altra.

D

ai campi ai computer, le eccellenze dell’agroalimentare italiano hanno ugualmente bisogno delle risorse della natura e della tecnologia. La dimostrazione è Carapelli Firenze, azienda nata quando di Pc e stampanti non si sentiva certo parlare – era il 1893 quando Costantino Carapelli, un commerciante di grano e olio, fondò a Montevarchi, Firenze, l’azienda che oggi è uno dei marchi più noti nel panorama nostrano – e che ha scelto HP per contenere i costi e aumentare la produttività dei propri dipendenti, operativi in sede e in mobilità. Entrata a far parte del gruppo internazionale Deoleo dal 2006, oggi la società gestisce e coordina nel mondo i marchi del gruppo, operando attraverso due stabilimenti in Italia con circa 300 dipendenti e due sedi di rappresentanza in Belgio e Francia, e vendendo 200 milioni di chili di olio all’anno. Carapelli aveva acquistato sia i personal computer sia le stampanti con un contratto di locazione operativa, contratto che era in prossimità di scadenza. “Con un parco Pc vecchio di tre o quattro anni e stampanti anche più obsolete, sia la produttività degli utenti sia le attività di gestione e manutenzione iniziavano a diventare problematiche”, 36

| FEBBRAIO 2014

spiega Giampiero Geniali, It manager di Carapelli Firenze. “Contestualmente si avvertiva l’esigenza di crescere in produttività e di assicurare una continuità operativa di business che iniziava a mancare”. In particolare, per quanto riguarda i Pc l’azienda intendeva passare a un sistema operativo più aggiornato e sicuro, mentre sul fronte delle stampanti cercava un modo più semplice di gestire i consumabili (carta, cartucce, toner) e allo stesso tempo necessitava di modelli che supportassero il mobile printing. “Oltre l’80% degli utenti si sposta tra le varie sedi”, LA SOLUZIONE La fornitura per il rinnovamento tecnologico ha riguardato circa 150 portatili, suddivisi tra HP EliteBook 2560p e HP EliteBook 8460p, tutti provvisti di docking station e monitor, e una trentina di desktop HP Compaq 6200 Pro corredati di monitor HP Le2002x, destinati soprattutto alla produzione e alle postazioni. Le stampanti in dotazione sono una sessantina e includono 22 multifunzione destinate alla forza vendita; tutte sono dotate di driver Airport per la stampa da dispositivi mobili.

dice Geniali, “due in Italia, una in Francia e una in Belgio. Così ci siamo subito orientati su personal computer portatili e su stampanti in grado di gestire anche dispositivi mobili”. Dopo una fase di confronto delle alternative e di esecuzione di crash test, condotta con il supporto del partner TT Tecnosistemi, Carapelli si è orientata su HP: una scelta scaturita “oltre che dalla valutazione dei risultati dell’analisi, anche dalla grande fiducia che riponevamo nel brand e nel partner”, spiega l’It manager, specificando che “in termini di qualità dei materiali e di performance, HP si è dimostrato senza dubbio il miglior brand sul mercato”. I benefici non sono tardati ad arrivare: dopo una fase di roll-out durata due mesi, Carapelli ha ora diminuito di cinque unità il parco stampanti e ottenuto risparmi grazie alla formula commerciale proposta da TT Tecnosistemi (acquisto delle periferiche e pagamento di un canone trimestrale per assistenza e consumabili); ha ridotto le risorse It da dedicare alla manutezione dei sistemi hardware; ha migliorato la continuità del business grazie all’affidabilità, robustezza e performance dei dispositivi HP.


TECHNOPOLIS PER DELL

NUOVI TABLET ALL’INSEGNA DELLA FLESSIBILITÀ

Il continuo lancio di nuovi dispositivi touch (di recente anche un tablet da 8” della famiglia Dell VENUE) ha permesso agli utenti di sperimentare in prima persona la continuità e la comodità della stessa interfaccia su device multipli, a casa come in azienda, nel segno di un aumento della produttività e dell’intuitività a fronte di un notevole risparmio di tempo. È un dato di fatto che il mondo digitale tenda sempre più alla convergenza delle diverse piattaforme in termini di interfaccia utente, lasciando a quest’ultimo la possibilità di scegliere il dispositivo più adatto alle proprie esigenze. Microsoft Windows 8.1 è decisamente un prodotto innovativo, pensato per offrire all’utente il massimo delle performance. Il fatto di poter sfruttare lo stesso “look and feel” su un tablet, un computer e uno smartphone, e di avere esattamente lo stesso posizionamento delle icone sui vari dispositivi conferma quanto questo sistema operativo sia stato pensato ponendo l’esperienza dell’utente al centro e non come OS nuovo con cui familiarizzare. Per poter trarre il massimo vantaggio da tali sistemi operativi è però necessario affidarsi a dispositivi touch sviluppati appositamente per sfruttare al meglio tutte le opzioni messe a disposizione, sia per un utilizzo domestico sia per l’ambiente lavorativo. Fino a ora si è pensato ai tablet come a dispositivi da usare solamente in affiancamento a notebook e desktop, ma

le nuove ed eccezionali scelte tecnologiche selezionate da Dell per il modello VENUE 11, tra cui processori Intel, sistemi operativi di tipo business, display ad alta risoluzione, connettività integrata permettono l’integrazione di tablet, ultrabook e desktop in un dispositivo unico. La flessibilità rende i tablet una nuova soluzione completa: perfettamente integrabili al tempo stesso con kit collegati alla rete, monitor esterni, mouse, tastiere robuste e dotate di seconde batterie per aumentare l’autonomia, oppure con tastiere super leggere o eventualmente con custodie resistenti, adatte ad ambienti esterni e difficili. La performance di un tablet adesso restituisce finalmente la stessa esperienza di utilizzo di un computer portatile o desktop, l’autonomia diventa anche superiore rispetto ai notebook, spesso tramite batterie aggiuntive o estraibili, la capacità disco riesce a garantire lo spazio necessario per chi non vuole affidarsi solamente al cloud. E l’integrazione di porte di vario genere, da Usb a memorie SD, apre alla molteplicità di kit e strumenti utili al lavoro di ogni giorno. Anche lo scambio di informazioni, dati e contenuti conosce una nuova vita: schede integrate nel tablet per rimanere sempre connessi, tecnologie per trasmettere video o presentazioni senza cavi (come ad esempio Miracast) e nuove tecnologie per il pairing, come l’Nfc ,per collegare senza sforzi a dispositivi esterni Bluetooth. Al tempo stesso, la scelta di determinati tablet orientati a soddisfare in primis le esigenze aziendali diventa funzionale a garantire sicurezza e facilità di gestione. La possibilità di avere tablet già predisposti a crittografia, chip di sicurezza come il Tpm o eventualmente anche ospitanti lettori di smart card può essere utilissima in svariati contesti. La scelta di prodotti con cicli di vita garantiti o in grado di essere supportati in tutto il mondo e ovunque in tempi rapidissimi, magari facendo in modo che si possa accedere velocemente alle diverse periferiche interne per sostituirle, esattamente come su qualsiasi desktop, rende tali prodotti meglio controllabili e manutenibili. La possibilità di avere i pacchetti applicativi aziendali già precaricati in fabbrica pone la condizione per l’integrazione perfetta dei tablet nei vari contesti aziendali, soddifacendo sia le esigenze di chi lavora nell’It sia di chi li utilizza ogni giorno per lavoro e non solo. 37


ITALIA ITALIA DIGITALE DIGITALE |

Le variabili, di natura finanziaria e non, che bloccano l’avvio dei lavori per il piano di digitalizzazione della macchina pubblica sono ancora troppe. E si comincia a parlare di rischio fallimento per l’intero progetto di riforma.

AGENDA A RISCHIO? IL BIVIO DEI FONDI UE

”N

on ci possiamo più permettere lo spreco di fondi europei: dei 58 miliardi di euro della programmazione 2007-2013 spenderemo forse 18 miliardi. Stiamo lavorando con il Governo e le Regioni perché la disponibilità di risorse di Horizon 2020 sia ben sfruttata. Ne va della realizzazione effettiva dell’Agenda digitale. Aspiro a 10 miliardi”. Parole che Agostino Ragosa, direttore dell’Agenzia per l’Italia Digitale (Agid), 38

| FEBBRAIO 2014

pronunciava a inizio dicembre scorso, convinto di mettere mano su denari (circa 30 i miliardi di euro destinati da Bruxelles all’Italia) vitali per lo sviluppo delle tecnologie digitali nel Belpaese. L’altra faccia dello stesso problema, rimpallato da mesi un po’ ovunque nelle stanze istituzionali, è il seguente: la programmazione dei fondi strutturali Ue 2014-2020 non riserva un trattamento di particolare favore alla “carta” che deve far cambiare passo all’Italia, al documento che il premier Enrico Let-

ta ha definito senza indugi “la riforma dello Stato”. Giusto prima di Natale era emerso come nella bozza di Accordo di partenariato elaborata dal Ministro per la Coesione territoriale, inviata alla Commissione Ue il 9 dicembre, non ci fosse traccia di assegnazione di fondi europei alle infrastrutture per la banda ultralarga. Alle reti ultraveloci sono assegnati solo fondi statali (spesso effimeri) e solo dal 2017. Dov’è il problema? Nel fatto che i data center e le piattaforme cloud,


i pilastri della nuova PA digitale, richiedono risorse infrastrutturali adeguate, le reti Ngn. E per realizzarle non possono bastare i fondi Cef Telecom definiti dalla Ue con il nuovo strumento Connecting Europe Facility, pari complessivamente a circa 1,1 miliardi di euro per il settore telecomunicazioni. A metà gennaio una nota del ministero guidato da Carlo Trigilia ha ribadito che per l’Agenda ci sono 1,8 miliardi di euro e, di questi, 630 milioni sono destinati alla banda larga, cui andrà anche un cofinanziamento nazionale di pari entità. Stando all’ultima versione della bozza, e questo è il punto su cui dibattere, i fondi 2014-2020 garantiranno complessivamente 3,6 miliardi di euro (50% europei e 50% nazionali-regionali) per PA digitale, banda ultra larga, alfabetizzazione informatica e piattaforme cloud. Un altro mezzo miliardo di euro sarà rivolto a sostenere gli investimenti delle imprese in soluzioni Ict. Basteranno o, come avverte Ragosa, c’è il rischio che l’Agenda rimanga ancora ai blocchi? Incertezze ed errori da evitare

Nella bozza per la distribuzione delle risorse europee, come è facile intuire, i buchi non mancano. Quello più evidente è forse di natura geografica. L’80% del budget per la banda larga è infatti dedicato alle regioni meno sviluppate (Calabria, Campania, Puglia, Sicilia, Basilicata) e identica sorte interessa i fondi per diffondere le tecnologie Ict nelle aziende. C’è da recuperare una porzione di Paese in ritardo, questo è indubbio, ma è questa la soluzione migliore per dare slancio al processo di digitalizzazione? Il problema principale, in ogni caso, è numerico. I fondi previsti dalla bozza di programmazione sembrano insufficienti, inferiori rispetto alle iniziali indicazioni del Governo e soprattutto alle richieste avanzate dall’Agid. Va evitato, inoltre, il ripetersi degli errori (dispersione delle risorse e incapacità di spenderle interamente) che hanno ca-

ratterizzato spesso e volentieri l’operato delle Regioni, nelle cui mani risiede la competenza della spesa dei fondi Ue. Un piano nazionale entro il quale far convergere i vari piani regionali risolverà il problema? La corsa a ostacoli di Caio

Lo scenario in cui l’Agenda dovrebbe trovare certezze per uscire dallo stallo è quindi ancora contrassegnato da molte, troppe variabili e da programmi per la digitalizzazione che di organico hanno poco. Il compito di “mister Agenda Digitale”, così come è stato ribattezzato Francesco Caio, fra problemi di governance (lo statuto che rende operativa l’Agenzia presieduta da Ragosa attende ancora, al

momento in cui scriviamo, il semaforo verde dalla Corte dei Conti) e di fondi limitati, rimane una sorta di impervia corsa a ostacoli. Le risorse finanziarie sono vitali per il progetto Agenda, così come sono inderogabili le azioni per riqualificare e razionalizzare la spesa e gli asset relativi alla dotazione Ict della macchina pubblica, dando sostanza a tutte le iniziative messe su carta da oltre un anno e mezzo, a cominciare dall’anagrafe digitale. Se le risorse europee non dovessero materializzarsi, si dice da più parti, sarebbe a rischio l’intero impianto del progetto Agenda. Di chi sarebbe la colpa di un eventuale fallimento? Di tutti e di nessuno, come sempre. Gianni Rusconi

SE POTESSIMO AVERE UN MILIARDO AL MESE Pagamenti elettronici, eProcurement, conservazione elettronica dei documenti fiscali. Ma anche fatturazione elettronica e integrazione delle relazioni tra la Pubblica Amministrazione e i suoi fornitori. Messi tutti insieme, i benefici economici legati alle voci sopra elencate costituirebbero un tesoretto di un miliardo di euro al mese. Miliardo che, slittando ancora gli interventi previsti dell’Agenda Digitale per la PA, è invece iscrivibile al bilancio virtuale del sistema Paese come una perdita. Secca e irrecuperabile. L’indicazione arriva dal Politecnico di Milano e si rapporta alle stime, elaborate sempre dagli esperti dell’ateneo milanese, relative ai vantaggi conseguibili nel medio periodo attraverso la digitalizzazione della macchina pubblica. Se ammonta a 35 miliardi anno il saving con l’Agenda a regime, i risparmi ottenibili da subito sono, come detto, nell’ordine di un miliardo al mese. E quindi una dozzina l’anno. Da dove arriverebbero? Da voci fra loro complementari, riunite sotto il

minimo comune denominatore di modesti interventi strutturali a livello di sistemi informativi, e distribuite fra aumento di produttività del personale della PA e altri benefici monetizzabili (dalla riduzione dei costi di acquisto all’abbattimento delle spese per i materiali di consumo). Il solo ricorso ai pagamenti elettronici, per esempio, andrebbe a generare risparmi quantificabili in oltre 350 milioni di euro al mese. Ma vanno adeguatamente incentivati fiscalmente o resi obbligatori per legge. Di e-procurement in Italia si parla da almeno 15 anni, ma l’incidenza delle transazioni online condotte dagli enti pubblici per acquistare beni e servizi è ferma al 5%; se tale percentuale venisse elevata al 30% si genererebbe un saving di ulteriori 350 milioni mensili nel bilancio della PA. E altri 100 milioni li porterebbe in dote la conservazione elettronica dei documenti fiscali in archivi digitali. Tagliare i costi dell’apparato pubblico non sembra una missione impossibile. Eppure... 39


ITALIA DIGITALE

PA DIGITALIZZATA: AVANTI (TROPPO) ADAGIO La spesa Ict degli enti pubblici è in calo dal 2007. Il 2014 potrebbe segnare l’inversione di tendenza. Ma serve anche un nuovo approccio da parte della comunità tecnologica.

L

a Pubblica Amministrazione italiana "è in forte ritardo sul fronte della digitalizzazione. La spesa continua a calare e permane una frammentazione nell’uso e nell’allocazione delle risorse che non consente di fare sistema. Troppe iniziative sono annunciate e tardano a essere avviate. Pur riconoscendo gli sforzi compiuti, bisogna rendersi conto che è necessario fare di più, meglio e in tempi più brevi”. Le dichiarazioni a firma di Elio Catania, presidente di Assinform, che hanno accompagnato la presentazione dei dati del 2° Osservatorio sull’Ict nella PA (realizzato dall’associazione che fa capo a Confindustria in collaborazione con NetConsulting e Netics), lanciano messaggi chiari. Sicuramente già noti e per questo ancora più allarmanti in una fase in cui il ricorso alle nuove tecnologie è considerato un passaggio obbligato per ridare vitalità al sistema Paese. Investimenti in calo

L’analisi dell’ex manager di Atm e Ferrovie dello Stato si fonda su dati che confermano come la spesa in soluzioni di Information e Communication Technology sia mediamente calata del 2,8% l’anno (del 4,3% nel 2012) fra il 2007 e il 2013. La crescita registrata, in controtendenza, nel settore sanitario e la maggiore disponibilità di servizi online per cittadini e imprese (spesso però limitata al download della modulistica da compilare) non basta a portare in pareggio il bilancio. Che risulta molto negativo 40

| FEBBRAIO 2014

soprattutto alla voce nuovi investimenti in soluzioni It, scesi al 40,5% nella PA centrale, al 26% nelle Regioni e a circa il 13% nei Comuni e nelle Province. Entrando nel dettaglio del rapporto di Assinform, si materializza un altro (noto) “buco nero” che affligge il processo di digitalizzazione della Pubblica Amministrazione italiana, e cioè lo scarso livello di integrazione applicativa e delle basi dati. Gli enti centrali non hanno database interoperabili con gli altri organismi della struttura centrale nel 58% dei casi; con le PA locali la percentuale sale al 90%. L’altra faccia dello stesso problema

è a livello hardware: i data center (o per meglio dire i Ced) attivi su tutto il territorio sono circa 4mila, con tutte le immaginabili duplicazioni di basi informative, spreco di capacità di elaborazione e mancanza di standardizzazione. Il cloud, dogma della PA che verrà, è previsto dal 50% degli enti centrali, ma solo il 20% oggi lo adotta per talune funzioni e oltre l’80% degli enti locali (Comuni e Province) non ne prevede ancora l’utilizzo. Tolti, insomma, isolati casi di efficienza e di adozione organica delle tecnologie informatiche, non si può certo dire che la digitalizzazione del settore pubblico stia


2007

6.165

2008

6.031

2009

5.858

2010

5.703

2011

5.664

2012

5.422

2013p

5.191

-2,2% -2,9% -2,6% -0,7% -4,3% -4,3%

Andamento e composizione della spesa ICT nella PA - 2007/2013 (parziale) (valori in milioni di euro e variazione %) Fonte: Oss. PA Assinform 2013

procedendo come il piano dell’Agenda Digitale vorrebbe. Ed è nell’Agenda del governo che, secondo Catania (e non solo secondo lui), dovrebbero trovare posto come priorità assoluta nuovi investimenti per l’ammodernamento della PA, anche per ridare la necessaria vitalità a un’industria, quella dell’Ict, che il numero di Assinform ritiene ancora “di assoluta rilevanza strategica per il Paese”. Il punto è rendere esecutivi i progetti contenuti nell’Agenda, con “responsabi-

lità chiare e tempi ben identificati”. Le occasioni da non perdere

Messo in archivio il 2013, che tipo di prospettive presenta l’anno in corso sotto il profilo della spesa Ict in orbita pubblica? All’orizzonte si profilano le prime grandi gare Consip Spc (Sistema Pubblico di Connettività) per un ammontare di circa 2,5 miliardi di euro. E di per sé è già questa un’occasione da sfruttare. In programma ci sono, inoltre, la gara

per l’Anagrafe Nazionale, i progetti di free WiFi e di smart city, il Fascicolo sanitario elettronico e, soprattutto, la nuova architettura cloud che si appoggerà ai 40 “nuovi” data center eletti a pilastri della “nuova” Pubblica Amministrazione digitale dal titolare dell’Agid (Agenzia per l’Agenda Digitale), Agostino Ragosa. Gli esperti citano infine, quale voce che potrebbe raggiungere dimensioni di tutto rispetto nel prossimo futuro, l’acquisizione di servizi tecnologici attraverso meccanismi di project financing pubblico-privato. Ed è questa forma evoluta di procurement, forse, l’opportunità più importante che gli attori dell’universo Ict (vendor, società di consulenza, system integrator e software vendor locali) dovrebbero saper cogliere. Servirebbe, in altre parole, una veloce riconfigurazione, dall’interno, della filiera tecnologica che lavora per la PA. Ed è un cambiamento culturale che né l’Agenda né qualsiasi decreto “del Fare” possono determinare o imporre. Piero Aprile

REGIONI E INNOVAZIONE: ISTRUZIONI PER L’USO "Le Regioni devono fare da anello di congiunzione fra le imprese sul territorio e i finanziamenti e i progetti europei. Operare da collettore per lo scambio di competenze, da abilitatore di nuovi modelli di ricerca industriale, da facilitatore dell’offerta di innovazione”. La ricetta è di Pierantonio Macola, amministratore delegato di Smau, secondo cui l’adozione delle tecnologie digitali e la spesa in ricerca e sviluppo sono “indici che devono necessariamente crescere, e crescere velocemente”. I fondi europei di Horizon 2020, in tal senso, sono una risorsa su cui gli enti locali italiani devono mettere tassativamente le mani per due ordini di motivi: sono loro che conoscono bene (o dovrebbero co-

noscere bene) il tessuto economicoproduttivo di competenza e le Pmi che lo popolano; e sono loro che, di fatto, dispongono dei fondi strutturali elargiti dalla UE. La situazione di partenza, non certo incoraggiante, è la seguente: il rapporto fra spesa It e Pil in Italia è dell’1,3%, la media Ue dei 27 è del 2,2% ed inferiore di tre volte rispetto ai principali Paesi; la spesa in R&D è pari all’1,3%, mentre la media europea è del 2%. Chi può eliminare questo gap di innovazione? La partita, secondo alcuni, va giocata per l’appunto al livello delle singole Regioni, il cui primo obiettivo non può essere che quello di spendere meglio (e non solo nella misura media del 40 o

50%) le risorse finanziarie che arrivano da Bruxelles. La problematica è sicuramente di non facile soluzione perché, al di là del diverso grado di utilizzo dei fondi comunitari (si arriva nel migliore dei casi a un consumo del 70% delle risorse in gioco), interessa anche la spesa in It e in ricerca e sviluppo delle Pmi (con valori anche molto diversi fra di loro) e l’atteggiamento nei confronti delle start up. Da Lombardia, Emilia Romagna, Campania e Calabria arrivano i segnali più incoraggianti in fatto di iniziative (finanziamenti, sgravi fiscali, reti regionali per la ricerca) a supporto di nuove imprese innovative. Ma la strada da fare è ancora lunghissima. 41


OBBIETTIVO SU | Asus

IL NUOVO DESIGN VIENE DA TAIWAN Asus scala le classifiche di vendita di Pc e tablet grazie a ingenti sforzi in ricerca ed ergonomia.

42

| FEBBRAIO 2014

S

ono passati relativamente pochi anni dalla fondazione di Asustek, inizialmente un fornitore di schede madri e componenti per le multinazionali dell’informatica e poi produttore esso stesso di modelli completi. La società taiwanese, nata nel 1989 a Taipei, ha puntato a scalare il difficile mercato dei personal computer (soprattutto portatili) distinguendosi subito per creatività e innovazione. Sue sono le partnership con note case automobilistiche “cult”, come quella con Lamborghini nata per ridisegnare l’estetica dei notebook di punta, sua l’introduzione di potenti funzionalità

audio (sempre nei portatili) per aumentare la soddisfazione e l’esperienza degli utenti in mobilità. Suo il ricorso, anche se poi la parabola è stata molto breve, al formato netbook (con la storica linea Asus Eee Pc). Gli anni più recenti hanno visto l’impegno della multinazionale sul fronte dei prodotti “trasformabili”, vale a dire ibridi: notebook con schermo staccabile, combinazioni di tablet e smartphone, tastiere che scorrono e cambiano il form factor del computer. Una strategia che ha pagato, se è vero che oggi Asus occupa oltre 12mila dipendenti in tutto il mondo e muove un giro d’affari superiore ai 14 miliardi di dollari.


Il quartier generale Asus di Taipei è una vera e propria cittadella della tecnologia. Vi trovano posto gli uffici, i centri di ricerca e di design, i laboratori per il testing e la prototipazione. In queste immagini sono illustrate alcune fasi della produzione, i test sonori e le prove di resistenza meccanica delle tastiere.

IL NOME ASUS DERIVA DA PEGASUS, IL CAVALLO ALATO DELLA MITOLOGIA GRECA, CHE EVOCA, TRA LE ALTRE COSE, L'AMORE PER L'ARTE E L'APPRENDIMENTO.

43


OBBIETTIVO SU | Asus

PARTENDO DAI SINGOLI COMPONENTI, ASUS È ARRIVATA A PRODURRE TUTTI I DISPOSITIVI DIGITALI PIÙ IN VOGA SUL MERCATO: PC, TABLET, SMARTPHONE E "PHABLET", MA SOPRATTUTTO MODELLI TRASFORMABILI.

INGEGNERI IN QUANTITÀ Dei 12mila dipendenti della compagnia, ben 3.800 sono ingegneri. Questo spiega gli sforzi in ricerca e sviluppo e l'attenzione ai materiali e alle nuove tecnologie, che hanno portato Asus a diventare un marchio riconosciuto e a staccarsi dalla facile etichetta di "produttore di cloni", che fino a pochi anni fa veniva attribuita a chiunque assemblasse Pc in Asia . Un percorso, quello della casa taiwanese, simile a quello dei coreani di Samsung.

44

| FEBBRAIO 2014


I colori e i materiali sono sempre stati un chiodo fisso di Asus, che ha cercato di connotare e differenziare i propri prodotti giĂ al tocco e alla vista. Sono nati cosĂŹ i cromatismi azzardati e le texture particolari (come quella in basso nella pagina a fianco) che permettono di riconoscere al primo sguardo un modello della multinazionale taiwanese.

45


INTELLIGENCE INSIGHTS RESULTS ANALYTICS INING ✔ DATA M STING ✔ FORECA

BUSINESS INTELLIGENCE

GEOMARKETING

PUBBLICITA’

RETAIL PERFORMA NCE MANAGEM ENT ✔ SALE S FORCE EFFECTIVE NESS ✔

✔ DATA INTEG

RATION ✔ DATA QUA LITY

LTY CRM & LOYA MER ✔ CUSTO E INTELLIGENC

MARKETING N AUTOMATIO

Value Lab è un’innovativa società di consulenza di Management e Information Technology che opera a livello nazionale e internazionale, specializzata sui temi di marketing, vendite e retailing. Aiutiamo aziende di produzione, distribuzione e servizi ad aumentare i ricavi, ridurre i rischi e ottimizzare i costi migliorando le scelte strategiche e la gestione operativa di mercati, clienti, punti vendita e reti di vendita.

MILANO Via Durini, 23 Telefono: +39.02 77 88 931

ROMA Salita S. Nicola da Tolentino, 1/b Telefono: +39.06.91 80 20 01

www.valuelab.it


VETRINA HI-TECH

IL FUTURO? È FATTO DI SOLE E IDROGENO Per ora siamo a livello di soli prototipi, ma la nuova frontiera delle auto “green” è di fatto già tracciata. E due illustri esempi arrivano da Ford e Toyota. La casa americana ha presentato all’ultimo Ces di Las Vegas la CMax Solar Energi Concept, vettura ibrido-elettrica il cui vanto è un innovativo sistema di pannelli fotovoltaici, installato sul tetto dell’auto e dotato di uno speciale convogliatore di energia solare per ricaricare le batterie. Le sue prestazioni? Con un giorno di esposizione ai raggi solari, assicura Ford, viene garantita la stessa autonomia del propulsore elettrico (35 chilometri, sui circa mille complessivi che può percorrere la Solar Energi Concept) della plug-in ibrida a piena carica. La peculiarità della Fuel Cell di Toyota è invece quella di combinare idrogeno e aria per creare 10 kilowatt di elettricità per ora ed alimentare serbatoi “ricaricabili” molto più velocemente delle batterie di una comune auto elettrica. L’autonomia di percorrenza del prototipo a celle combustibili è di 310 miglia (poco meno di 500 chilometri) e per completare il pieno di idrogeno servono circa tre minuti. I primi modelli di serie dovrebbero arrivare su strada intorno al 2015.

VIAGGIO NEL CAR INFOTAINMENT 2.0 Dentro l’abitacolo convivono nuove tecnologie, applicazioni e connettività senza fili. L’esperienza d’uso passa dal volante al cruscotto, che diventa sempre più intelligente.

L

a maggioranza fra coloro che compreranno un’auto nuova entro il 2016, dicono alcuni studi, si aspetta per lo meno una disponibilità “basic” di servizi online a bordo vettura. Una tendenza che ribadisce un concetto noto: le tecnologie che oggi già farciscono l’abitacolo (dalla realtà aumentata alle app mobili, dagli head up display alla connettività 3G/4G) saranno sempre di più accessori irrinunciabili accanto a sensori e piattaforme di infotainment a comandi vocali. Il loro compito? Rendere l’auto un vero e proprio centro di elaborazione dati intelligente, sempre connesso (via smartphone o tablet) con il profilo e con l’identità digitale dell’utente. C’è chi descrive questi veicoli di nuova generazione come veri e propri “compagni digitali”. E forse non esagera. I cruscotti cambiano faccia

Open Automotive Alliance: si può parti-

re dal consorzio che Google ha annunciato al Ces di Las Vegas, al fianco di General Motors, Honda, Audi, Hyundai e al produttore di chip Nvidia, per capire l’evoluzione che sta interessando l’interno delle vetture. L’essenza del computing 2.0 – fatto di connettività in banda larga mobile, servizi cloud, contenuti digitali e app mobili – viaggia ormai anche sulle quattro ruote e Android è probabilmente l’icona più rappresentativa del matrimonio celebrato fra auto e universo hi-tech. Sui sistemi di car infotainment non viaggia, però, solo la tecnologia di Google. Apple lavora da oltre un anno al progetto “iOs in the car” per portare l’assistente virtuale Siri e tutte le funzionalità degli iPhone a bordo di Bmw, Mercedes, Land Rover, Jaguar, Audi, Kia, Toyota, Opel, Chrysler, Hyunday, Honda e pure Ferrari. La piattaforma Sync AppLink di Ford, fra gli esempi più avanzati di interopeFEBBRAIO 2014 |

47


VETRINA HI-TECH

rabilità fra computer di bordo e device mobile attraverso i comandi vocali (oltre 60 le app mobili sviluppate per smartphone e tablet iOs e Android), gira su una versione ad hoc di Windows. I sistemi “in car” dell’auto intelligente e connessa, questo il nuovo paradigma, permettono di inviare e leggere messaggi, accedere alle mappe e al sistema di navigazione, chiamare i propri contatti o lanciare la riproduzione di una canzone con il solo ausilio della voce, senza distogliere lo sguardo dal volante. E siamo solo all’inizio. Volvo, con la nuova soluzione Sensus Connect (basata sulla tecnologia Vehicle Cloud di Ericsson), offrirà a conducente e passeggeri una gamma di servizi aggiornabili da remoto, in qualsiasi momento e luogo. Quali? Per esempio, la possibilità di ottenere informazioni sui punti d’interesse più vicini alla propria posizione utilizzando Wikipedia, oppure di pre-climatizzare l’abitacolo attraverso lo smartphone. Nella plancia di alcuni modelli Mercedes arriveranno invece, a partire dalla primavera (e si tratta del primo costruttore a esibirle), le funzionalità di Google+, il social network di Mountain View. Nuove interfacce Web based (sviluppate in collaborazione con Nest Labs, azienda di domotica della Silicon Valley)

apriranno il fronte a un’interazione più spinta fra le auto della Stella a tre punte e il conducente, finalizzata a gestire direttamente dall’abitacolo l’impianto di riscaldamento della casa. Il tutto tramite un’apposita app, Digital DriveStyle. Schermi virtuali e smartwatch

Nella nuova frontiera del car infotainment ci sono quindi anche i tablet, come il nuovo Audi Smart Display da 10 pollici basato su Android. La tavoletta opererà come una specie di controller remoto (comunicante con il sistema di bordo via WiFi e connesso con la scheda Sim integrata nell’auto) per la navigazione, la gestione delle telefonate e di tutte le app scaricabili sul dispositivo. Gli “head up display”, e cioè i sistemi che proiettano virtualmente sul parabrezza una serie di informazioni relative alla strumentazione di bordo, visualizzeranno nel futuro prossimo servizi, dati e funzionalità (radio, sistema di navigazione, app) che il conducente richiederà e attiverà direttamente con la voce e con i gesti della mano, grazie a micro telecamere e sensori a infrarossi. La piattaforma User-centered Driver (Ucd) di Kia Motors è l’emblema di questa ulteriore trasformazione del cruscotto. Il futuro delle tecnologie “in vehicle”, il

Auto robot sulle strade dal 2020? Nissan, Mercedes-Benz, Audi, Tesla, Volvo. Sono le case automobilistiche pioniere nel campo delle “driverless car”, le apripista di un filone che vede in realtà impegnati tutti gli esponenti dell’industria delle quattro ruote e molti vendor di tecnologia, da Google a Nvidia passando per Microsoft e Qualcomm. L’avvento delle auto che si guidano da sole, e parliamo di vetture destinate al mercato e non di soli prototipi (fra cui c’è anche quello, BRAiVe, sviluppato dal VisLab dell’Università di Parma), dovremo però aspettarlo ancora parecchio.

nuovo salto in avanti che l’industria automotive vuole fare per elevare ulteriormente l’esperienza d’uso dell’auto, sono infine i dispositivi indossabili. Mercedes, in quest’ottica, ha messo in mostra al Ces i primi esemplari di smartwatch realizzati in collaborazione con Pebble, uno dei massimi specialisti in fatto di orolo-

FORD Sync App Link

BMW Connected Drive

AUDI Mmi

Tramite comandi vocali permette di gestire le app presenti sugli smartphone e quelle, come Spotify e TomTom, preinstallate nel sistema di connettività. Di serie anche la funzione Emergency Assistance.

Grazie a una Sim card integrata a bordo, abilita la navigazione Internet e l’accesso ai servizi della piattaforma di infotainment, senza utilizzare il telefonino e sfruttando il joystick iDrive Controller.

Offre la connettività su rete mobile Lte per accedere ai servizi online di Google come Earth e Street View. Tutte le funzionalità del computer di bordo sono gestite dal controller ruotabile vicino al cambio.

48

| FEBBRAIO 2014


Probabilmente qualche anno oltre l’ottimistico termine del 2020 fissato dai produttori. Dal 2025 in poi, però, la domanda di auto capaci di muoversi sulle strade in quasi totale autonomia (i primi modelli abiliteranno infatti anche il controllo da parte del conducente) dovrebbe iniziare a correre. Almeno stando alle previsioni della società di ricerca Ihs, secondo cui le vendite delle “driverless car” passeranno da circa 230mila a 11,8 milioni di esemplari (il 9% dei 129 milioni di vetture che usciranno dalle concessionarie in tutto il mondo) in dieci anni. Nel 2035, questo lo scenario, saranno complessivamente circa 54 milioni i veicoli “driverless” circolanti nel pianeta, il 40% dei quali sarà a guida completamente automatica.

Quanto costeranno? Si parla per il 2025 di un sovrapprezzo, rispetto ai modelli di serie da cui saranno derivate, fra i 7mila e 10mila dollari, che andrà via via a ridursi nel corso

del decennio successivo. America del Nord (con il 29% delle vendite previste), Cina (24%) ed Europa occidentale (20%) i tre mercati a oggi ritenuti più sensibili al fenomeno.

gi intelligenti, e concepiti per dialogare con il computer di bordo. Il dispositivo intelligente rileverà tutta una serie di informazioni dal sistema di connettività, con il quale è totalmente sincronizzato, e segnalerà in tempo reale al proprietario del veicolo, vibrando o tramite messaggi, il livello di carburante residuo piuttosto

che l’avvenuta chiusura delle porte. Simile l’idea di Bmw, che ha stretto un sodalizio con Samsung per abilitare, tramite una versione ad hoc della app i Remote, l’accesso alle informazioni dell’elettrica i3 dallo smartwatch Galaxy Gear. L’applicazione, in particolare, segnalerà tramite la Sim card installata a bordo

l’autonomia e il livello di carica della batteria e potrà accedere ai comandi del climatizzatore della vettura. Sfruttando, volendo, anche i comandi vocali della tecnologia S Voice installata sul Galaxy Gear. È la nuova era dell’infotainment che sfreccia su strada. Gianni Rusconi

MERCEDES-BENZ Intelligent Drive

FIAT - ALFA ROMEO Uconnect

KIA MOTORS Uvo

Alle funzioni di guida semi-automatica che sfruttano sensori radar e videocamere stereoscopiche si aggiungerà presto un’interfaccia ottimizzata per interoperare con i Google Glass tramite apposita app.

Permette di utilizzare diversi supporti multimediali attraverso la porta Usb e uno slot per schede SD e tramite comandi vocali può avviare l’ascolto di web radio direttamente dallo smartphone.

La nuova versione supporta il riconoscimento vocale per dettare al sistema messaggi, selezionare la canzone da riprodurre in streaming dallo smartphone o richiedere al Gps l’itinerario per la destinazione scelta.

49


VETRINA HI-TECH

pillole digitali

SNOM TECHNOLOGY Snom 715

La telefonia moderna, facile e in grado di generare risparmi, è alla portata di qualsiasi ufficio con una spesa di poco superiore ai cento euro. Il nuovo Snom 715 è un terminale VoIP che l’azienda produttrice definisce come entry level, ma capace di offrire un audio in alta definizione, privo di effetti di eco e di interferenze. È dotato di switch gigabit e di una porta Usb impiegabile sia per ricaricare dispositivi esterni, sia per collegare il telefono (tramite adattatore Wlan) alle reti wireless esistenti. Il telefono può gestire direttamente fino a quattro diversi account SIP e ospita, sotto al display, quattro tasti funzione e ulteriori pulsanti programmabili a discrezione dell’utente. Nel costo è inclusa una garanzia biennale sull’hardware. Prezzo: 109 euro (Iva esclusa)

NETGEAR nighthawk r7000

Possiamo dire addio alle connessioni lente o instabili, alle telefonate VoIP dall’audio scarso e alle videoconferenze che “saltano” per colpa di un segnale troppo debole. Il nuovo router di Netgear è un modello dual-band

50

| FEBBRAIO 2014

802.11ac che promette, parole del produttore, di garantire “la più elevata velocità al mondo nell’ambito del WiFi Gigabit”. Il dispositivo combina un potente processore dual core da 1 GHz con una porta USB 3.0 SuperSpeed e con il Beamforming+ di Netgear, una tecnologia di gestione del segnale che incrementa velocità, portata e affidabilità delle connessioni WiFi.Inoltre, grazie ad amplificatori WiFi a elevata potenza e a tre antenne esterne, questo router garantisce copertura non solo nell’ambiente chiuso in cui è collocato, ma anche all’esterno. Presenti una porta Usb 3.0 SuperSpeed, cinque porte Gigabit Ethernet (una Wan e quattro Lan) e il supporto Vpn. Prezzo: 249,90 euro (Iva inclusa)

CANON I-Sensys MF6140DN e MF6180DW

Le nuove all-in-one di Canon con funzioni di stampa laser in bianco e nero, scansione e copia (e nel caso della MF6180dw anche di fax) offrono diverse funzionalità utili per essere produttivi anche lontano da una scrivania e da un computer, dal momento che supportano Apple AirPrint e Google Cloud Print. Integrano, inoltre, un aggiornamento dell’app Canon Mobile Printing (che può ora correggere infatti eventuali errori di formattazione o di layout del documento) e la nuova app Canon Mobile Scanning per il Business, che permette di eseguire in

modo diretto scansioni da dispositivi mobili o dal cloud, inviarli via e-mail, condividerli e archiviarli su supporto locale o nella nuvola. La velocità di stampa arriva fino a 33 pagine al minuto, il cassetto di alimentazione può contenere fino a 800 fogli ed è previso il fronte/retro automatico. Il prezzo suggerito è di 460 Iva inclusa, per la i-Sensys MF6140dn, e di 574 euro per la MF6180dw. Prezzo: da 460 euro

THECUS N7710-G e N8810U-G

Si rivolgono alle aziende con ambienti multi-client i nuovi dispositivi per lo storage di rete firmati Thecus. La serie N7710-G a sette bay e la serie N8810U-G a 8 bay presentano entrambe miglioramenti prestazionali, rispetto alle generazioni precedenti, grazie alla presenza di processori Intel Pentium equipaggiati con Cpu G850 dual-core, e alla tecnologia 10 GbE. Per lo storage, con a disposizione Raid 0, 1, 5, 6 e 10, gli utenti possono scegliere l’equilibrio tra prestazioni e ridondanza più consono alle proprie esigenze; entrambi i modelli vengono forniti con memoria Ram Error Checking & Correction (Ecc) in grado di rilevare e correggere errori su singoli bit e dunque essenziale per il calcolo scientifico e finanziario. Presenti anche strumenti di crittografia, l’antivirus di McAfee e il software di backup e ripristino Acronis True Image, oltre alle interfacce Hdmi e Usb 3.0. Prezzo: da 1149 euro




Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.