Logyn - password not required - n.10

Page 1

n°10

Giugno 2015

Eurosystem S.p.A.

L’INTELLIGENZA ARTIFICIALE SOSTIENE O TRAVOLGE L’UOMO? PROGETTI, PROSPETTIVE E IMPLICAZIONI

incontri con

scenari

stile libero

PIERGIORGIO ODIFREDDI ANIMALITÀ UMANA E INTELLIGENZA ARTIFICIALE DARTMOUTH COLLEGE DEEP LEARNING E RETI NEURALI GIORGIO METTA ICUBE: QUANTO SIAMO LONTANI DA BLADE RUNNER?

MERCEDES-BENZ L’AUTO INTELLIGENTE CHE PORTA A SPASSO OCCAMBEE DAL PARCO ANIMATO AL VIRTUAL PROMOTER FONDAZIONE MARCONI IA: ACQUISIRE, ELABORARE, COMUNICARE L’INFORMAZIONE

IL VIAGGIO HONG KONG: DAL COMPUTER MANAGER A QUELLO CONSIGLIERE PERCORSI PAOLO CIANCARINI: L’INTELLIGENZA ARTIFICIALE DEGLI SCACCHI SPORT LUIGI DA TOME: NBA, UN NUOVO INIZIO



editoriale

GIAN NELLO PICCOLI Eurosystem S.p.A.

Lungo la via dell’innovazione, si è aperto con questo titolo il numero 00 di Logyn e oggi il n.10 rappresenta una tappa importante che abbiamo pensato dovesse dare un seguito alla via intrapresa. Parleremo della parte più estremizzata dell’innovazione tecnologica: l’Intelligenza Artificiale (IA). La fantascienza ci propina macchine intelligenti al pari dell’uomo, con tutte le implicazioni che ne possono derivare, di natura etica e non solo. Fortunatamente la realtà è molto diversa, perché l’Intelligenza Artificiale sta progredendo per scomparti. Il panorama raccontato in questo numero vede una carrellata di ospiti che raccontano i progetti e i progressi in atto che portano l’IA in diverse direzioni: domotica, deep learning, smart city, assistenza socio-sanitaria, medicina, auto. Nessun pericolo che un androide possa avere la supremazia sull’uomo e che l’IA possa nuocerci in qualche modo. Il risultato che gli scienziati si auspicano è che la tecnologia diventi trasparente, non invasiva e che prenda parte dell’esistenza dell’uomo in modo naturale. L’unico scopo è semplificare la nostra vita migliorandone la qualità. Il matematico Piergiorgio Odifreddi ha detto nella sua intervista di punta di questo numero: “L’IA non può essere

deleteria, ma è dove la stupidità umana può spingersi attraverso l’IA che può creare dei problemi”. Il lavoro in tutto questo che sviluppi potrà avere? Per noi imprenditori se, da una parte, può significare sostituire con le macchine determinate figure operative legate a mansioni meccaniche spesso alienanti, dall’altra, significa compensarle con figure più specializzate nell’ambito IT. Quindi, si può dire che si sta assistendo anche al miglioramento della qualità delle professioni. L’Italia dell’Intelligenza Artificiale lavora ma non abbastanza. Emerge forte la consapevolezza di avere molti talenti e progetti scientifici di grande rilievo che hanno difficoltà a imporsi per la forte burocrazia. Per questo noi imprenditori dobbiamo avere un ruolo importante nel sostegno al mondo delle università e della ricerca, ma a mio avviso abbiamo la necessità che anche le forze politiche ci supportino in modo “intelligente” e collaborativo in questa direzione. Gian Nello Piccoli 3


incontri con

PIERGIORGIO ODIFREDDI QUANTA ANIMALITÀ UMANA C’È NELL’INTELLIGENZA ARTIFICIALE?

6

24 ICUB “IO NE HO VISTE COSE CHE VOI UMANI NON POTRESTE IMMAGINARVI”

scenari

30 MERCEDES-BENZ ITALIA L’AUTO INTELLIGENTE CHE TI PORTA A SPASSO

46 FONDAZIONE MARCONI IA: ACQUISIRE, ELABORARE, COMUNICARE L’INFORMAZIONE


stile libero

81

IL VIAGGIO HONG KONG: DAL COMPUTER MANAGER AL COMPUTER CONSIGLIERE

85

LUIGI DATOME SPORT NBA, L’OLIMPO DEL BASKET NON È UN TRAGUARDO MA UN INIZIO

SOMMARIO 3

editoriale di Gian Nello Piccoli

6 6 20

24 32 49

incontri con PIERGIORGIO ODIFREDDI

Quanta animalità umana c’è nell’Intelligenza Artificiale? DARTMOUTH COLLEGE

Deep learning: percepire l’ambiente per riconoscerlo e classificarlo GIORGIO METTA

iCub: quanto siamo lontani da Blade Runner? EMANUELE RUFFALDI

Ramcip: l’operatore socio assistenziale robot ASCO TLC

Il viaggio dell’informazione sulle autostrade digitali

f

10 ocus 10 L’Intelligenza Artificiale sostiene o travolge l’uomo?

16 16

scenari STEFANO MORIGGI PENSARE CON LE MACCHINE!

28 Mercedes-Benz Italia: l’auto

71 72 74 76

memoria artificiale

40 Occambee: dal parco animato al virtual promoter

Il commercio elettronico diretto Internet of Things Rubare una mela non è più un reato?

s

62 tories 62 Star Automation Europe: flessibilità e automazione con l’ERP

intelligente che ti porta a spasso

35 La casa come entità intelligente 38 Bizen: Google, intelligenza e

Amministrazione del personale

s

66 pazio a y 66 Quando il software gestionale ha la testa piena e... la memoria corta

78 78

stile libero CONOSCIAMOCI

44 A. Marazzi: l’artificiale è naturale Lavorare con IT e ICT 46 Fondazione Marconi: l’IA come un 81 IL VIAGGIO concetto interpretabile

52 Moca: marketing automation 54 Oracle Italia: Intelligent Economy 85 e Cloud

56 Smart Business: l’impresa diventa 88 digitale?

59 EMC World 2015: rivoluzione IT 61 @EUROSYSTEM.IT Cryptolocker, cosa fare?

65

@EUROSYSTEM.IT

Innovare tramite una working list

Hong Kong: dal computer manager al computer consigliere SPORT

L. Datome: NBA, l’olimpo del basket non è un traguardo ma un inizio PERCORSI

Scacchi: la scelta di un solo secondo

92

CUCINA

95

UFFICIOVERDE

97

FUMETTI

L’acqua di mare & l’erba voglio La ninfea La matita di Sue


GIUGNO 2015

QUANTA ANIMALITÀ UMANA C’È NELL’INTELLIGENZA ARTIFICIALE? L’intelligenza naturale, meccanica e animale

Negli anni ‘50 gli studi sull’Intelligenza Artificiale (IA) sono partiti con l’esaltazione della razionalità e la banalizzazione della parte animale, è per questo che oggi l’IA imita molto bene l’intelligenza meccanica. Oggi si dice che la nostra parte animale non è per niente secondaria, pertanto è rientrata a pieno regime negli studi sull’IA. Piergiorgio Odifreddi ci trascina in un affascinante percorso che ricalca le origini, l’etica, i sentimenti e la stupidità umana nell’Intelligenza Artificiale.

6


incontri con comporterebbe farsi domande sui grandi temi della vita, come cosa è l’amore. Turing, però, era una persona più pratica e decise di dare una risposta operativa, con un test, appunto il test di Turing. In concreto lui diceva che se non si riconosce la differenza di risposta di una macchina da quella di un uomo, vuol dire che chi sta rispondendo simula bene l’uomo. Questo significa che è intelligente allo stesso modo. Oggi non credo che nessuno si preoccupi di costruire un computer con un’intelligenza in senso generale, che sappia parlare di musica, poesia, o altro, invece se parliamo di campi specifici ci sono grandi progressi in atto. Ne è esempio il mondo della medicina con i cosiddetti sistemi aperti per la cura del fegato: nel programma vengono inserite le conoscenze specifiche di un pool di medici, possibili domande e possibili risposte sulla diagnosi. Cosa è per Lei l’Intelligenza Artificiale (IA)? Ci sono tanti tipi di intelligenza, c’è quella naturale che si suppone sia quella degli uomini, - ma non tutti sono così fortunati - poi c’è l’intelligenza animale che riguarda anche una buona parte di noi, infine l’intelligenza militare o meccanica che riguarda la semplice esecuzione di comandi. In fondo quest’ultima è quella che si cerca di trasferire in una macchina. L’IA è il tentativo di far fare alle macchine quello che fanno gli uomini, attraverso l’uso dell’intelligenza meccanica. Lo studio dell’IA è iniziato negli anni ‘50 con Alan Turing. L’idea era di far fare dei calcoli ad una macchina e capire se dietro questo ci potesse essere qualcosa di più profondo. Turing pensò subito al gioco degli scacchi, che ha una parte prettamente legata ai numeri e un’altra parte più creativa. Infatti, Turing fece il primo programma per far giocare a scacchi un calcolatore. Durante l’esperimento la macchina perse in poche mosse contro l’uomo. Oggi a distanza di 60 anni avviene esattamente il contrario. Questo però non significa che le macchine sono più intelligenti, utilizzano solo dei processi diversi da quelli dell’uomo. Si può parlare oggi di computer intelligenti? Dipende da cosa s’intende per intelligente, Turing si è posto questa domanda. Ci sarebbero tante risposte, quella filosofica

Alla luce degli ultimi sviluppi tecnologici si può pensare che il cervello umano possa essere riprodotto nel suo emisfero destro, ovvero, quella parte preposta alla percezione, alla creatività, ai sentimenti? Credo si siano preoccupati poco di mettere i sentimenti nei computer. Agli inizi dei primi studi sull’IA, che risalgono al primo vero congresso nel 1956, Herbert A. Simon si distinse per le sue previsioni. Herbert era un tipo interessante ed eclettico: da una parte prese il premio Nobel per l’economia, dall’altra parte vinse la medaglia Turing, ossia l’equivalente del premio Nobel per l’informatica. Herbert predisse che di lì a 10 anni l’IA avrebbe portato dei computer in grado di battere gli uomini a scacchi, oppure di dimostrare dei teoremi. Per gli scacchi è andata molto bene, un po’ più a rilento è andata la dimostrazione dei teoremi, anche se esistono esempi di teoremi che il computer ha dimostrato prima ancora che lo facesse l’uomo. All’inizio si pensava che l’uomo fosse un animale razionale e che l’animalità fosse una cosa banale. Lo diceva anche Cartesio: “gli animali sono come le macchine, l’unica differenza che c’è tra l’uomo e la macchina sta nella ragione e nello spirito”. Dunque, l’ingenuità di quei tempi ha portato a considerare poco l’animalità e a concentrarsi sulla razionalità: la matematica e i suoi processi. Poi qualcuno si è posto la domanda, se simulare la parte animale è davvero così facile. La cosa paradossale è che mentre c’è stato un successo 7


GIUGNO 2015

sull’imitazione della razionalità, ricreare le parti animali di noi non è stato per niente semplice. È vero che l’uomo è un animale razionale, tuttavia questa è una parte secondaria di noi, perché può essere più o meno riconducibile alle macchine, quello che invece è difficile simulare è proprio il nostro lato animale, che abbiamo capito essere altrettanto importante, è un aspetto su cui si può lavorare. Se i numeri sono alla base dei calcoli informatici e se l’informatica sta studiando come riprodurre il cervello umano in un computer, è possibile che alla base del nostro cervello, dei nostri ragionamenti e pensieri ci sia una combinazione di numeri?

È sicuro, anzi in realtà prima di tutti questi studi sull’IA - parlo degli anni ‘40 - i neurofisiologici, in particolare Warren Sturgis McCulloch, dicevano che il sistema nervoso fatto di neuroni è paragonabile ad una rete elettrica con degli impulsi. McCulloch, insieme al matematico Walter Pitts, realizzò un primo modello di rete neurale: una simulazione elettrica attraverso fili e porte elettriche del substrato del cervello. Qui ci sono senz’altro dei numeri, quando la corrente passa c’è la metrica binaria. Oggi molti studi sull’IA preferiscono questo modello di rete neurale anche se non è esattamente uguale, per esempio in alcune risposte: i nostri neuroni spesso non hanno una risposta immediata, come quando all’avvio di un interruttore corrisponde l’accensione immediata della lampadina. Diciamo che si tratta di un’approssimazione che non toglie nulla all’idea di fondo.

Piergiorgio Odifreddi Matematico, logico, saggista

Piergiorgio Odifreddi (Cuneo, 13 luglio 1950) è un matematico, logico e saggista italiano. I suoi scritti, oltre che di matematica, trattano di divulgazione scientifica, storia della scienza, filosofia, politica, religione, esegesi, filologia e di saggistica varia. Nato in una famiglia di geometri (padre e zii), ha frequentato i primi quattro anni delle elementari dalle Suore Giuseppine, la quinta elementare e i tre anni delle medie nel Seminario Vescovile di Cuneo. Odifreddi lasciò il Seminario nel 1964. Ha studiato matematica presso l’Università di Torino, dove si è laureato con lode in logica nel 1973. Si è poi specializzato nella stessa materia negli Stati Uniti (Università dell’Illinois a Urbana-Champaign e Università della California, Los Angeles) dal 1978 al 1980, e nell’Unione Sovietica (Università di Novosibirsk) nel 1982 e 1983. Il suo principale campo di ricerca è stata la teoria della calcolabilità, branca della logica matematica che studia la classe delle funzioni in grado di essere calcolate in maniera automatica. In tal campo ha pubblicato una trentina di articoli, e il libro in due volumi Classical Recursion Theory (North Holland Elsevier, 1989 e 1999), che è diventato un testo di riferimento sull’argomento.

8


incontri con Alcune macchine ormai compiono delle operazioni meglio dell’uomo, pensa che a lungo andare l’uomo possa arrivare ad avere problemi di autostima? Credo non interessi molto se un computer sia in grado di fare i calcoli più velocemente dell’uomo, è semplicemente un ausilio. Certo se uno pretende di essere Superman, vuol dire che ha già dei problemi di base ma se usa il computer come supporto non vedo il problema di autostima. Immaginiamo che fra 100 anni ci sia un androide che riesca a simulare l’uomo nei suoi pensieri e ragionamenti, Lei di cosa parlerebbe con lui? Gli direi la stessa cosa che direi ad un essere umano, noi siamo degli androidi, noi siamo delle macchine biologiche fatte di cellule, sangue, le macchine elettroniche sono fatte di fili

bene l’uomo, semmai crede il contrario. Se ci fosse stato un programmatore alla base della nostra creazione sarebbe stato bocciato. L’IA fa le cose in fondo in modo da sostituire l’immagine di un Dio pasticcione con un Dio razionale. Finalmente facciamo le cose come si sarebbero dovute fare, se ci fosse stato davvero un Dio. La robotica sta facendo passi da gigante, bisognerebbe, secondo Lei, iniziare a pensare all’aspetto etico? L’etica riguarda noi uomini, non i robot. Isaac Asimov con le sue leggi sulla robotica aveva cercato di identificare un’etica dei robot, tuttavia era comunque soggetta alle leggi degli uomini, come per esempio stabilire che le macchine devono sempre obbedire agli uomini. Questo dimostra che Asimov pensava a dei robot esclusivamente al servizio dell’uomo. L’etica è una questione puramente soggettiva, l’abbiamo creata noi, a meno che qualcuno non creda che ci sia stata data da un’entità superiore. Senza l’etica rischiamo di vivere come in una jungla senza regole e in continuo pericolo. L’etica la facciamo noi, basti pensare al fatto che spesso cambia da paese a paese. Come vede il rapporto tra uomo e macchina? Noi le macchine le costruiamo perché ci servono. Anche se l’uomo, spesso, tende a trattare la macchina come un figlio. Le macchine che solitamente sono solo degli ausili, sovente diventano i nostri padroni, vedi chi è ossessionato dall’acquisto della macchina più grande o dall’ultimo modello di smartphone. In quali campi della società secondo Lei l’IA ci permetterà di progredire? Nell’ambito della medicina per esempio, gli interventi al seno fatti dalle macchine, oppure gli interventi agli occhi, tutto questo è già una realtà. Il progresso c’è nella misura in cui non si diventa schiavi. Invece, quali i settori in cui sarebbe deleterio che l’IA intervenisse?

e possono fare tutto quello che fa una macchina biochimica. Certo i nostri pezzi di ricambio sono più complessi. Ci siamo evoluti in modo casuale e caotico nel corso degli anni, c’è invece chi crede nella mano di Dio. In realtà, chi conosce

Di per sè non ce n’è nessuno, qualunque parte della nostra vita può essere migliorata. Un coltello ci serve per tagliare il cibo, ma può anche essere usato per uccidere delle persone. È lo stesso per le automobili, servono per spostarsi, ma a volte noi uomini vogliamo provare l’ebbrezza della velocità che spesso porta alla morte. L’IA non può essere deleteria ma è dove la stupidità umana può spingersi attraverso l’IA che può creare dei problemi. 9


GIUGNO 2015

L’INTELLIGENZA ARTIFICIALE SOSTIENE O TRAVOLGE L’UOMO? Progetti, prospettive e implicazioni

L’Intelligenza Artificiale sta crescendo drasticamente, da un lato ci supporta e migliora la qualità di vita, dall’altro pone interrogativi sulle varie implicazioni socio culturali ed economiche a cui potrebbe portare.

Siamo sicuri che Terminator non sia così reale, visti i progressi in atto sull’Intelligenza Artificiale? Secondo i vari scienziati non c’è da preoccuparsi, lo sviluppo dell’IA procede per compartimenti, secondo l’uso e l’obiettivo si decide di fare ricerca in tal senso. Abbiamo algoritmi che trasformano i robot in operatori socio assistenziali, computer che presiedono i consigli di amministrazione, o sistemi artificiali manager con capacità organizzative, oppure computer allenatori di scacchi. Il comune denominatore di tutto questo è l’imitazione della razionalità umana, fatta prevalentemente di logica. Ma il buon senso, il pensiero, l’istinto umano sono ben lungi dall’essere imitati. Tuttavia, Geoff Hinton, un ingegnere informatico e psicologo cognitivo, assunto due anni fa da Google, dice che in un decennio saremo in grado di codificare i pensieri, trasformandoli in sequenze di numeri. Secondo lui anche l’ironia sarà codificata. È un po’ inquietante pensare di essere così deframmentati, codificati come numeri, sarebbe come sminuire tutto il resto, l’unicità dell’essere umano è fatta di tanto altro. Consola, in ogni caso, sentire Hinton assicurare che più complessi sono i compiti richiesti a un automa, più questo avrà bisogno di aiuto da parte dell’uomo. Quindi, nessun pericolo di supremazia, il problema potrebbe essere di colui che gestisce l’automa, è pur sempre un uomo con le sue debolezze. Tutto ciò che si costruisce ha 10

un potenziale di abuso e purtroppo la storia ha dimostrato una lunga scia in questo senso. Quali sono le implicazioni dello sviluppo dell’IA sul nostro sistema socio-economico? Molti dicono che nei prossimi anni lo spostamento dei carichi di lavoro verso le macchine e le intelligenze artificiali crescerà drasticamente. Di recente in Cina, a Dongguan, la Shenzhen Evenwin Precision Technology Co, un’azienda privata che fabbrica componenti per telefoni cellulari, ha deciso di ridurre del 90% l’attuale forza lavoro sostituendola con un robot. Un fenomeno in crescita, pare che in Europa il 50% dei posti di lavoro nei prossimi 10-20 anni saranno a rischio stando ai dati della Fondazione Bruegel. Nel frattempo nascono e crescono movimenti, come il Paradismo, che immaginano l’avvento di una società senza valore di scambio, grazie alla nuova tecnologia. Quest’ultima libererà l’uomo dalla schiavitù del lavoro. Egli potrà gioire dei beni che la scienza produrrà gratuitamente e che un governo mondiale metterà a disposizione di tutti, equamente. Utopia? Una tecnologia in ogni caso al servizio dell’uomo che richiede un cambio di paradigma culturale, sociale, economico, politico. Saremo all’altezza?


focus

11


GIUGNO GIUGNO2015 2015

Già Aristotele Già Aristotele (Aristotele, 1997, p. I A, 4, 1253b), aveva voluto mostrare un’inclinazione verso strumenti automatici intelligenti: “Se ogni strumento riuscisse a compiere la sua funzione o dietro un comando o prevedendolo in anticipo, come si dice delle statue di Dedalo o dei tripodi di Efesto... e le spole tessessero da sé e i plettri toccassero la cetra, i capi artigiani non avrebbero davvero bisogno di subordinati, né i padroni di schiavi”.

L’Androide 1.0 Il primo a ideare un robot androide fu Leonardo da Vinci, che nel Codice Atlantico (nel 1495) ha lasciato degli appunti per la realizzazione di un cavaliere automa in grado di alzarsi e agitare braccia, testa e mascella. Era stato probabilmente previsto per animare una delle feste alla corte sforzesca di Milano, tuttavia non è dato sapere se fu realizzato o no. A partire dagli anni Novanta sono stati fatti vari studi e ipotesi sul robot di Leonardo e sul suo funzionamento.

L’evoluzione dell’Intelligenza Artificiale

La rete neurale

12 12

Nel 1943 Warren McCulloch e Walter Pitt eseguono il primo lavoro con intelligenza artificiale progettando la “rete neurale”. Ogni calcolatore oggi, è una unità matematica complessa e viene pensato come se fosse un neurone celebrale. Le reti neurali artificiali sono modelli matematici che rappresentano l’interconnessione tra elementi definiti neuroni artificiali, ossia costrutti matematici che in qualche misura imitano le proprietà dei neuroni viventi.

Alan Turing Oggi si fa risalire la nascita dell’intelligenza artificiale moderna a due lavori: quello di Alan Turing, “Computing Machinery and Intelligence”(Turing, 1950), l’articolo di Shannon (Shannon, 1950) sulla programmazione di un programma di scacchi. È importante sottolineare come l’intelligenza artificiale nasca sin dal primo momento come l’unione dell’informatica e della filosofia. Non è un caso che il suo inventore sia un logico matematico (Turing), e che Shannon pubblichi il suo contributo su una rivista di filosofia.

STEP BY STEP


I primi motori di ricerca

focus

Uno studente dell’Università di Montreal intuì e aprì la strada ai motori di ricerca. Nel 1990 creò il primo tool di ricerca per i file in Internet con il criterio di indicizzazione. Si chiamava Archie. Questo non era un motore di ricerca come lo intendiamo oggi, ma era un esempio di intelligenza artificiale applicata. Era comunque un criterio di indicizzazione dei file che gli utenti erano sicuramente contenti di avere.

I primi robot Prolog Nel 1973 nasce il linguaggio Prolog. Ad opera di Alain Colmerauer. Il significato di Prolog è programmare attraverso la logica. Idea piuttosto interessante e ambiziosa, in un mondo dominato dalla matematica, dove i computer erano soprattutto grandi masticatori di numeri. Un comune programma in Prolog è composto da una serie di fatti, che descrivono cose e situazioni sempre vere, e una serie di regole, che permettono di dedurre nuove situazioni vere sulla base dei fatti a disposizione.

L’IA inizia a “prendere” un corpo sul finire degli anni ‘90. Nel 1999 scodinzola Aibo, il cane robot di Sony, che riconosce l’ambiente e si evolve in base agli stimoli che riceve. Nel 2000 Honda progetta Asimo, un robottino che assomiglia a un astronauta: riconosce i suoi interlocutori, parla, corre a 9 km/h, balla e gioca a calcio. Nel 2003 nasce Actdroid, il primo androide, presentato dall’Università di Osaka alla International Robot Exhibition di Tokyo. Una donna che parla, respira e sbatte le palpebre.

I primi limiti alle rete neurali Negli anni tra il 1970 e il 1980 nascono i primi limiti alle reti neurali soprattutto con riguardo all’esplosione combinatoria (aumento esponenziale dei tempi di calcolo rispetto alla dimensione del problema). Nascono i primi sistemi esperti con base di conoscenza per prendere decisioni e le prime applicazioni nella diagnostica medica. Le reti neurali per come sono costruite lavorano in parallelo e sono quindi in grado di trattare molti dati.

Conferenza di Dartmouth

L’Androide 2.0 Nell’aprile del 2013 è nato iCub il primo robot bambino, ed è italiano. Ha 3 anni ed è alto 104 cm. Come i suoi fratelli è in grado di riconoscere ed esprimere emozioni. iCub viene sviluppato congiuntamente al RobotCub Consortium, una società mista di alcune università europee. Il maggiore scopo di questa piattaforma informatica e hardware è quella di studiare la cognizione, attraverso l’implementazione di algoritmi motivati dalla biologia.

Un momento saliente fu la conferenza di Dartmouth, tenutasi nel 1956 col nome di “Dartmouth Summer Research Conference on Artificial Intelligence” presso il Dartmouth College, dove insegnava McCarthy, e supportata da altri nomi importantissimi come quelli di Marvin Minsky, Nathaniel Rochester e Claude Shannon. La conferenza durò circa un mese e servì come laboratorio e scambio di idee e quindi anche come piattaforma di lancio di molti dei lavori successivi. Il termine stesso “intelligenza artificiale” venne proprio coniato, da McCarthy, nella proposta della conferenza.

Fonti: http://www.informatica.uniroma2.it, venus.unive.it/sse 13


GIUGNO 2015

03

01 00

02

04

La copertina Nel dicembre del 2012 abbiamo iniziato un percorso che non sapevamo quanto sarebbe durato, né dove ci avrebbe portato. Questo percorso si chiama Logyn, un progetto nato per offrire a chiunque una lettura, in chiave utile e originale, del vasto mondo dell’innovazione e delle tecnologie. Ma anche per dare spunti di riflessione, risposte, e per prendersi una pausa dalla frenesia che ci circonda ritornando ad assaporare la carta e il profumo dell’inchiostro. Nel corso di questi anni Logyn si è evoluto, è migliorato ed è cresciuto con storie e passioni sempre nuove, rubriche diverse dal solito che di volta in volta ci hanno fatto conoscere o approfondire temi differenti e vari, ma sempre attuali: dalla sicurezza nel web all’economia verde, dalla responsabilità sociale alla creatività, con un occhio sempre rivolto all’innovazione tecnologica. Molteplici personaggi ci hanno portato le proprie testimonianze sia aziendali che di vita quotidiana e anche noi, di tanto in tanto, abbiamo voluto raccontarvi un pezzetto della nostra storia. E così rivista dopo rivista, siamo arrivati al numero 10! Un importante traguardo raggiunto insieme a tutti voi Lungo la via dell’innovazione, dal titolo con cui si apriva il numero 00 di 14

Logyn. Un traguardo che abbiamo deciso di coronare tingendo la copertina di bianco. Questo colore esprime speranza e fiducia sia nel futuro che nel mondo, unite alla voglia di cambiamento e alla purezza. Ma soprattutto il bianco, nello spettro luminoso, rappresenta la somma di tutti i colori, ed è il significato che abbiamo voluto dare a questo numero: in esso infatti parleremo dell’aspetto più estremizzato del percorso sull’innovazione tecnologica da noi intrapreso: l’Intelligenza Artificiale (IA). Il termine, coniato nel 1956 dal matematico statunitense John McCarthy, si riferisce all’abilità di un computer di svolgere funzioni e ragionamenti tipici della mente umana. L’idea che sta alla base è quella di costruire macchine che non necessariamente “simulino” riproducendo il comportamento del cervello umano, ma lo imitino in modo selettivo. L’intelligenza Artificiale è una disciplina dibattuta tra scienziati e filosofi, che manifesta aspetti teorici e pratici oltre che etici. Ma esiste davvero la possibilità che, a lungo andare, le macchine prendano il sopravvento su di noi, come già molti film vogliono farci credere? Scopriamolo insieme in queste pagine!


05

07 06

09 08

15


GIUGNO 2015

PENSARE CON LE MACCHINE!

STEFANO MORIGGI

IN RICORDO DI ADA

LA CONTESSA CHE SOGNÒ LE MACCHINE PENSANTI Sapete che sono per natura un po’ filosofa. Augusta Ada Byron, contessa di Lovelace

Che il pensiero un giorno potrebbe non essere più esclusiva della specie umana - per quanto ancor oggi ritenuta dai più una eventualità tanto fantascientifica quanto inquietante - è un’ipotesi che affonda le sue radici in un passato remoto in cui filosofi e scienziati hanno preso sul serio l’idea di costruire “macchine pensanti”. Non pochi commentatori, analizzando la lunga storia di questo progetto - a partire dalla costruzione dei primi automi - hanno colto nei diversi tentativi di riprodurre artificialmente l’intelligenza umana un atto prometeico e in quanto tale tracotante. Come se, appunto, Homo sapiens, spingendosi oltre il consentito, volesse sostituirsi a Dio creando una nuova “specie” capace di agire e pensare in autonomia. A costoro, il logico Alan M. Turing - padre fondatore dell’informatica moderna, nonché costruttore della macchina che seppe “intelligentemente” intercettare il linguaggio cifrato di Enigma, cambiando così le sorti della Seconda guerra mondiale - suggeriva piuttosto di considerare il fatto che “costruire un cervello” fosse al contrario un atto di umiltà. Ovvero, andasse inteso come il tentativo di comprendere la complessità delle 16

dinamiche sottese all’umano pensare, riproducendole in laboratorio. Proprio in quest’ottica si può (e si dovrebbe) rileggere un intero programma di ricerca che - per lo meno a partire dal tentativo (parzialmente riuscito) del filosofo Wilhelm Gottfried Leibniz di “tradurre” la logica proposizionale di Aristotele in termini algebrici, fino ai recenti prototipi di intelligenza artificiale basati su computer quantistici - costituisce, tra l’altro, una delle più radicali indagini filosofiche (oltre che scientifiche) sulla vexata questio: cosa significa (davvero) pensare? Nessuno dei protagonisti di questa avventura intellettuale hai mai preteso di delegare il pensiero a una macchina. E, comunque, almeno per ora, si è ancora lontani dal poter riprodurre (e dunque comprendere) una macchina cosciente: ovvero capace di dire consapevolmente... io. Ma questo più che un limite percepito come invalicabile è un orizzonte di ricerca per tutti quegli studiosi che nella interazione con le tecnologie hanno da sempre saputo cogliere uno spiraglio attraverso cui meglio comprendere il mondo e se stessi. A partire da una donna di nome Ada, poco conosciuta dal grande pubblico, ma meritevole di una


notorietà più vasta di quella che la storia della scienza ha saputo riconoscerle. Mi piace ricordarla qui non solo in quanto cade quest’anno il bicentenario della sua nascita, ma soprattutto perché, insofferente agli idoli morali e ai feticci culturali del suo tempo, intuì prima di molti altri gli inediti orizzonti che le “macchine pensanti” avrebbero potuto squadernare in un futuro che lei non avrebbe potuto vedere. Non fu né scontato né facile per Ada Byron dar seguito alle sue passioni scientifiche, come dimostra il seguente aneddoto che lei stessa raccontava... “L’unica altra persona presente era un signore di mezza età che ha deciso di comportarsi come se io fossi l’oggetto in mostra, cosa che ovviamente ho pensato fosse estremamente impudente e imperdonabile”. Stizzita e sconvolta, così Ada, in una lettera alla madre del 26 giugno 1838, cercava di sfogare la rabbia accumulata in occasione di una sua visita a Exeter Hall. Ci era andata da sola, in carrozza. Voleva studiare da vicino il modello funzionante di quel “telegrafo elettrico” che Edward Davy aveva presentato alla comunità scientifica londinese l’anno precedente e che, complice il parere favorevole di Michael Faraday, sarebbe stato brevettato il 4 luglio del 1838. Ma quella mattina, ben più che dalla macchina dell’ingegnoso chirurgo del Devonshire, l’occhio indiscreto del pregiudizio vittoriano era stato calamitato dalla presenza, eccentrica e anomala per l’epoca, di una donna che aveva osato insinuarsi in ambienti e contesti rigorosamente maschili: quelli della ricerca scientifica e dell’innovazione tecnologica.“Sono sicura che mi abbia preso per una governante molto giovane (e immagino abbia pensato anche piuttosto graziosa). [...] Si è fermato là finché sono rimasta, e poi mi ha seguita fuori. Sono stata attenta a mostrarmi tanto aristocratica e tanto come una contessa quanto mi era possibile”. Aristocratica lo era, per lo meno da quando suo marito, William King, era stato insignito dal primo ministro, il visconte Melbourne, del titolo di conte di Lovelace in occasione dell’incoronazione della

scenari regina Vittoria. E non di meno, era consapevole del suo fascino; sebbene (almeno) una volta, irriverente e vanitosa, avesse fatto notare come Margaret Carpenter - la pittrice che la ritrasse nel 1836 - avesse evidentemente voluto far risaltare “l’estensione della mia cospicua mascella, su cui penso andrebbe scritta la parola matematica”. Tuttavia, i modi rarefatti e compìti della nobiltà se da un lato rappresentavano per Ada l’utile ipocrisia per guadagnarsi libertà altrimenti stigmatizzate come trasgressioni; dall’altro rimanevano comunque dei panni stretti dentro cui, a fatica, riusciva a contenere le passioni e gli interessi che davano senso alla sua stessa esistenza. Non è infatti un caso che quel giorno, a Exeter Hall, aveva preferito andarci con un abito quantomeno inconsueto (se non addirittura sconveniente) per una lady del suo rango. Il contegno, virtù molto apprezzata in società, è sempre stato per Ada un obbligo complicato cui attenersi. Anteporre l’etichetta all’indole era per lei una promessa difficile da mantenere. E lo sapeva bene sua madre, Anne Isabella Milbanke che, già molti anni prima, con una meraviglia pari alla preoccupazione, aveva osservato la figlia diciassettenne comportarsi “in modo accettabile” tra le giovani debuttanti presentate alle teste coronate d’Inghilterra. Senza dubbio, al rispetto delle regole della società Ada ha preferito l’indagine delle leggi della natura. Trasgredire le prime e studiare le seconde è stato per lei un gioco irrinunciabile, uno stile di vita. Un esercizio di emancipazione sociale e intellettuale incontenibile e incomprensibile all’interno di quel groviglio di norme e convenzioni la cui osservanza (per lo meno in apparenza!)

Stefano Moriggi storico e filosofo della scienza Si occupa di teoria e modelli della razionalità, di fondamenti della probabilità, di pragmatismo americano con particolare attenzione al rapporto tra evoluzione culturale, semiotica e tecnologia. Già docente nelle università di Brescia, Parma, Milano e presso la European School of Molecular Medicine (SEMM), attualmente svolge attività di ricerca presso l’Università degli Studi di Milano Bicocca e l’Università degli Studi di Bergamo. Esperto di comunicazione e didattica della scienza, è consulente scientifico Rai e su Rai 3 è uno dei volti della trasmissione “E se domani. Quando l’uomo immagina il futuro”. Tra le sue pubblicazioni si ricordano: “Le tre bocche di Cerbero. Il caso di Triora. Le streghe prima di Loudon e Salem” (Bompiani, 2004); (con E. Sindoni) “Perché esiste qualcosa anziché nulla? Vuoto, Nulla, Zero” (Itaca 2004); con P. Giaretta e G. Federspil ha curato “Filosofia della Medicina” (Raffaello Cortina, 2008). Più recentemente (con G. Nicoletti) ha pubblicato “Perché la tecnologia ci rende umani. La carne nelle sue riscritture sintetiche e digitali” (Sironi, 2009); (con A. Incorvaia) “School Rocks. La scuola spacca” (San Paolo, 2011); Connessi. Beati quelli che sapranno pensare con le macchine (San Paolo, 2014). 17


GIUGNO 2015

garantiva la rispettabilità di una signora dell’upper class. E pensare che allo studio della matematica l’aveva indirizzata (per non dire costretta) proprio Anne Isabella, per quanto con intenzioni ben differenti dagli esiti ottenuti. La speranza della genitrice, infatti, era che la precisione dei numeri e il rigore delle formule riuscissero a smorzare quegli eccessi caratteriali in cui sembrava riecheggiare l’esuberante personalità del padre, il celebre Lord George Gordon Noel Byron. Dopotutto - come avrebbe ammesso lo stesso poeta qualche tempo dopo - “di folli simili in famiglia ne basta uno”. Lo si è detto, Ada dallo studio della matematica trasse ben altri insegnamenti che non la misura tipica della temperanza vittoriana. Comprese piuttosto che la bellezza delle forme non ha nulla a che spartire con la stucchevolezza delle formalità. E poi apprese il concreto esercizio dell’astrazione, sperimentò il potente strumento del calcolo e accarezzò il pensiero proibito di progettare macchine “pensanti”. Dalle lezioni di Mary Somerville a quelle di Augustus de Morgan, passando per l’appassionata collaborazione con Charles Babbage - il padre della “macchina differenziale” - Ada aveva così intuito che “la matematica è la sola lingua con cui possiamo esprimere in modo adeguato i grandi eventi del mondo naturale”. Non solo, agli occhi della brillante allieva di maestri tanto autorevoli persino i “disegni” di Dio si rendevano più intellegibili se decrittati con i raffinati arnesi della logica matematica. Che lei giudicava, appunto, “il più efficace strumento attraverso cui la fragile mente umana può decifrare le opere del proprio Creatore”. Eppure, quanto a fragilità, la mente di Ada non faceva eccezione, anzi! Non meno del resto del corpo accusava i sintomi di un malessere che l’aveva tormentata fin da giovane. Non bastasse, a rendere più grave il peso dei suoi disturbi giungeva la bieca anamnesi di quanti indicavano nella strutturale inadeguatezza femminile all’apprendimento della (analisi) matematica la vera causa di quelle sofferenze psico-fisiche. Sono stati molti - molti di più di quelli a cui fin qui si è fatto cenno - i pregiudizi con cui Ada dovette lottare o imparare a vivere; ma uno in particolare ancora oggi fatica a scollarsi dalla sua figura. Ovvero, l’insistenza con cui buona parte della storiografia insiste nel rileggere il profilo psicologico e le attitudini intellettuali di questa eminente vittoriana come una sintesi plausibile di una coppia impossibile. È noto che Anne Isabella e George furono i protagonisti di un matrimonio tanto breve 18

quanto turbolento e reso tale soprattutto dalle intemperanze e dai tradimenti di lui (decisivo ai fini della risoluzione del rapporto sarebbe stata la relazione extraconiugale e incestuosa con la sorellastra Augusta Leigh). La vita coniugale durò dal 2 gennaio del 1815, quando, dopo la cerimonia nuziale, Lady Byron fu posseduta dall’irruente letterato “sul sofà prima di cena”; al 15 gennaio 1816, giorno in cui la giovane sposa abbandonò il marito al suo destino, trovando rifugio con la neonata Ada nella residenza dei suoi genitori. Un lasso di tempo modesto, ma sufficiente a far esplodere l’irrimediabile incompatibilità di due individui che in comune avevano solo una figlia. “Siamo due rette parallele - scriveva Lord Byron di sé e della moglie - che si prolungano all’infinito l’una accanto all’altra, ma non si incontrano mai”. Ecco, ostinarsi a vedere in Ada la sintesi armonica che mancò tra i suoi genitori è forse l’ultimo affronto che la contessa di Lovelace deve subire, ma non per questo meno “impudente e imperdonabile” di quello che la mandò su tutte le furie quel giorno a Exeter Hall. Similmente, interpretare la sua “scienza poetica” (ovvero, i liberi giochi della immaginazione matematica) - e più in generale la sua visione del mondo, oltre che il suo modo d’essere - come la risultante, ancorché ben riuscita, di una composita eredità pseudo-genetica, suona oggi più che mai come un rigurgito “neo-vittoriano” che non rende giustizia alla donna, prima ancora che alla studiosa di matematica. E soprattutto non dà ragione (e come potrebbe?) di quell’approccio filosofico che ha consentito ad Ada di cogliere tra numeri e le formule, gli attrezzi concettuali per cimentarsi nel dare sostanza ai mondi possibili della scienza e della tecnica. De Morgan, da buon maestro, aveva individuato i limiti e apprezzato le potenzialità della sua allieva. E da logico di prim’ordine, della verità non fece mistero. Così come, da un lato, riteneva infatti che certe “debolezze tecniche” difficilmente avrebbero condotto Ada a “scoperte originali in matematica”; d’altra parte, però, era altrettanto convinto che la sua spiccata predisposizione a discutere i “principi di fondo” della disciplina avrebbe potuto produrre “intuizioni profonde”. A partire forse da quel senso di libertà che - per dirla con i modi aggraziati di una contessa” - hanno sperimentato solo “quelli che hanno imparato a camminare sulla soglia dei mondi sconosciuti [... e che] con le ali bianche dell’immaginazione possono poi sperare di raggiungere in volo l’inesplorato in mezzo a cui viviamo”.



GIUGNO 2015

DEEP LEARNING PERCEPIRE L’AMBIENTE PER RICONOSCERLO E CLASSIFICARLO Le nostre reti neurali copiate da una macchina

Siamo stati in America via etere per ascoltare due ricercatori informatici italiani, Lorenzo Torresani e Loris Bazzani, dell’Università di Dartmouth, dipartimento di Computer Science Hanover, nella contea di Grafton, New Hampshire, Stati Uniti. Ci hanno condotto nel mondo del deep learning tra la storia e scenari pseudo fantastici in cui il computer riconosce i nostri pensieri e i nostri stati d’animo.

La nascita ufficiale dell’Intelligenza Artificiale viene fatta risalire dalla comunità scientifica ad un seminario del 1956 nel quale la disciplina viene fondata programmaticamente. Il seminario si tenne proprio presso 20

il Dartmouth College: da allora ad oggi come si è evoluta la ricerca sull’IA? Loris: «In realtà l’IA ha origini ancora più indietro, stiamo parlando di un campo multidisciplinare in cui intervengono la


matematica, la statistica, l’informatica, le neuroscienze, che hanno avuto e hanno tuttora un ruolo fondamentale nel suo sviluppo. Un aspetto importante dell’IA, e di cui ci occupiamo, è la riproduzione da parte di una macchina della percezione dell’ambiente che ci circonda, in particolare l’associazione visiva di ciò che sta succedendo (computer vision), ovvero fare in modo che la macchina acquisisca le informazioni dell’ambiente, le elabori e che dia un significato semantico ai dati acquisiti». Lorenzo: «Paradossalmente sono passati quasi 60 anni da quella conferenza ma gli obiettivi odierni non sono cambiati, ovvero, di riprodurre nelle macchine l’intelligenza umana. Quello che secondo me è cambiato è la consapevolezza di quanto sia difficile trasferire queste facoltà nella macchina. Nel documento della conferenza si legge che uno degli obiettivi era riuscire nel giro di due mesi a definire gli approcci per simulare le attività cerebrali umane nelle macchine. Oggi la tematica è ancora attuale con l’unica differenza che siamo maggiormente consapevoli di quanto sia difficile poterlo fare, e certo due mesi sono assolutamente insignificanti». Perché si parla così tanto di deep learning? Loris: «Deep learning è una termine recente ma le sue basi sono state introdotte almeno 30 anni fa sotto lo pseudonimo di reti neurali; già negli anni ‘80 sono state introdotte tecniche incoraggianti che però non hanno avuto un riscontro positivo per diversi fattori. Uno dei motivi principali è che è subentrata una tecnica più promettente - la support vector machine - che grazie alla sua efficienza ed efficacia ha rivoluzionato il modo di fare il riconoscimento di oggetti. Ciò non vuole dire che non si è più lavorato sui vecchi modelli di deep learning. Molti ricercatori come i professori G. Hinton, Y. Bengio, Y. LeCun e altri hanno continuato a lavorare sulle reti neurali e, a distanza di molti anni, hanno avuto ragione perché sono i modelli a cui si rifanno le moderne teorie di IA. Il successo delle tecniche di deep learning è dato da diversi fattori che non erano disponibili 30 anni fa: dallo sviluppo dell’hardware che ha permesso di computare molti dati al secondo, dalla disponibilità di dataset a larga scala (per esempio, ImageNet presenta un milione di immagini annotate), che possono essere usati per addestrare i modelli di deep learning, infine il terzo fattore di successo è che ci sono delle nuove tecniche di addestramento». Lorenzo: «A mio parere il deep learning è attualmente molto di moda poiché negli ultimi 10 anni ha prodotto risultati straordinari, soprattutto nel campo della visione artificiale. In particolare, il risultato eclatante e storico è stato quello ottenuto dal professore Hinton dell’Università di Toronto, che nel 2012 ha scritto un articolo in cui presentava i risultati di un sistema

incontri con di riconoscimento visivo basato sulla rete neurale in relazione al benchmark di quel settore, sia allora che oggi ritenuto molto difficile, ossia quello che prevede di distinguere 1000 categorie visive. Nel passato fino al 2012 i miglioramenti rilevati sul benchmark sono stati sempre nella misura di frazioni di qualche punto percentuale. Invece Hinton è riuscito ad ottenere un miglioramento del 10% in un solo colpo. Questa dimostrazione di successo ha aperto la strada all’ulteriore sviluppo di questa tecnologia». Cosa s’intende per visione artificiale? Lorenzo: «È un concetto molto ampio e si riferisce alla capacità di capire in modo automatico l’immagine e gli oggetti presenti nella stessa. Diciamo che è la capacità di riprodurre nella macchina quello che noi svolgiamo in modo naturale guardando quello che ci circonda». Tra i colossi dell’informatica che utilizzano tecniche di deep learning, Microsoft sembra abbia fatto un bel passo avanti in questo ambito. Una ricerca pubblicata recentemente dalla sezione asiatica della casa di Windows (http://ow.ly/Nv5vT) dichiara che il loro sistema, applicato nel riconoscimento delle immagini, si è dimostrato capace di un’accuratezza superiore a quella degli esseri umani. L’intelligenza di una macchina supererà quella di un essere umano? Loris: «Premettiamo che i successi non sono solo dovuti alla ricerca fatta da Microsoft; l’Università di Toronto, l’Università di New York, l’Università di Oxford, e aziende come Google, Facebook, Baidu hanno contribuito molto in questa direzione negli ultimi 5 anni. Il punto di svolta è stato nel 2012 con il raggiungimento di un margine di errore del 18% nel problema di riconoscimento visivo di 1000 oggetti, fino ad arrivare ad oggi con una percentuale irrisoria del 5%. Questo non significa che il computer è più intelligente dell’essere umano. È vero che la macchina riesce a fare calcoli complicati molto meglio dell’uomo, dall’altra parte, però, l’essere umano è in grado di prendere decisioni in un ambiente in continua evoluzione e in presenza di informazione parziale, cosa che un computer non riesce a gestire. Nel caso di problemi specifici 21


GIUGNO 2015

come la classificazione di 1000 oggetti, o nel gioco degli scacchi, il deep learning funziona bene, se dobbiamo pensare all’intelligenza in senso più ampio la macchina risulta carente. Siamo ancora distanti da risultati significativi in questo senso». Lorenzo: «Nel caso specifico dell’articolo citato nella domanda, il compito dato alla macchina è di distinguere 1000 categorie. Alcune di queste sono piuttosto rare, e poco note alla persona comune, come ad esempio particolari specie di uccelli. La macchina ha la capacità di memorizzare queste categorie, sebbene inusuali, dato un numero sufficiente di esempi delle stesse. Con questo voglio dire che le macchine oltre ad avere la capacità di calcolo, hanno la capacità di memorizzare una serie di dati superiore a quella dell’essere umano».

possibile dall’uomo. Internet aiuta moltissimo, è una banca dati inesauribile. Sviluppiamo delle tecniche che sono in grado di apprendere da internet senza la necessità di supervisione da parte dell’uomo. L’applicazione naturale di tale tecnologia è la possibilità di etichettare o “tag’’ automaticamente i video e le foto con gli oggetti presenti in esse. Questo è importante a livello commerciale soprattutto per le aziende che lavorano con i motori di ricerca». Quali sono i settori che più beneficerebbero dello sviluppo di queste ricerche? Si è distanti dall’utilizzo commerciale? Lorenzo: «Un’altra direzione che si sta valutando è l’interazione

Quali sono i progetti a cui state lavorando e i campi di applicazione delle vostre ricerche? Ci sono limiti di applicazione? Lorenzo: «Siamo interessati alla visione artificiale e a tecniche che richiedono poca supervisione. Mi spiego, in passato si sono sviluppate tecniche che avevano bisogno di molta supervisione da parte dell’uomo. Un esempio: se si vuole sviluppare un sistema che sia in grado di riconoscere pedoni nelle immagini, si devono fornire un sacco di esempi di foto contenenti pedoni. Inoltre in ciascuna di queste immagini si devono specificare a mano le regioni della foto contenenti l’oggetto desiderato (in questo caso, pedone), affinché la macchina possa imparare a distinguerlo dallo sfondo ed a riconoscerlo in modo automatico anche in nuove immagini. La necessità di acquisire manualmente tutti questi esempi per ciascun oggetto da riconoscere pone un grosso limite alla creazione di sistemi generali in grado di riconoscere un numero elevato di oggetti. Quello che facciamo qui è cercare di dipendere il meno

Lorenzo Torresani

Lorenzo Torresani è professore associato di Informatica al Dartmouth College. Ha ottenuto il diploma di Laurea in Informatica presso l’Universita` di Milano nel 1996. Ha poi conseguito un Master e un dottorato in Informatica presso la Stanford University, rispettivamente nel 2001 e nel 2005. In passato, ha lavorato in diversi laboratori di ricerca come Microsoft Research Cambridge, Like.com e Digital Persona. I suoi interessi di ricerca riguardano la visione artificiale e techniche di apprendimento. Il Prof. Torresani ha ricevuto diversi premi durante la sua carriera, quali un CVPR best paper prize, il National Science Foundation CAREER Award, e un Google Faculty Research Award.

22


incontri con tra l’uomo e la macchina. Attualmente, usiamo dei sistemi molto rudimentali, come la tastiera o il mouse, introdotti più di 40 anni fa. Ritengo che con le tecniche di deep learning nel giro di 5 anni l’interazione uomo–macchina subirà un notevole sviluppo, con sistemi in grado di interpretare accuratamente la gestualità ed il parlato. Siri è un primo esempio di tale tecnologia. Esistono anche dei prototipi che rilevano l’attività celebrale della persona, compreso il pensiero. Questi ultimi, però, avranno bisogno di più tempo, probabilmente 10/15 anni prima di poter raggiungere un buon livello di precisione. Questo tipo di prototipi troverebbe applicazione nel campo della medicina, con sistemi in grado di rilevare la depressione o lo stato d’animo del paziente. Sempre nel campo medico, si potrà

avere uno sviluppo nella farmacologia, con sistemi che saranno in grado di predire le molecole più efficaci per la cura di una malattia, data la descrizione della struttura chimica della stessa molecola». In Italia esistono degli studi o dei progetti in questo senso? A che punto siamo secondo voi? Loris: «Ci sono diverse ricerche in Italia ma si va molto a rilento, qui in America da quando si pensa l’idea a quando si realizza il prototipo passa davvero poco tempo. Questo è principalmente dovuto alla disponibilità di risorse e fondi per la ricerca e la collaborazione con grandi aziende». Lorenzo: «Ho lasciato l’Italia quasi 20 anni fa. Quindi non conosco bene la realtà italiana attuale. Da esterno posso dire che a livello teorico ci sono dei progetti molto interessanti, ma secondo me manca un rapporto proficuo tra l’industria e l’università. In America l’azienda riconosce il grosso beneficio che può trarre instaurando collaborazioni con le Università». Come cambierà il mondo del software con la diffusione degli algoritmi intelligenti? Come saranno le applicazioni del prossimo futuro? Loris: «Con la crescita esponenziale di informazioni a cui è esposta una persona (per esempio nel WEB) risulta essenziale avere algoritmi intelligenti per dare un ordine e quindi un’organizzazione dei dati. Uno degli scopi ultimi sarà quello di creare una sorta di agente intelligente che potrà essere un robot o un software con cui noi interagiremo in modo naturale, senza mouse e tastiera, che organizzerà le informazioni per noi e ci aiuterà nella vita quotidiana, migliorando la nostra qualità di vita».

Loris Bazzani

Loris Bazzani è postdoc presso il Dartmouth College, supervisionato dal professore Torresani. Bazzani ha conseguito il titolo di dottorato di ricerca in Informatica nel 2012 presso l’Universita` di Verona sotto la guida del professore Murino e del professore Cristani. Durante il suo dottorato, ha trascorso 6 mesi in visita presso la University of British Columbia supervisionato da professore de Freitas. Negli anni successivi al dottorato Bazzani è stato postdoc presso l’Istituto Italiano di Tecnologia. Loris Bazzani è interessato a problemi di visione artificiale quali localizzazione di oggetti in immagini e video e modelli di visione ispirati all’attenzione umana.

23


GIUGNO 2015

“IO NE HO VISTE COSE CHE VOI UMANI NON POTRESTE IMMAGINARVI” Quanto siamo lontani dagli umanoidi di Blade Runner?

Siamo abituati ai film di fantascienza che ci propinano robot umani che combattono grandi guerre con l’uomo per accaparrarsi la supremazia sull’altro. Ma qual è la realtà? L’intervista a Giorgio Metta ci tranquillizza e ci porta nel mondo reale dove i robot saranno degli elettrodomestici che costeranno 5.000 euro e che fungeranno da ausilio per l’uomo.

24


Che cos’è per Lei l’intelligenza artificiale (IA)? L’lA è costituita da una serie di tecniche computazionali di derivazione informatica che consentono di costruire delle macchine che interagiscono in modo autonomo nell’ambiente sia questo fisico sia virtuale. Si tratta di algoritmi che partono da un insieme di dati per generare una possibile risposta anche se questa non è mai stata prevista. Le macchine funzionano molto bene per immagazzinare dati ma sono carenti nella produzione di soluzioni originali su casi che non sono stati affrontati prima. La ricerca sull’algoritmo va in questa direzione: avvicinarsi nel modo di pensare all’uomo e alla sua capacità di mettere insieme delle soluzioni. Quindi in poche parole l’IA è la capacità di ragionare su un insieme di osservazioni per fare la differenza. Blade Runner, il film ispirato al romanzo Il cacciatore di androidi è secondo Lei ancora fantascienza? Ci sono due aspetti del film: uno relativo all’intelligenza artificiale e l’altro all’evoluzione della robotica, una macchina che ha un corpo molto simile a quello umano. Queste ultime tecnologie non esistono, siamo molto lontani.

incontri con Anche l’aspetto dell’IA non esiste nella realtà, nel film questi androidi si distinguevano poco dagli umani anche a livello di ragionamento. La nostra attuale tecnologia è ancora di tipo industriale, sono robot fatti di metallo, con possibilità di rompersi e manca anche l’intelligenza generica. I nostri robot sono creati per delle soluzioni specifiche. Potremmo costruire l’IA per consentire ad un robot di navigare in modo autonomo in un determinato ambiente, ma riesce a fare solo quello. Non credo che risolveremo in tempi brevi il problema. Io credo che arriveremo a usare i robot come facciamo con lo smartphone, creando delle applicazioni per degli specifici compiti che inseriremo di volta in volta nella macchina per renderla multifunzionale.

Giorgio Metta Direttore iCub Facility Direttore di iCub Facility dell’Istituto Italiano di Tecnologia (IIT) di Genova. La “iCub Facility” si occupa dell’integrazione della ricerca e delle tecnologie di IIT nel campo della robotica umanoide, in particolare, sulla piattaforma iCub. iCub è il robot bambino progettato per favorire e supportare la ricerca nell’apprendimento automatico nel controllo, nella cognizione e interazione sia in IIT sia tra i numerosi collaboratori in tutto il mondo.

copyright D. Farina, Istituto Italiano di Tecnologia © iit

25


GIUGNO 2015

I robot sono sempre più a immagine e somiglianza dell’uomo sia a livello di intelligenza che esteriore, c’è il rischio che i robot possano acquisire anche i sentimenti negativi tipicamente umani come, sete di potere, invidia, competizione, odio, cattiveria, etc.? I robot di solito vengono utilizzati per risolvere determinati problemi, esiste tuttavia un filone di ricerca che sta lavorando nella costruzione di una macchina più simile al corpo umano. È possibile che, volendo sviluppare l’IA in un robot, lo si costruisca comunque più somigliante all’uomo, poi se queste macchine potranno acquisire sentimenti umani è un’ipotesi molto molto remota. In realtà la ricerca si pone poco il problema. In linea teorica può essere vero: una macchina a cui si dà la capacità di apprendimento è come un bambino che acquisisce svariati comportamenti, anche quelli negativi. Stessa cosa per una macchina che impara a muoversi in un certo modo, se i segnali che riceve dall’ambiente sono negativi lui li imiterà. Questo comportamento è difficilmente controllabile, perché non dipende da chi ha realizzato il programma ma dall’esperienza della macchina durante l’interazione con gli esseri umani, per giunta, in un ambiente dove non è possibile prevedere a priori quali sono i dati che riceverà il robot. Da questo punto di vista c’è la possibilità che la macchina possa fare qualcosa di sbagliato.

Se poi questo abbia a che vedere con dei sentimenti dipende da cosa si intende. Io credo che i sentimenti nell’essere umano sono in parte lo scopo che si dà la persona stessa nella propria vita e come questo venga generato non è del tutto chiaro. Dall’altra parte i sentimenti sono segnali biochimici che sottintendono delle attività di alcune parti del cervello e che in teoria sono simulabili in una macchina. Questo è un pensiero molto a lungo termine, adesso ci sono dei problemi più concreti da risolvere come la capacità di interazione con l’ambiente, capacità di vedere, di movimento, etc. Bill Gates afferma che l’Intelligenza Artificiale va controllata; e Lei? Beh come dicevo bisogna considerare due tipi di problemi quello più a lungo termine che riguarda la filosofia, l’etica e il sociale. I problemi di oggi sono più concreti: il riconoscimento vocale o riuscire a dare dei comandi senza una tastiera; in questo non vedo la necessità di controllare questo tipo di IA. Trovo molto difficile dare delle regole. Credo che Bill Gates si riferisse a problemi più a lungo termine: una macchina con una propria coscienza. In questo caso sarebbe opportuno risolverlo finanziando la ricerca nel modo giusto, che permetta anche di studiare le conseguenze dell’IA. Se da un lato la sostituzione delle macchine all’uomo in un contesto bellico può essere vitale per molti soldati, dall’altro, un contesto dove la macchina sostituisce l’uomo in una professione può portare ad un aumento del tasso di disoccupazione: Lei cosa ne pensa? Ci sono tante risposte a questa domanda e diverse visioni. C’è stato un articolo sull’Economist che illustrava una recente ricerca che dimostrava come ogni tecnologia avesse aumentato la ricchezza. Un altro articolo firmato da circa 200 scienziati americani dice che queste tecnologie hanno contribuito ad aumentare il PIL degli Stati Uniti. In questo senso ci sono segnali positivi. Il segnale negativo è quando si dice che le macchine sostituiscono l’uomo in determinati lavori. Io mi chiedo: quanto l’uomo è disponibile a fare lavori alienanti, pericolosi e se effettivamente in altri casi viene sostituito oppure affiancato dalla

26


incontri con tecnologia. Consideriamo anche tutta quella produzione industriale trasferita in altri Paesi dove spesso le condizioni di lavoro umane sono inaccettabili. La mia impressione è che ci saranno delle macchine che interagiranno con l’uomo supportandolo più che sostituendolo. Tutto sommato l’Economist secondo me ha ragione perché è vero che qualcuno in meno lavorerà nella produzione dei beni ma ci saranno più persone che lavoreranno nella programmazione migliorandone, così, anche la qualità del lavoro. Quali sono altri campi che a suo avviso potranno trarre beneficio dallo sviluppo dell’IA? Ci sono tante possibilità come la robotica applicata a diversi settori: la chirurgia, l’healthcare, le macchine per la riabilitazione, macchine utili in caso di grandi disastri, l’assistenza alla persona anziana, infine robot in grado di eseguire una raccolta di dati su territori di vaste dimensioni. Queste applicazioni sono le grandi sfide della robotica che la stessa Commissione Europea si è posta per i prossimi 5 anni. Altre applicazioni ma meno visibili sono in campo energetico, ovvero, arrivare alla gestione delle reti energetiche in modo sostenibile ed efficiente. Un’altra applicazione della robotica molto attiva è legata ai motori di ricerca nell’ambito dei servizi: gestione dei viaggi, prenotazioni etc. Come vede la città del 2115? La prossima grande rivoluzione a mio avviso dovrebbe essere trasformare la tecnologia in qualcosa che sia alla portata di tutti. Oggi solo il 6% della popolazione mondiale ha accesso a queste tecnologie. Eliminare gli attuali dislivelli sarà molto importante.

Un esempio che rende l’idea è che se in una bottiglia mettiamo nel fondo dell’acqua a 90° e poi nel resto ci mettiamo dell’acqua a 10° prima o poi tutto si uniforma, si spera che questo possa succedere con la popolazione mondiale e la tecnologia. Noi stiamo tenendo una parte del mondo a 90° e una parte a 10°, prima o poi tutto si mischia. Ci racconti le prossime frontiere di ricerca del dipartimento iCube Facility in ambito IA. A breve termine stiamo lavorando sull’apprendimento in IA, ossia costruire una macchina che lavori in un ambiente e che nello stesso tempo apprenda. La prospettiva è arrivare ad un robot che sia in grado di riconoscere più ambienti, questo significa elaborare una mole di dati incredibile, che è il problema principale al momento. Lo stiamo facendo sia da un punto di vista del riconoscimento visivo sia dal punto di vista dell’attività di utilizzo, da parte del robot, di un determinato oggetto in modo corretto. L’altro aspetto su cui si sta lavorando è la capacità di studio del robot di camminare nell’ambiente, prendere l’oggetto, rimanere in equilibrio, che non è una cosa banale. Altre direzioni hanno più a che fare con la tecnologia, ad esempio la progettazione di robot con involucri più resistenti e batterie più durature. Su quest’ultimo fronte stiamo sviluppando anche algoritmi più efficienti che faranno consumare meno energia ai robot. Sempre sul fronte hardware vogliamo arrivare a costruire un robot che avrà il prezzo di un elettrodomestico sofisticato, quindi siamo nell’ordine di 5 mila euro circa. Oggi ci costa ancora troppo: 250 mila euro.

27


GIUGNO 2015

L’AUTO INTELLIGENTE CHE TI PORTA A SPASSO Una frontiera reale per Mercedes-Benz Italia

Sono diverse le aziende che stanno lavorando in questo senso da Mercedes a Google, Bosch, Audi, ecc. L’idea comune è un’automobile in grado di guidare senza autista e che sia rispettosa dell’ambiente. L’intervista a Cesare Salvini, direttore Marketing Mercedes-Benz Italia, ci fa capire che la ricerca va più veloce dell’aspetto legislativo, culturale e delle infrastrutture, un problema che frena non poco la concretizzazione di siffatta tecnologia nelle strade delle nostre città. Quali sono le caratteristiche di un’auto intelligente?

Cesare Salvini Direttore Marketing Mercedes-Benz Italia 28

Nei prossimi cinque anni tutti gli oggetti, dagli abiti agli smartphone, dagli orologi alle automobili dialogheranno e saranno tra loro connessi. La parola chiave per me è ‘Internet of things’. Nel mondo dell’auto si traduce in vetture che potranno in alcune situazioni guidare o parcheggiare da sole, ricaricarsi e riscaldarsi da remoto, magari attraverso uno smartwatch. Ovviamente questa è una visione, bisogna lavorare e tanto sull’aspetto legislativo, la cultura e le infrastrutture, come sempre la tecnologia avanza più rapidamente. Già oggi una nostra vettura, come ad esempio la Classe C, dialoga con l’ambiente intorno, mantiene la distanza di


scenari

29


GIUGNO 2015

UN CONCEPT VISIONARIO Con la S 500 INTELLIGENT DRIVE e il Future Truck 2025, Mercedes-Benz ha già trasformato in realtà la visione della guida autonoma. La nuova F 015 Luxury in Motion dimostra quali siano le idee concrete e visionarie per la guida autonoma del futuro a cui Mercedes-Benz sta lavorando. Con questa berlina di lusso a guida autonoma, l’auto trascende il suo ruolo di mezzo di trasporto per diventare uno spazio vitale privato. Con questo nuovo modo di viaggiare, i passeggeri avranno la libertà di utilizzare il tempo a bordo per svolgere le attività più diverse. Nell’evoluzione da auto che si muove da sola (‘auto-mobile’) ad auto indipendente (‘autonoma’), Mercedes-Benz tiene fede alla sua vocazione pionieristica e va ben oltre la realizzazione meramente tecnica della guida automatizzata. Gli esperti anticipano diverse prospettive e tendenze sociali, ponendo sempre al centro l’uomo. Infatti, così come la Benz Patent Motorwagen del 1886 e le sue eredi hanno rivoluzionato la mobilità individuale e, con essa, la società, anche le prime auto a guida autonoma comporteranno grandi cambiamenti. Grazie alla massima spaziosità e allo stile lounge degli interni, la Mercedes-Benz F 015 Luxury in Motion porta il comfort e il lusso a un nuovo livello. Da ogni punto di vista rispecchia il modo particolare in cui Mercedes interpreta il “lusso moderno”, la passione e l’intelligenza. Questa innovativa quattro posti preannuncia una rivoluzione nella mobilità e il suo aspetto futuristico ne è prova inconfutabile.

30

sicurezza, la velocità di crociera, legge i cartelli stradali, ci rallenta nelle curve se andiamo troppo veloci e ci riporta in carreggiata quando inavvertitamente stiamo per invadere la corsia opposta. Con una macchina che ti guida non si rischia di perdere il piacere della guida? Non perderemo il gusto di guidare le automobili, ma sicuramente in coda, in tangenziale o in un parcheggio multipiano, dove stare al volante è tutto tranne che divertente, potremo affidarci alle tecnologie. Intelligent Drive significa, infatti, viaggiare più sicuri, riposati e soprattutto la possibilità di utilizzare il tempo a bordo dell’auto anche per fare altro, mantenere le nostre relazioni, lavorare. In poche parole, riconquistare il bene più prezioso di questo secolo: il tempo. Come viene vissuto il rapporto uomo-auto che ti guida? è una prospettiva che piace al mercato? Sicurezza, efficienza e connettività rappresentano gli elementi fondanti del nuovo corso tecnologico della Stella che va sotto il nome di Intelligent Drive. Valori che “sempre più rappresentano un elemento di primo piano nelle scelte dei nostri clienti. Cosa vi ha spinto a costruire una macchina autonoma? Ogni anno, Daimler investe in ricerca e sviluppo oltre 5,6 miliardi di euro, perché, come diceva Carl Benz,“l’amore per l’invenzione


scenari non muore mai”. L’autonomous driving rappresenta la naturale evoluzione dell’automobile, il risultato di una storia iniziata quasi 130 anni fa, quando Bertha Benz salì al volante della prima automobile della storia, una Mercedes. Se questa è l’auto dell’immediato futuro qual è l’automobile del futuro a lungo termine? Le esigenze di mobilità individuale sono in continua evoluzione, il nostro obiettivo è riuscire ad anticiparle, offrendo soluzioni innovative che vadano oltre la semplice proposta commerciale. Al centro di questa evoluzione deve essere ben chiara l’idea di una mobilità integrata, sicura, connessa ed ecologica. Dobbiamo, infatti, offrire ai nostri clienti la soluzione più appropriata alle singole esigenze. Fino a qualche anno fa l’acquisto di un’automobile era la scelta più importante dopo la casa, oggi non è più così. Chi sale a bordo delle nostre automobili oggi può farlo per pochi minuti, con il car sharing di car2go, per pochi giorni grazie al noleggio a breve termine ed agli accordi che abbiamo con i principali player e per tre anni, attraverso formule finanziarie e leasing senza pensieri, con la possibilità, al termine del contratto, di riscattare la vettura, rifinanziarla o restituirla. Dal punto di vista delle tecnologie, immaginiamo il futuro attraverso tre diverse fasi. La prima vede il continuo miglioramento dei propulsori a combustione interna benzina e

diesel, sempre più efficienti ed eco-compatibili come il nostro 250 CDI da 204 CV, un 2.1 di cilindrata esente da superbollo. La fase successiva ci vede già protagonisti con la più ampia offerta di vetture ibride del segmento premium, una forte offensiva di prodotto che porterà altri 10 nuovi modelli ibridi entro il 2017. La terza ed ultima fase è rappresentata dall’automobile a zero emissioni che per noi significa smart electric drive, la soluzione ideale per la mobilità urbana, e Classe B Electric Drive che, grazie ad un’autonomia di 200 km, estende il raggio d’azione della mobilità elettrica oltre i confini cittadini.

GOOGLE CAR Google annuncia la nuova fase di test dell’ultimo prototipo della mini auto che si guida completamente da sola. L’esperimento sarà fatto sulle strade pubbliche della California. Entreranno in campo 25 unità che arriveranno poi a 100. A bordo ci sarà comunque un pilota (oltre che volante e pedali, come richiesto dalle normative californiane). Il prototipo elettrico guida, frena, riconosce ostacoli, viaggia a una velocità massima di 40 km/h e garantisce un’autonomia di circa 130 chilometri. Sembra che Google non voglia commercializzarla, ma vendere la sua piattaforma di vettura autonoma a terzi.

31


GIUGNO 2015

RAMCIP

L’OPERATORE SOCIO ASSISTENZIALE ROBOT La macchina che assiste i malati di Alzheimer Il progetto europeo coinvolge anche l’Italia nel ricercare soluzioni che consentano al sistema robotico di distinguere un comportamento insolito dell’anziano da uno bisognoso. Emanuele Ruffaldi, ricercatore della Scuola Superiore Sant’Anna, ci spiega come funziona il sistema Ramcip e se presto lo vedremo nelle nostre case.

Emanuele Ruffaldi Ricercatore della Scuola Superiore Sant’Anna di Pisa 32


Come nasce il progetto RAMCIP? È un progetto finanziato dalla Commissione europea nell’ambito del programma Horizon 2020 con 4 milioni di euro. Al sistema robotico per l’assistenza personale lavorano scienziati ed ingegneri di tutta Europa. In Italia, il progetto è seguito dall’Istituto di Tecnologie della Comunicazione, dell’Informazione, della percezione (TeCiP) della Scuola superiore Sant’Anna di Pisa. Il coordinamento di Ramcip è affidato all’Istituto per le Tecnologie dell’Informazione del Centro di Ricerche e Tecnologie greco (CERTH). Al consorzio del progetto aderiscono, oltre la Scuola Superiore Sant’Anna, i gruppi della Technische Universität München (Germania), della Fondazione per la Ricerca e Tecnologia Greca, dell’Università Medica di Lublino (Polonia), della Fondazione Ace (Spagna), che mette a disposizione un centro di ricerca per l’Alzheimer e fornisce i casi di studio, oltre a due piccole-medie imprese polacche e inglesi che partecipano come partner industriali. In cosa consiste il progetto? Ramcip (acronimo di “Robotic Assistant for Mild Cognitive Impaired Patients at home”) è un robot che avrà il compito di assistere persone malate di Alzheimer che abbiano ancora un certo livello di autonomia e che quindi siano in grado di relazionarsi e comunicare con il sistema robotico. Il robot potrà assistere le persone nelle normali mansioni casalinghe oltre che osservare il loro stato di salute. Qual è il ruolo della Scuola Superiore Sant’Anna in questo progetto? Il nostro ruolo primario è l’attività di ricerca sulla capacità di comprendere le azioni del soggetto e dare una specifica caratterizzazione. Mi spiego meglio: ad esempio il robot dovrebbe essere in grado di capire che, se l’anziano cammina in modo affaticato oppure zoppica, ha dei problemi, oppure più semplicemente se il soggetto ha dei comportamenti non usuali il sistema dovrebbe essere in grado di riconoscerlo. Questa nostra specificità è frutto di un’esperienza pregressa relativa ad un progetto Europeo chiamato SKILLS e che abbiamo portato avanti dal 2006 al 2011 con il coordinamento del professore Massimo Bergamasco, sempre qui al laboratorio PERCRO della Scuola Superiore Sant’Anna. L’obiettivo di questo progetto era di catturare in ambiente virtuale quella cosa che rende ogni gesto unico e a volte anche eccezionalmente talentuoso in modo da poterlo riprodurre e insegnare ad altre persone. In generale lavoriamo molto sull’uso di tecniche di Machine Learning, ovvero l’apprendimento delle macchine dai dati. Si tratta di una metodologia che va dalla visione

incontri con artificiale, ai sistemi decisionali, all’analisi di anomalie anche in ambito industriale. Cosa succede quando il robot riconosce un comportamento differente da uno tipico? È qui che diventa interessante: la macchina è basata su un’architettura cognitiva, alla quale collaboriamo anche noi, che decide come il robot può comunicare col soggetto nel modo migliore tenendo anche conto delle sue emozioni. La comunicazione può avvenire attraverso lo schermo, la parola o con l’interazione fisica. Questo tipo di comunicazione pone generali questioni etiche, che coinvolgono la sfera dell’autonomia e della sensibilità di ogni soggetto. Quali sono le operazioni che RAMCIP è in grado di fare? Il progetto è abbastanza ambizioso ponendosi come obiettivo il supporto alle attività casalinghe, di vita quotidiana, tra cui anche alcuni elementi della vestizione. Quest’ultimo è un compito per niente banale e, a tal riguardo, abbiamo in questa compagine un’azienda inglese, la Shadow Robots, che sta lavorando ad una mano robotica molto sofisticata in grado di afferrare una moltitudine di oggetti di dimensioni e consistenza differenti. La mano è dotata di sensori di pressione in grado di misurare la forza esercitata e sensori tattili per l’interazione fine. La mano verrà integrata nel robot complessivo, sviluppato da una startup polacca, dove il movimento del braccio e della mano vengono coordinati da un sistema di camere tridimensionali. La difficoltà non è tanto far fare un’azione completa quanto aiutare il soggetto a farla. Questo implica non solo un approccio tecnologico, infatti, si andrà sul campo a parlare sia con le persone malate che con gli operatori socio assistenziali per capire quali siano le esigenze degli addetti ai lavori e dei pazienti, in modo da riuscire a soddisfare il più possibile l’anziano. Quando sarà sul mercato? Di qui a due anni ci sarà un prototipo che sarà sperimentato per un anno. Di sicuro alla fine del 2017 solo alcuni componenti potranno essere messi in commercio mentre il sistema completo potrebbe andare sul mercato forse un paio di anni dopo. Diciamo 33


GIUGNO 2015

che non è stata ancora prevista una fase di commercio dato che questa implica una serie di altre questioni al momento un po’ premature. Avete deciso già quale sarà la fascia di prezzo? Non abbiamo specificato una fascia di prezzo però complessivamente utilizziamo delle tecnologie a basso impatto economico. Ad esempio, per la visione dei robot, si utilizzano, invece che sofisticati laser tridimensionali da 40mila euro, dei laser di poche centinaia di euro. Comunque queste sono scelte che si fanno in corso d’opera e che vanno nella direzione di essere sostenibili economicamente. Alla fine del progetto verrà preparato un business plan con i costi dei singoli componenti e la pianificazione di come andranno sul mercato.

Quanto siamo vicini alla riproduzione del ragionamento umano in un robot? Ci sono stati degli importanti avanzamenti tecnologici che hanno permesso, in alcuni casi, di superare l’uomo in specifiche operazioni come il riconoscimento delle facce basato su Deep Learning, oppure come nel caso di Watson, il supercomputer di IBM, che ha battuto i due campioni storici di Jeopardy. La particolarità di questo quiz televisivo è che i concorrenti devono indovinare la domanda giusta, in base ai suggerimenti forniti dal presentatore. Nonostante i vari tentativi in giro per il mondo non siamo ancora arrivati all’imitazione totale dell’intelligenza umana. Ci sono diverse teorie e approcci che aprono strade diverse e tutte potenzialmente percorribili. Personalmente penso che per avvicinarci al cervello umano c’è ancora molta strada da fare.

Nelle vostre ricerche tenete conto dell’aspetto psicologico dell’anziano? Certo. C’è una discreta letteratura di lavori condotti sulla psicologia cognitiva degli anziani che si integrano con le nostre ricerche. Non solo, sono utili anche i questionari somministrati sia agli anziani che agli operatori sul campo. L’approccio è quello dello User Centered Design (UCD). L’UCD, citando Wikipedia, è caratterizzato da un processo di risoluzione di problemi multi-livello che non solo richiede ai progettisti di analizzare e prevedere come l’utente userà il prodotto finale, ma anche di verificare e validare i loro assunti considerando il comportamento dell’utente con verifiche di usabilità e accessibilità. Quali sono i benefici che potrà trarre l’anziano da questo progetto? Sicuramente diventeranno più autonomi e dipenderanno meno dalle persone e ci sarà anche un maggior monitoraggio della salute: Ramcip sarà non solo un aiuto concreto nella vita quotidiana dell’anziano ma servirà a mantenere atteggiamenti positivi e a tenere in esercizio abilità cognitive e fisiche. Quali sono i limiti di questo robot e quali le possibili evoluzioni? I limiti e l’ambizione di una possibile evoluzione coincidono perfettamente. Esiste un aspetto di più basso livello che è legato alla capacità del robot di comprendere l’ambiente che lo circonda. Quindi, il primo è l’aspetto della comprensione. L’altro invece è legato alla capacità di risposta del robot ad una richiesta specifica e alla capacità di valutare se l’anziano ha bisogno di un piccolo suggerimento oppure di un’azione concreta. Proprio perché questi sono limiti tecnologici, la ricerca ambisce a trovare delle soluzioni su questi fronti. 34

MACHINE LEARNING: COS’È L’apprendimento automatico (noto in letteratura come Machine Learning) rappresenta una delle aree fondamentali dell’intelligenza artificiale e si occupa della realizzazione di sistemi e algoritmi che si basano su osservazioni e dati per la sintesi di nuova conoscenza o capacità. L’apprendimento può avvenire catturando caratteristiche di interesse provenienti da esempi, strutture dati o sensori, per analizzarle e valutarne le relazioni tra le variabili osservate.


scenari

LA CASA COME ENTITÀ INTELLIGENTE La domotica, sviluppi e implicazioni

Una casa che apprende le nostre abitudini e ci sgrava dai fardelli quotidiani di fare il caffè o chiudere a chiave la porta prima di andare a cena. Abbiamo intervistato Andrea Reginato, CEO di Lelylan, per conoscere la sua idea di casa smart e come Lelylan diventerà un servizio che entrerà nelle case di tutti. Andrea, quando nasce la Tua idea?

In cosa consiste Lelylan?

Nasce nel 2007 dalla richiesta di un’azienda, Eletech, che gestiva impianti elettrici e domotici e che si stava occupando della Basilica di S. Antonio di Padova. In pratica l’Enel aveva destinato un fondo per la ricostruzione di un sistema di illuminazione controllabile attraverso un’applicazione. A quel tempo esisteva un software che però aveva dei grossi limiti di costi e poi era un sistema chiuso che non funzionava con il web. Siamo entrati in contatto poiché cercavano un sistema di illuminazione che potesse essere gestito dal web; allora frequentavo l’università, non mi sono tirato indietro e ho accettato la nuova sfida. Dopo 4 settimane ho acceso la mia prima luce.

È una piattaforma web che permette di connettere qualsiasi oggetto fisico di una casa a internet. Il concetto di base è l’URL che rappresenta ciascun oggetto e che permette sia il controllo da remoto che la comunicazione tra i vari oggetti. Ogni oggetto ha un piccolo computerino all’interno che, ad esempio, tramite un chip wifi, si collega con gli altri oggetti e alla rete. Come pensate di risolvere il problema della sicurezza? La sicurezza è tema molto delicato, richiede un team dedicato ed è molto difficile dire oggi che un qualsiasi elemento collegato ad internet sia sicuro al 100%. È una barriera che potrebbe rallentare 35


GIUGNO 2015

lo sviluppo di questa tecnologia. Del resto chi poteva immaginare 10 anni fa che le banche online sarebbero diventati una realtà? Quali sono gli sviluppi possibili e futuri in termini di servizi commercializzabili di Lelylan? Come startup è molto difficile gestire tutti i dispositivi presenti in una casa, per questo motivo noi stiamo approfondendo un settore per volta. Attualmente, essendo il concetto delle luci smart abbastanza diffuso, stiamo cercando di accreditare aziende del settore luci e abilitarle in modo che possano trasformarle in luci intelligenti. Questa è una logica che può essere applicata od ogni settore, come termostati, serrature, audio e quant’altro abbiamo a casa. La difficoltà principale non è tanto quella tecnica di connettere i dispositivi a internet, ma la definizione di servizi che diano un senso all’oggetto acquistato. Attualmente la piattaforma Lelylan permette di connettere e controllare in real time qualsiasi oggetto attraverso un’applicazione che funziona sul desktop, su un tablet e su mobile. Quanto alla tipologia dei servizi ecco un paio di esempi. Prendiamo il termostato nel periodo dei picchi quando tutti accendono il condizionatore, c’è il rischio di blackout che costringe le aziende fornitrici a potenziare le centrali e questo può essere un problema. Avendo, invece, un termostato smart che comunica ai fornitori di energia il consumo, si può fare in modo che il termostato possa impostare un minor consumo nei momenti di punta. I fornitori 36

possono anche abbassare le bollette per i consumi più bassi e per il non impiego di ulteriori risorse come il potenziamento delle centrali. Se penso alla luce smart in casa, penso a un servizio che va dal normale controllo della stessa da mobile alla scelta di un mood relax. Oppure, mi viene in mente l’ipotesi del mio amico che arriva prima di me a casa, con Lelylan gli posso mandare un invito per entrare a casa tramite il web senza la mia presenza fisica. Il tuo prossimo obiettivo è costituire una start up, a che punto sei? Al momento c’è un prototipo funzionante, siamo in beta. Il lancio ufficiale in Italia è stato fatto a Roma alla MakerFaire l’ottobre scorso e in Europa ad Aprile a The Next Web in Olanda. Abbiamo circa 1500 makers che stanno sperimentando la piattaforma. Per quanto mi faccia male, essendolo io stesso, devo dire che makers e developers non producono guadagno, pertanto stiamo spostando il nostro target verso le imprese. Il prossimo obiettivo è creare una cordata di aziende che lavorano in un determinato settore, come quello dell’illuminazione, per avere finanziamenti in grado di aiutare Lelylan a crescere.


scenari Quali sono le prospettive future della domotica?

delle critiche costruttive per far crescere il progetto.

Nonostante io sia impegnato nello sviluppo delle tecnologie, le ritengo un po’ troppo intrusive. L’idea futurista della domotica è la casa al nostro servizio e che impari a semplificarci la vita nelle nostre azioni quotidiane: la casa come un’entità intelligente. In realtà se prendiamo l’applicazione che ci fa accendere la luce in casa, potremmo considerarla una complicazione, poiché vado a fare più operazioni: sbloccare il telefono, trovare l’app, scegliere il tasto corrispondente. Questo rende l’idea che c’è tanto ancora da fare per rendere più naturale la fruizione di questi servizi. Guardando nel futuro, io immagino una casa che riconosca le nostre azioni quotidiane e le faccia per noi. Ad esempio al mattino riconosce il nostro risveglio e provvede ad accendere le luci, a preparare il caffè, a darci le ultime notizie, avvisarci dello yogurt che sta per scadere e così via. Questo significa migliorare la qualità di vita della persona sgravandola dalle piccole incombenze.

Ad Amsterdam, in due giorni, ho avuto dei feedback molto diretti e chiari, ho avuto molti suggerimenti sul potenziale sviluppo del progetto e, se non avessi avuto questo tipo di atteggiamento, il progetto starebbe prendendo una strada diversa.

Come immagino la tecnologia del futuro? La immagino molto semplificata, l’oggetto fisico, l’hardware, tenderà a scomparire. La differenza la farà il servizio che lo abilita: non sarò io ad accendere l’interruttore o l’elettrodomestico, sarà fatto dalla casa intelligente. In questo senso mi allontano fisicamente dal dispositivo. Quindi, la casa imparerà dalle abitudini di ciascuno di noi. Sarà una tecnologia quasi naturale. Immaginiamo una casa con tanti sensori che hanno una loro intelligenza capace di comunicare fra loro e di fare tutte le operazioni di cui sopra. Cosa significa essere imprenditore in Italia? Sono un imprenditore atipico, perché la mia esperienza è stata dedicata allo sviluppo tecnico di Lelylan ed alla continua ricerca di collaborazioni per migliorare il prodotto offerto. Comunque in Italia posso dire che c’è una mentalità un po’ chiusa e restia ad accogliere nuove idee. La nuova idea viene vista come qualcosa che si scontra con l’abitudine. A volte manca la curiosità. La parte più difficile per me è stata scontrarmi con quella fetta di realtà che non vuole cambiare le cose ma restare nell’abitudine. Quali sono le differenze con l’estero? Principalmente ho notato delle differenze quando sono stato ad Amsterdam dove mi sono confrontato con realtà tipo Microsoft e Robert Bosch VC. Un esempio mi aiuterebbe a chiarire. Quando sono stato da investitori italiani a presentare il mio progetto hanno avuto delle reazioni molto positive ma poco costruttive, hanno parlato subito di percentuali, di idee, senza conoscere ancora il progetto. È un atteggiamento che mette in allerta uno startupper, perché sostanzialmente più che di percentuali ha bisogno di avere

Andrea Reginato CEO di Lelylan Lelylan è una startup italiana focalizzata nell’Internet of Things. Fondata otto anni fa da Andrea Reginato, giovane informatico di Treviso, è oggi una piattaforma matura, frutto del lavoro di un team di sviluppatori e aziende che collaborano in diversi ambiti come User Experience, Product Design e Connected Hardware. Dopo aver costruito negli anni una solida community di sviluppatori e maker, si sta ora spostando nel mondo del business. L’Internet of Things (il nome 2.0 della domotica) è l’idea di un mondo in cui tutti gli oggetti fisici sono connessi a Internet. Il modo più semplice per descrivere questo concetto sta nel pensare a un cartone del latte che ci avvisa del fatto che il suo contenuto si sta esaurendo e della necessità di acquistarne di nuovo. In termini di prospettiva, l’Internet of Things rappresenta una frontiera in cui miliardi di oggetti comunicano tra di loro, offrendo nuovi servizi, scambiandosi messaggi e prendendo decisioni che oggi richiedono l’intervento dell’uomo. Per informazioni Andrea Reginato: andrea@lelylan.com / +393408529726 http://lelylan.com http://lelylan.pr.co/100476-lelylan-porta-l-internet-of-things-e-litalia-delle-startup-a-the-next-web-2015 37


GIUGNO 2015

GOOGLE: intelligenza e memoria artificiale Una favola che racconta la complessità dell’algoritmo del motore di ricerca VALENTINA CAMBARERI

valentina.cambareri@bizen.it

C’era una volta e c’è ancora... “Viaggio in un mondo in cui i robot hanno sogni e desideri.” Non è trascorso troppo tempo da quando concetti come l’intelligenza artificiale appartenevano solo al mondo della fantascienza. Il noto film di Steven Spielberg apriva la strada della nostra fantasia a immaginare mondi paralleli, forse non troppo lontani ma nemmeno così vicini (Intelligenza Artificiale, 2001). Negli stessi anni Larry Page e Sergey Brin davano vita ad un ambizioso progetto, un contenitore accessibile a tutti che potesse catalogare la totalità delle informazioni disponibili in internet. Il contenitore doveva essere la soluzione ad un problema quotidiano: mettere ordine tra i siti e proporre agli utenti risultati in linea con ciò che cercavano. La vera innovazione, che ha determinato la crescita esponenziale di Google rispetto ai competitor è straordinariamente bella nella sua semplicità: la centralità dell’utente. Come Google ha reso possibile tutto ciò? Un complesso algoritmo Si narra di segrete in cui brillanti ingegneri lavorano ogni giorno per garantire le migliori performance al complesso algoritmo di Google. Le regole più note sono riconducibili nei tre filoni seguenti: 1. Piaccio agli spider di Google 2. Piaccio agli utenti 3. Piaccio agli altri siti Su queste tre macroaree e su molti piccoli dettagli si costruisce il 38

lavoro di tecnici impegnati a lavorare per far raggiungere le ambite prime posizioni. L’esercito di spider di Google È così che Google, giorno dopo giorno, legge le migliaia di pagine presenti nel web e gli assegna un primo punteggio di qualità, con un sistema di programmi che passano al setaccio le pagine e ne leggono i contenuti. Per facilitare il lavoro degli spider ci sono delle tecniche e delle modalità da tenere presente e sulle quali essere sempre sul pezzo. Content is the king È la regola più nota: il contenuto è il re, è il focus sul quale è necessario concentrarsi per avere un buon sito, con ottime possibilità di posizionarsi. Ma come creare il contenuto giusto per Google e per gli utenti contemporaneamente? Non è così banale, l’ideale è pianificare con cura ogni passaggio con l’aiuto di esperti del tema. Very Popular Link La link popularity rappresenta una delle prime grandi rivoluzioni. Quello che ha distinto fin da subito Google dai competitor è stato proprio il ragionamento sui link in entrata: se tanti ne parlano bene, un motivo ci sarà. E se chi ne parla bene è a sua volta una fonte autorevole, allora siamo a cavallo. Semplice, ma geniale. Come piacere ad altri siti fino a farsi linkare? Con tanta strategia e tanta pazienza.


Una foresta abitata da curiosi animali

scenari

Google non si ferma mai: attraverso continui aggiornamenti, personificati da simpatici animali, modifica i suoi algoritmi per migliorare sempre di più l’esperienza dell’utente e scoraggiare le pratiche SEO scorrette.

Google Panda: regola i punteggi di qualità dei link in entrata Google Penguin: controlla le pratiche poco ortodosse SEO di alcuni webmaster Google Pigeon: migliora i risultati geolocalizzati

Gli aggiornamenti di Google sono spesso improvvisi e non preannunciati: pertanto lasciano in sospeso e talvolta anche in disperazione molti webmaster. Come essere preparati all’arrivo di un animale della fattoria Google? Si cerca di essere sempre sul pezzo, di seguire le regole di base con attenzione, di monitorare con cura le statistiche, affidandosi a professionisti esperti. Una morte inaspettata Ebbene sì, in questa favola ci scappa anche il morto... Ma dal momento che è una favola, possiamo anche riportarlo in vita. Parliamo della SEO. Le complesse teorie e tecniche che consentono a un sito web di ambire alle prime pagine di Google sono state dichiarate più volte decedute nella letteratura del web. Avete sentito dire anche voi che la SEO è morta? Noi non ci crediamo. Noi pensiamo che infondo, tutto ciò che risulta ostico, difficile, imprevedibile e sconosciuto, faccia paura. Ma non faremo morire la SEO, sono gli utenti a volerla e crediamo nel lieto fine.

memoria artificiale di Google hanno cambiato la comunicazione in modo incisivo: gli utenti cercano informazioni in ogni fase del processo decisionale e di acquisto. Si fanno convincere, cercano opinioni, vogliono conoscere le aziende, acquistano. Le aziende hanno iniziato a essere presenti, con contenuti, foto, video e tutto ciò che possa fornire delle risposte. Quali le migliori pratiche per comprendere e interpretare la complessità dell’algoritmo a nostro vantaggio? Un lieto fine L’azienda che vuole essere presente e non passare inosservata su Google deve conoscere e sposare le teorie che mettono al centro di tutto l’utente. Il bisogno di far reperire facilmente e felicemente informazioni sul motore di ricerca rimane sempre il fulcro dell’idea imprenditoriale del gigante di Montan View. Questo, in fondo, è quello che ogni azienda dovrebbe fare: partire dal bisogno per soddisfare il proprio target. Google quindi premia le aziende che offrono ai suoi utenti contenuti utili, di qualità, che aggiornano spesso il sito con notizie, immagini, video, qualunque cosa possa offrire un contributo concreto. Esserci è sempre più un’esigenza, come farlo è sempre più un’incognita. Rivolgersi sempre a esperti e figure dedicate è sicuramente l’unica buona strada.

Un utente felice I motori di ricerca hanno decisamente rivoluzionato il mondo delle conoscenze. L’utente che compie una ricerca ha in mano tante alternative e anche molte certezze: qualcuno lavora costantemente affinchè le sue chiavi di ricerca offrano come risultati qualcosa di rilevante, qualcosa di coerente, una risposta completa alla sua domanda. La conoscenza mantiene sempre il suo enorme valore ma è diventata qualcosa di raggiungibile facilmente, è condivisa e condivisibile. L’utente è felice, è soddisfatto ed è altruista: condivide le sue conoscenze con gli altri. Un utente curioso L’informazione è a portata di mano, nasce un nuovo mondo di conoscenze, è l’economia della condivisione. L’intelligenza e la

Valentina Cambareri Digital Strategist di Bizen Srl 39


GIUGNO 2015

TOOL ESPERENZIALI PER ENTRARE IN EMPATIA CON L’UOMO Dal parco animato al virtual promoter

Occambee è una realtà orientata allo sviluppo dello smart site, ovvero, mettere in comunicazione un luogo con il pubblico. È il sito stesso che si racconta instaurando una relazione con il visitatore e conducendolo in un percorso esperenziale personalizzato. Abbiamo intervistato Annamaria Colucci, partner di Occambee che ci ha spiegato i progetti in corso e le prospettive del settore. 40


Esiste un rapporto secondo Lei tra l’Intelligenza Artificiale (IA) e il coinvolgimento emotivo del fruitore? In linea generale, possiamo assumere che un sistema “intelligente” susciti nell’umano con cui ha un’interazione un coinvolgimento, dato dalla capacità di rispondere agli stimoli, domanda/risposta o azione/reazione. Ma quando si parla di coinvolgimento emotivo si parla appunto di emozioni e quindi della capacità di instaurare una relazione, in questo caso la competenza necessaria aggiunta ad un sistema di IA è la Human Like Interaction, che detta le regole da seguire nella gestione del contatto con l’umano. Sono gli stessi parametri di comunicazione che tra umani rendono possibile uno scambio di conoscenza, e quindi la comunicazione verbale, un aspetto fisico, il linguaggio del corpo e le emozioni. La piattaforma di IA consente di associare al “calcolo” della risposta anche una coerente manifestazione della stessa, ha l’effetto di mettere a proprio agio l’umano e creare empatia, e inoltre fa sì che, ad ogni contatto con il pubblico, l’azienda o l’ente possa esprimere i propri valori e avere una personalità definita.

scenari L’intelligenza si manifesta nella capacità di suggerire il miglior percorso possibile in base al profilo dell’interlocutore, alle esigenze espresse, a quanto ha già visitato, e ad altri parametri che possono condizionare concretamente le modalità di visita e di cui può venire a conoscenza anche durante la visita stessa. L’immagine del museo può essere rappresentato da un avatar, un personaggio in 3D animato, che diventa l’anima del luogo, il genius loci, una guida virtuale che accompagna il visitatore e lo assiste nella visita, fornendo su richiesta approfondimenti sulle singole opere. Con l’ausilio di altre tecnologie come ad esempio la realtà aumentata, si possono fare vivere gli oggetti e in questo caso è la stessa arte che parla e racconta se stessa.

Oggi si sente parlare tanto delle smart city, in che modo state orientando il vostro know how? Occambee trae spunto dal concetto di smart city, ma noi parliamo di smart site, l’idea sintetizza il mettere in comunicazione un luogo, che può essere oltre che un museo, un’area cittadina, o un parco, ma anche un centro commerciale, con il visitatore e il pubblico tramite i loro device mobili. È il luogo stesso che si racconta, attraverso un’interfaccia grafica, un character che lo rappresenta, ed instaurando una relazione con il visitatore lo conduce e assiste nella visita rendendola un’esperienza personalizzata. Altra applicazione per una città smart, in ambito commerciale, è la virtual promoter, un assistente virtuale in un punto vendita o in un centro commerciale in grado di suggerire il miglior prodotto o guidarci all’interno di quanto il centro offre. Elemento centrale di queste soluzioni è la capacità di dialogo del sistema con il cliente o visitatore. Parliamo di IA applicata ai musei, come funziona? Abbiamo osservato cosa accade e cosa non accade durante una visita ad un museo, tutti ne abbiamo esperienza diretta, quante volte ci siamo trovati ad osservare un’opera senza essere preparati culturalmente e senza trovare alcuna indicazione se non una targhetta con il titolo dell’opera e il nome dell’autore. Attraverso il nostro sistema, secondo il concetto di smart site già citato, è il luogo che dialoga con il visitatore e gli fornisce tutte le informazioni disponibili rendendogli la visita più semplice.

Annamaria Colucci Partner Occambee Srl 41


GIUGNO 2015

Il principio base della soluzione è che la tecnologia non deve vedersi, deve essere uno strumento che dialoga attraverso i contenuti che costituiscono la storia che il museo vuole raccontare. Punto di contatto con il visitatore è il suo stesso smartphone o tablet e questo fa sì che non si debbano introdurre device che poi devono essere anche mantenuti e gestiti. Quali sono le novità del settore? Culturale heritage e tecnologia, nuove forme di comunicazione con il pubblico, che portino ad una maggiore diffusione della cultura e allarghino il pubblico interessato parlando un linguaggio più moderno sono temi trattati sempre più di

PROGETTO GENIUS LOCI Nel settore del Turismo è un progetto “smart site” pensato per un parco. L’obiettivo principale del progetto è soddisfare un’esigenza di maggiore attrattività del parco, per coinvolgere un pubblico più ampio. La soluzione è stata popolare il parco di folletti, figure di fantasia rappresentative del luogo, riprodotti in 3D e animati che il visitatore doveva intercettare durante la sua passeggiata, (tramite un app sul proprio device mobile). In alcune aree i folletti inviavano segnali e poi apparivano sul device del visitatore e iniziavano a dialogare con lui e ad intrattenerlo con la propria storia, la storia del luogo, delle piante, collegando i diversi punti di interesse sul percorso con il proprio racconto. L’elemento caratterizzante di questo “smart site” è l’utilizzo dello storytelling e della gamification, in un luogo che molto semplicemente era popolato da piante il visitatore incontrava tribù di folletti con i quali poteva giocare e apprendere. Da un punto di vista organizzativo e come feedback della visita il parco otteneva i dati relativi all’interazione con i visitatori, (il numero di visitatori, la raccolta dei profili comportamentali, le richieste effettuate), così come altri dati statistici utili per conoscere il proprio pubblico e organizzare eventi successivi: il dialogo poi poteva continuare su web, dando continuità alla relazione cliente - località instaurata durante la visita. Con questo progetto Occambee ha vinto, arrivando primo, un bando sull’innovazione della Regione Lombardia.

42 42

frequente nel settore del turismo in generale. Negli ultimi tempi il dibattito è più attivo ma le resistenze sono a volte molto forti di fronte ad un tipo di linguaggio che un po’ si allontana da quello scientifico; credo che sia la strada per una nuova valorizzazione del patrimonio culturale e che possa realizzare un nuovo rapporto tra mondo culturale e pubblico. Rilevante considerare che in questo contesto si dovranno sviluppare nuove competenze, nuove figure professionali in grado di tradurre in linguaggio “digitale”, utilizzando anche le modalità di comunicazione come lo storytelling e la gamification, quell’immenso patrimonio culturale di cui disponiamo, ed è questo un fattore importante per profili che spesso hanno difficoltà nel mondo del lavoro. Come vede in prospettiva fra 50 anni il rapporto tra l’uomo e la macchina? Difficile fare previsioni, la strada che sembra segnata vede le macchine adattarsi all’uomo e non viceversa nell’interazione, e in altri casi le macchine sostenere l’uomo in attività importanti, in ambito medico e della salute, della riabilitazione e della sicurezza ci sono già applicazioni molto utili o che migliorano la qualità della vita anche nella quotidianità. Senz’altro la macchina, rispondendo anche ad una esigenza economica molto forte, prenderà sempre più spazio nel mondo del lavoro. Più che una previsione mi auguro che l’uomo faccia delle scelte consapevoli riservandosi un controllo “umano” in alcuni settori. In un contesto più generale all’interno della cultura quali sono le prospettive future in campo di IA? Le principali aree credo siano già emerse, nel culturale heritage e nel settore della formazione. Quest’ultima area è abbastanza in fermento e alla ricerca di nuovi modelli. Nel 2011 Occambee ha realizzato un Dante Virtuale che dialogava con il pubblico (youtube/Dante 3D), e rispondeva a domande libere in terzine, quale esperienza coinvolgente non sarebbe per lo studente apprendere direttamente dall’autore la sua storia la sua cultura e la sua arte? In generale e in conclusione credo che l’utilizzo della tecnologia nel mondo culturale produrrà senz’altro una semplificazione della divulgazione, sia essa didattica o legata al patrimonio culturale.


DALLA MAIL ALLA STRETTA DI MANO

Per il quarto anno torna la grande vetrina delle produzioni, delle lavorazioni e dei servizi promossa e organizzata da Unindustria Bologna, per moltiplicare le occasioni di business delle imprese. Per informazioni visita il sito: http://farete.unindustria.bo.it

7 - 8 settembre 2015 Pad. 15 -18 BolognaFiere

43


GIUGNO 2015

L’ARTIFICIALE È NATURALE: É UN PRODOTTO DELL’UOMO Il punto di vista di un antropologo

L’artefatto umano è orientato ad un fine e dovrebbe essere adattato ai principi universali di convivenza umana. La sfida più grande adesso è l’ecologia per la nostra sopravvivenza, una questione destinata ad estinguersi con la nostra specie: un processo evolutivo inevitabile. Intervista all’antropologo Antonio Marazzi. Lo sviluppo tecnologico ci ha abituato a vivere come “uomini aumentati” con molta naturalezza, effettivamente questo passaggio è stato così naturale?

Nonostante l’uso quotidiano della macchina da parte dell’uomo, quest’ultimo sembra viva con timore l’idea, un giorno, di avere un umanoide vicino. Lei cosa ne pensa?

Sì, certo. È proprio nella natura della nostra specie avere inventato e utilizzato strumenti adatti alla propria sopravvivenza. Molti si mostrano preoccupati della presenza invasiva delle nuove tecnologie. Basterebbe pensare alla crescita esponenziale demografica per considerare la tecnologia.

La forma umanoide andrebbe considerata nel suo aspetto funzionale, se cioè è la più adatta ad assolvere i compiti prefissati. La crescente presenza di anziani e di bambini non accuditi, nelle nostre società, fa progettare badanti e infermiere umanoidi. Novità tecnologiche hanno spesso suscitato timori prima di essere accolte in una società, così come avviene all’ingresso di un estraneo, umano o macchina che sia. Le prime locomotive a vapore terrorizzavano chi vedeva quei mostri enormi e sbuffanti entrare nei villaggi. Secondo Lei una macchina potrà arrivare a riprodurre la biologia umana? La bionica è in grado di sostituire pezzi del nostro corpo in modo sempre più avanzato, meno meccanico e più vicino ai sistemi nervosi e cellulari dell’uomo. Riprodurre la biologia umana è piuttosto il compito della biogenetica. Si pensi alla fecondazione e alla nascita artificiali che sta andando nella direzione dell’ectogenesi che sostituirà la gravidanza naturale. Un robot, per come la tecnologia lo sta avvicinando all’essere umano, dovrà avere un ruolo sociale in questo mondo? Mentre ci si pone questa ragionevole questione, che è presente soprattutto nei paesi orientali, dove la coesione sociale è prioritaria, mi pare che sul versante della ricerca si vadano superando i limiti di tale imitazione. Pur senza accogliere le

44


suggestioni dei cultori del “post-human”, secondo i quali il nostro corpo sarebbe “obsoleto”, le tecnologie si stanno liberando di certe forme di imitazione per ottenere obbiettivi in modo più efficace. I droni possono essere un esempio. L’evoluzione dell’uomo ha, secondo Lei, degli schemi che si sono ripetuti fino ad oggi? Se sì, come vede l’evoluzione dell’uomo nel futuro? Secondo le interpretazioni dei paleoantropologi, primo fra tutti Leroi-Gourhan, l’uomo ha sempre tratto vantaggio dai propri limiti, come dalle debolezze fisiche nel confronto con altre specie animali. Ora la sfida è su grande scala, con l’ecologia, per la nostra sopravvivenza. Una previsione è impossibile, bisogna però considerare che fa parte dell’evoluzione l’estinzione di una specie, e la nostra non può fare eccezione. In cosa l’Intelligenza Artificiale (IA) sta aiutando la Sua vita? Ho qualche reticenza nell’attribuire il titolo di Intelligenza Artificiale a certe invenzioni e a certi progressi che hanno rivoluzionato non solo il nostro modo di vivere, ma le stesse coordinate fondamentali sulle quali nel corso della storia si è cercato di comprendere il mondo. Penso anzitutto al tempo e allo spazio, ripensati se non azzerati dall’uso quotidiano della comunicazione su scala planetaria, delle memorie artificiali illimitate. Quanto all’IA in senso stretto, mi pare un progetto oramai abbandonato, non solo per l’impossibile replicazione dei processi neuronali, ma perché è più efficace seguire altri percorsi per perseguire certi obiettivi.

scenari Qualcosa come ciò che diceva Syephen Jay Gould parlando di “equilibri punteggiati”. Il passaggio al neolitico è stato uno di questi. Forse ne stiamo attraversando un altro, nel quale la scienza, dopo aver osservato e cercato di comprendere la natura, diviene, ora, in grado di manipolarla, modificarla, fino a creare artificialmente i processi naturali, dei veri e propri artefatti biologici. La tecnologia applicata alle forme di vita diventa un terzo polo, autonomo sia dalle leggi di natura che da quelle della cultura, pur derivando dall’una e dall’altra, ma dotata di proprie leggi. E torniamo alla questione dei termini: non è forse sempre l’uomo a fare nascere nuovi membri della propria specie secondo i nuovi desideri della propria cultura attraverso gli strumenti che ha inventato per una manipolazione artificiale delle forme di vita? Si può ammetterlo, ma il salto evolutivo c’è.

C’è un aspetto dell’uomo da cui non si può prescindere quando si progetta un’IA? Qualunque artefatto umano è orientato a un fine. E qualunque progetto dovrebbe valutare il suo adattarsi ai principi universali della convivenza umana, evitando ogni autoriferimento e autovalutazione. Un’arma, per quanto sofisticata, è sempre un progetto stupido. Come ci si relaziona con un’IA?

Antonio Marazzi

Sono tentato di rispondere con una battuta: con un ragionevole senso di superiorità, ovvero, il test di Turing è un non-senso logico. Lei nel suo libro si pone questa domanda che le rigiro: stiamo passando da un’evoluzione naturale a un’evoluzione artificiale della nostra specie? In argomenti così generali è spesso una questione di termini. In un certo senso, l’artificiale è “naturale”, un prodotto della natura umana. Possiamo anche pensare all’evoluzione come a un processo discontinuo, che fa dei salti.

Antonio Marazzi è ricercatore presso il National Museum of Ethnology di Osaka, membro fondatore dell’I.S.Mu (Iniziative e studi sulla multietnicità) di Milano. Responsabile di progetti europei sulla multietnicità, ha effettuato ricerche sul campo presso i profughi tibetani in India e Europa, e in Giappone su aspetti tradizionali e contemporanei di quella cultura. È autore di numerose pubblicazioni e di video etnografici, membro dell’Advisory Board del Margaret Mead film and video festival di New York, membro del comitato scientifico delle riviste Diogène e Visual Anthropology. Autore, infine del libro Antropologia dell’uomo artificiale. 45 45


GIUGNO 2015

L’IA: ACQUISIRE, ELABORARE E COMUNICARE L’INFORMAZIONE L’IA come un concetto interpretabile

Gli studi di Marconi ancora validi oggi, capitalizzati con l’implementazione di altre teorie, hanno portato a completare e concretizzare in alcuni casi l’Intelligenza Artificiale. Gabriele Falciasecca, presidente della Fondazione Guglielmo Marconi, ci spiega l’IA secondo la cultura di Marconi e i successivi sviluppi. Come si pone la Fondazione nei confronti dell’Intelligenza Artificiale (IA)? È doverosa una piccola premessa. L’IA non ha una definizione di stampo tradizionale, nel senso che è un concetto introdotto in un certo momento storico, che ha un significato dato per chi lo ha coniato; ma dopo la definizione ha vissuto e vive di vita propria. Questo significa che il concetto di IA può essere anche interpretato ed è quanto mi permetto di fare qui. L’IA ha a che fare con l’informazione. Su di essa si possono compiere tre operazioni: 1. L’acquisizione dell’informazione 2. L’elaborazione dell’informazione 3. La comunicazione dell’informazione 46

Perché queste operazioni si possano realizzare serve anche una memoria, che è un substrato che permette la sinergia delle tre azioni, pur non essendo essa stessa una ulteriore operazione. L’IA inizia a nascere quando queste tre operazioni, o due di esse, si intrecciano indissolubilmente tra di loro. Mi spiego: immaginiamo una telecamera che riprende una stanza di un aeroporto; attraverso un sistema di elaborazione la macchina può decidere di comunicare che un collo all’interno della stanza crea una situazione di pericolo, o semplicemente concludere che è un postino che lascia un pacco. Questa è un’azione che richiede la sinergia delle tre operazioni di cui sopra, ovvero, acquisire informazioni, elaborarle per prendere una decisione e infine dare una segnalazione che può avere effetti immediati distribuendo la foto del sospettato e allertando la sicurezza. Se fosse fatta da un


uomo noi diremmo che è un’azione intelligente; quando questa operazione viene svolta in modo automatico, possiamo parlare di un’azione intelligente fatta artificialmente. Esistono molte applicazioni che intrecciano queste operazioni, tra queste ce ne sono alcune che possiamo definire intelligenti, usando l’aggettivo intelligente come quando diciamo “quella persona ha fatto una cosa intelligente”. Per fare un esempio, il navigatore dell’auto intreccia perfettamente le tre operazioni, perché è in grado di acquisire la posizione, elaborare una decisione di percorso e poi comunicarla al guidatore che diventa l’attuatore di quanto prodotto dalla macchina. In questo senso anche l’intelligenza artificiale può rientrare tra le conseguenze dell’opera di Marconi. Guglielmo Marconi ha definito fra i tre momenti grandiosi della propria vita quello che ha vissuto dopo la sua scoperta poiché diceva: “posso serenamente immaginare le possibilità future e sentire che l’attività e gli sforzi di tutta la mia vita hanno fornito basi solide su cui si potrà continuare a costruire”. Si può dire che Marconi è stato uno dei precursori della realtà aumentata che ci permette di viaggiare nell’etere con tecnologie molto sofisticate. Come immaginerebbe il mondo oggi senza la scoperta di Marconi? Ai tempi di Marconi, e grazie anche a lui, le uniche operazioni che si potevano fare erano di acquisizione e comunicazione dell’informazione. Marconi aveva capito che mettendole insieme si

scenari potevano realizzare nuove applicazioni, che oggi stiamo usando, come le sonde spaziali teleguidate e così via. Lui prevedeva, però, sistemi guidati da terra da un individuo. Quello che non aveva immaginato è che i comandi potevano essere dati da una macchina, come succede oggi in modo automatico. Quindi, si può dire che un’azione complessa con le tre operazioni sia un’estensione di quello che già prevedeva Marconi. La Fondazione opera non solo per tenere viva la memoria di Marconi, ma è anche impegnata in attività di ricerca, quali sono i progetti a cui si sta lavorando? Tra i tanti scelgo questo. La Fondazione Marconi, con l’Università di Bologna e la Fondazione Ugo Bordoni, sta studiando quali sono le caratteristiche di una rete di quinta generazione (5G) in grado di dare maggiore affidabilità dell’attuale. La rete 5G è studiata per offrire prestazioni personalizzate a seconda dell’applicazione: chi usa Facebook per esempio ha bisogno di una rete meno affidabile di chi ha affidato la propria vita alla rete perché indossa oggetti di e-health, comandati a distanza, da cui dipende la sua salute.

Gabriele Falciasecca Presidente Fondazione Guglielmo Marconi

47


GIUGNO 2015

Come vede il mondo delle telecomunicazioni del futuro? Ognuno di noi ha già la possibilità di comunicare attraverso un apparecchio con chiunque e in qualunque posto; questo implica una serie di tecnologie radio da una parte e la tecnologia della fibra ottica dall’altra. Oggi c’è un gran discutere sul ruolo di queste tecnologie nei vari territori. Nel prossimo futuro noi utenti finali non ci accorgeremo di quanto sta dietro il fatto che siamo sempre connessi con il nostro smartphone: sarà come quando accendiamo la luce senza sapere la complessità che c’è a monte. Sarà una tecnologia invisibile. Anche la versione casalinga della televisione sarà tramite fibra ottica. Ognuno avrà la possibilità di scegliere cosa vedere in ogni momento. Il gestore televisivo offrirà un servizio sempre più personalizzato, come già accade via Internet per i nostri figli.

una risorsa. Il rapporto è spesso stato più del tipo: “ abbiamo un problema, dateci una mano” che non “abbiamo una risorsa e bisogna sfruttarla”. Bisognerebbe a mio avviso fare un’opera di promozione congiunta magari con dei pacchetti turistici, legata a tutte le eccellenze del nostro territorio. Il Museo della Fondazione è una risorsa che attira molto pubblico, anche internazionale. Poiché il colloquio con le istituzioni non è sufficiente guardiamo anche ad altri progetti come FICO (Fabbrica Italiana Contadina), il grande parco agroalimentare che sorgerà a Bologna e dove tra gli aspetti legati al cibo ci sarà anche quello culturale: noi ci saremo per valorizzare FICO e il nostro museo.

Tecnologie all’avanguardia, sistemi elettronici sofisticati, quanto la ricerca in questi settori tiene conto delle implicazioni per la salute dell’uomo? La ricerca si occupa di questo tanto quanto si occupa dell’obiettivo finale tecnologico o di risultato. Se parliamo invece della messa in campo delle tecnologie siccome chi domina è il mondo dell’economia, allora la risposta è un po’ più complicata. Quando a suo tempo la Motorola sviluppò il primo telefono cellullare, contestualmente ci fu uno studio avanzato per quei tempi, sul rapporto tra salute e cellulare. I ricercatori si occuparono dell’una e dell’altra cosa. Nel nostro ambiente, oggi, in un’era dove la tecnologia imperversa su più fronti, c’è il rischio che in alcuni casi non si tenga conto delle implicazioni sulla salute per evitare un aumento dei costi. Possiamo però prendere singolarmente le nostre precauzioni: il telefonino con le sue multifunzioni è un oggetto usato già spesso ad una certa distanza dalla testa; se vogliamo mantenerla anche per le telefonate, l’auricolare può essere un buon compromesso. Il wireless nelle scuole per la nuova didattica è invece esente da rischi. Nelle scuole elementari è in discussione la validità degli strumenti tecnologici più sofisticati e in tal caso si può evitare il wireless per chiudere ogni discorso. La Fondazione Guglielmo Marconi e la comunità scientifica internazionale: qual è il rapporto? Il rapporto con la comunità scientifica internazionale per la Fondazione significa due cose: per la ricerca storica abbiamo una buona rete nel mondo che ci supporta; per la ricerca più tecnologica abbiamo il collegamento con l’Università di Bologna attraverso la quale ci relazioniamo con i diversi soggetti internazionali. Qual è invece il rapporto tra Fondazione e territorio? Da un lato c’è il Comune di Sasso Marconi in cui abbiamo la sede, poi ci sono Bologna, la Regione Emilia Romagna e l’Italia: con tutti abbiamo un rapporto più o meno soddisfacente. Credo però che a livello locale la Fondazione dovrebbe essere più considerata come 48

FONDAZIONE GUGLIELMO MARCONI Sede della Fondazione Guglielmo Marconi è Villa Griffone, il luogo in cui l’inventore bolognese mise a punto il sistema di telegrafia senza fili che poi si diffuse in tutto il mondo. Villa Griffone si trova a Pontecchio Marconi, a circa 15 km da Bologna. Il giardino e le sale della Villa ospitano il Museo Marconi, dedicato alle origini e agli sviluppi delle radiocomunicazioni. La Villa è stata dichiarata Monumento Nazionale. All’interno dello storico edificio è presente anche un Centro di ricerca ove operano specialisti della Fondazione Ugo Bordoni, dell’Università di Bologna e della stessa Fondazione Marconi, le cui attività quindi comprendono tre differenti aree – storia, ricerca, formazione – rendendo Villa Griffone meta di grande interesse per un vasto pubblico.


incontri con

ASCO TLC: IL VIAGGIO DELL’INFORMAZIONE SULLE AUTOSTRADE DIGITALI Intervista a Stefano Faè, nuovo presidente di Asco Tlc S.p.A.

La fibra ottica ha ed avrà sempre più spazio su interconnessioni geografiche di lunga distanza e sui domini aziendali ove la capacità e la qualità saranno necessari per il business. A parlarci del futuro delle autostrade digitali dell’informazione è Stefano Faè, nuovo presidente dell’azienda veneta leader nei servizi di telecomunicazioni a banda larga. Cambio di presidenza: quali sono i propositi per la sua nuova stagione professionale? L’esperienza in Asco Tlc e più in generale nel gruppo Asco Holding è assolutamente stimolante. Qui ho trovato un gruppo di persone capaci, volenterose e con il desiderio di contribuire ad un deciso cambio di passo. La società, dopo una fase di ristrutturazione e riorganizzazione, può finalmente guardare al futuro con una certa serenità. Stiamo costruendo un nuovo Data Center in totale autofinanziamento che prevediamo sia operativo per i primi mesi del 2016. Ci siamo posti l’obiettivo di

incrementare i contenuti e i servizi da erogare ai nostri clienti anche attraverso l’ingegnerizzazione di nuove attività, con l’obiettivo di raccogliere idee, in partnership con soggetti sia interni che esterni al gruppo, che nei prossimi anni vorranno condividere i nostri progetti. Un’attenzione particolare verrà riservata alle esigenze dei nostri stakeholders (comuni), al mercato bancario, all’infrastrutturazione di quelle aree ancora in digital divide, alle soluzioni di Data Center e ad alto valore aggiunto, soprattutto per i nostri clienti business. Con un occhio sempre attento all’equilibrio di bilancio, al fine di poter garantire 49


GIUGNO 2015

la continuità aziendale, destineremo una significativa parte dei nostri utili agli investimenti anche sul capitale umano, alla R&S e al brand in generale. Asco Tlc nasce con l’obiettivo di ridurre il digital divide sul territorio: a che punto siamo? L’iniziativa AscoTlc, nata in seno al gruppo Asco Holding SpA, era partita nel 2002 dopo aver rilevato che il ricco tessuto industriale della Marca Trevigiana era stato completamente dimenticato dagli investimenti dei grandi operatori nazionali. L’occasione di saltare fin da subito sul treno della larga banda è stata colta al volo dai Comuni soci di Asco Holding, costruendo così nella Marca una delle più grandi reti in fibra ottica tra le province Italiane a disposizione delle aziende trevigiane. Per fare un esempio AscoTlc ha interrato nella sola provincia di Treviso circa 2.000 km di cavi ottici, mentre operatori nazionali quali Fastweb o Retelit non raggiungono quota 15.000 km su tutto il territorio italiano. Inoltre il nostro collegamento in fibra garantisce la massima velocità di trasmissione fino all’utente finale (FTTH, fiber to the home) anche in previsione di servizi sempre più evoluti. Già nel 2009 AscoTlc aveva coperto il 93% delle aree industriali ed artigianali della provincia; seppur non nelle intenzioni iniziali del progetto, ha poi dato il via nel 2010 a programmi di copertura anche del mercato domestico nelle aree più periferiche del territorio; per ottenere ciò assieme alla rete in fibra ottica sono state realizzati una cinquantina di ponti radio ed attrezzate 25 centrali Telecom Italia per diffondere la tecnologia Adsl.

50

Quindi AscoTlc ha assolto il compito di anticipare il tardivo arrivo della tecnologia sul nostro territorio andando pure oltre gli obiettivi. I programmi di copertura dei grandi carrier nazionali nella regione Veneto avverranno forse entro la fine del 2015 e solo in seguito ai faraonici finanziamenti del Ministero dello Sviluppo. La tecnologia oggi viaggia a grandi velocità, eppure sui territori esistono ancora delle difficoltà strutturali e culturali che rallentano questa velocità: Lei che ne pensa? Il problema del digital divide è sicuramente legato a difficoltà strutturali, ma anch’esse si riconducono comunque a risvolti espressamente culturali. In merito alle difficoltà strutturali da secoli lo sviluppo di qualsiasi territorio è sempre stato legato alla crescita degli investimenti che riducono le distanze ed aumentano i servizi. Infatti, da sempre lo sviluppo e l’urbanizzazione dà per scontato la costruzione di reti viarie, di reti di energia e di reti di servizi. Per contro il successivo avvento dell’era digitale in Italia non è stato l’occasione di affiancare alle infrastrutture tradizionali quelle prettamente digitali, tantomeno di sviluppare nuove aree che prevedessero fin da subito anche le infrastrutture digitali. Ancora oggi capita di trovare progettazioni di nuovi insediamenti che non prevedono cavedi, cablaggi e tubazioni dedicate alle nuove tecnologie. Inoltre, per quanto venga ritenuta essenziale la banda larga per lo sviluppo e la competizione con il mercato internazionale, i segnali di mercato indicano che parecchie aziende non vogliono o non possono investire su di essa, neanche minimi punti di percentuale del loro budget. Non è raro trovare


incontri con aziende che spendano più nel lusso delle macchine aziendali che non nella connettività di qualità. Cosa ci sarà secondo Lei dopo la fibra ottica? Per le soluzioni ad alte performance o di lunga distanza la fibra ottica sarà ancora protagonista per parecchi anni. Al contrario di altre tecnologie la vita dell’investimento infrastrutturale è pressoché eterna, ed è relativamente semplice ed economico scalare le velocità sostituendo i diodi che le illuminano. La stessa fibra ottica di Asco Tlc è stata illuminata inizialmente con terminali che permettevano velocità di 100 mbit/s; negli ultimi 10 anni la rete è stata portata prima a 1 Gbit/s e poi a 10 Gbit/s. Invece per le necessità di medio cabotaggio si vede nel breve lo sviluppo di tecnologie wireless con prestazioni sempre maggiori. Il mercato del cloud oggi rende l’informazione ubiqua, è comodo da una parte ma dall’altra aumentano i rischi sulla sicurezza dei dati: qual è la visione di Asco Tlc sull’argomento sicurezza? Fino a qualche anno fa il mondo della rete era completamente sprovvisto di autorità di controllo e di strumenti di protezione delle informazioni delle aziende. Oggi la specializzazione della “malavita digitale” ha oramai raggiunto livelli di sofisticazione tali che la difesa delle aziende non è più affidabile ad operatori generici che fanno spendere alle aziende risorse in sola tecnologia elettronica. Asco Tlc si trova nella duplice posizione; da una parte incentiva l’apertura delle aziende alle autostrade digitali nazionali ed internazionali e dall’altro avvisa i propri clienti ed i loro integrator dei potenziali rischi che ciò comporta. In Asco Tlc è presente uno staff tecnico che si dedica esclusivamente al quotidiano “pattugliamento” delle autostrade informative aziendali e che insiste nel diffondere indicazioni alle aziende affinché affidino la sicurezza sì alla tecnologia, ma soprattutto alla implementazione di aspetti metodologici, procedurali volti ad controllo comportamentale efficiente ed efficace delle aziende. Anche in questo caso dovremo ricondizionare la nostra cultura, la nostra mentalità ed i nostri comportamenti per garantire la sicurezza dei dati pur fruendone nel modo più semplice possibile. Qual è lo scenario delle telecomunicazioni in Italia rispetto ad altri Paesi? In Italia, nei grandi centri urbani la tecnologia trasmissiva è stata messa a disposizione con poco ritardo rispetto alle nazioni più evolute. Laddove non si sono presentate iniziative quali quelle di Asco Tlc il problema invece è rimasto aperto più a lungo o non

Stefano Faè Presidente Asco Tlc Quarant’anni, una laurea in Economia Bancaria presso l’Università degli Studi di Udine, docente in materie creditizie con un’esperienza decennale nell’attività di pianificazione finanziaria, valutazione di imprese e cooperative, strutturazione di piani strategici per Banche di Credito Cooperativo e nella valutazione del merito di credito e di rapporti banca impresa: Stefano Faè da ottobre 2014 ricopre la carica di presidente di Asco Tlc (del Gruppo Asco Holding S.p.A.), l’azienda leader nella fornitura di servizi di telecomunicazioni a larga banda su fibra ottica.

ancora del tutto chiuso; per le zone con bassa densità abitativa ed industriale il divario con il nord Europa permane alto. Le reti possiamo definirle sempre più intelligenti: come vede il futuro delle comunicazioni e delle informazioni che viaggiano nell’etere? Nel mondo digitale le reti wireless sono state usate inizialmente per sopperire alle difficoltà del territorio ed anche Asco Tlc ha seguito questa strada. Poi c’è stato l’avvento delle tecnologie HSPA (High Speed Packet Access) che hanno permesso la fruizione dei servizi digitali con velocità di tutto rispetto per i dispositivi mobili. Ora con la sostituzione delle reti HSPA con quelle più performanti delle famiglie LTE (Long Term Evolution) si è raggiunto un grado di maturità tale da poter affiancare alle reti di raccolta terrestri una copertura aerea. Queste potrebbero essere le giuste tecnologie per i prossimi decenni in attesa che la capillarità della fibra vada a raggiungere le percentuali di copertura simili alle nazioni più evolute. 51


GIUGNO 2015

MARKETING AUTOMATION: TRA TECNOLOGIA E PROGETTUALITÀ UMANA Quando il software (quasi da solo) incrementa i risultati delle attività online MARCO ZIERO marco.ziero@mocainteractive.com

Riuscire a raccogliere ed armonizzare tutti i dati che un’azienda possiede, nell’ottica di meglio comprendere quando e come comunicare a potenziali clienti, è uno dei vantaggi dell’adozione di una strategia e di un software di marketing automation.

Negli ultimi dieci anni il ritmo dell’innovazione connesso al mondo della tecnologia è aumentato, probabilmente, come mai nella storia dell’uomo. Le declinazioni sono delle più svariate: alcune assolutamente digerite all’interno dell’attuale società (si pensi alla possibilità di navigare in mobilità in qualsiasi momento da qualsiasi luogo), altre in fase di digestione (ad esempio la tematica dei pagamenti “contactless”, ovvero la possibilità di trasferire del denaro da un dispositivo all’altro semplicemente avvicinando fisicamente i due). Per lavoro mi occupo di marketing digitale e la mia principale mansione è quella di comprendere come lo strumento internet possa favorire ed incrementare il business delle aziende; e come in tanti altri campi, anche qui la tecnologia ha iniziato (da un po’, a dir la verità) ad avere un ruolo sempre di maggior peso. Un esempio potrebbe essere rappresentato da una delle più nuove modalità di contrattazione di spazi pubblicitari tra chi li offre (es. siti web) e chi li vorrebbe presidiare per un dato 52

Marco Ziero Socio titolare e consulente digital di MOCA Interactive Srl


scenari

periodo (es. un’azienda): il programmatic advertising. Dietro le quinte di questi meccanismi sussistono degli algoritmi che, ad ogni accesso dell’utente in ciascuna pagina di un dato sito web, calcolano in real time il vincitore dell’asta che si aggiudica il dato spazio pubblicitario. Un secondo esempio, sempre in ambito di pubblicità online, è fornito da piattaforme quali Facebook e Twitter. Quando pensiamo ad una campagna pubblicitaria, naturalmente, dobbiamo tenere bene a mente chi è il destinatario della medesima; e quando si attinge da bacini di utenza quali gli iscritti a Facebook, il sistema restituisce la numerosità del segmento al quale ci andremo a rifare. La particolarità è la seguente: rispetto alla fetta di utenti iniziale, fisiologicamente, alcuni risponderanno positivamente allo stimolo pubblicitario ed altri no; in quel frangente noi potremmo chiedere a Facebook di profilare la tipologia di utente che ha risposto affermativamente (che abitudini di navigazione ha, quali sono i suoi gusti e le sue preferenze) e di cercare all’interno del suo bacino utenti simili che noi non avevamo inizialmente contemplato nel nostro segmento. C’è un altro ambito dove la tecnologia sta ricoprendo un ruolo più che fondamentale: quello della marketing automation. Si tratta di un processo, con alla base, appunto, un software, che si innesta all’interno delle dinamiche di acquisizione e gestione di nuove opportunità commerciali (lead). La logica alla base di questa disciplina è che i punti di contatto tra un’azienda ed un potenziale cliente sono più di uno e sono distribuiti su archi temporali mediolunghi (a seconda del tipo di prodotto/servizio venduto/erogato). Riuscire ad ottenere una visione d’insieme, una fotografia più ampia e completa della relazione tra azienda e potenziale cliente, può consentire alla prima di innestare un dialogo più orientato alla vendita nel momento giusto e con le modalità più corrette. Evita, semplificando, di telefonare ad un potenziale cliente chiedendo la disponibilità ad un appuntamento quando, la medesima persona, non ha risposto, ad esempio, alle ultime due newsletter ed all’ultimo invito ad un evento di formazione; nell’esempio il contatto è ancora freddo, non è ancora pronto per un approccio commerciale più “aggressivo” e quindi ha senso dirottare le risorse

commerciali verso opportunità con maggiori probabilità di essere chiuse. Il percorso di avvicinamento tra azienda e lead è, semplificando, medio-lungo e quindi ha senso immaginare che così come il potenziale cliente inizia a prendere confidenza con l’azienda, anche quest’ultima faccia lo stesso; tale risultato lo si può ottenere personalizzando i contenuti ed i messaggi che andrò ad inviare e condividere e tenendo a mente delle precedenti interazioni avvenute. Cosa serve quindi per avviare un processo di marketing automation? Innanzitutto un software in grado di accentrare le informazioni, comprendere le varie interazioni e reagire di conseguenza; un software in grado di interfacciarsi e dialogare con le attuali strutture di un’azienda (CRM, newsletter, utenti che hanno scaricato una brochure, ecc). Il passaggio successivo è quello di descrivere il profilo dei potenziali clienti immaginandosi quello che potrebbe essere il percorso tra gli stessi e l’azienda; il profilo, in gergo, viene nominato come “(buyer) personas” mentre il percorso come “customer journey”. È un percorso lungo, che deve favorire l’avvicinamento tra l’opportunità commerciale e l’azienda con una progressiva ed intelligente condivisione di contenuti con l’occasione dei quali, di fatto, l’azienda attira ed educa il consumatore fino a fargli completare l’acquisto, per poi alimentarne anche la fidelizzazione. Ogni tappa di avvicinamento ai momenti cruciali da un punto di vista commerciale deve essere preventivamente mappata e per ciascuna di esse devono essere immaginati e prodotti dei contenuti che, appunto, possano favorire lo svolgersi di questo percorso. La tecnologia, in questo frangente, oltre ad aiutarci a mantenere una visione d’insieme per quello che è l’evoluzione della lead (lead nurturing), ci aiuta anche a comprendere qual è il momento migliore per “passare all’attacco” assegnando alla stessa un punteggio (lead scoring) superato il quale si può attivare il processo commerciale nella sua forma più tradizionale. Esistono ad ogni modo ambiti e spazi che la tecnologia, per fortuna, non riuscirà a colmare (o almeno non nell’immediato, dal mio punto di vista): il linguaggio del consumatore finale, la creatività della comunicazione, l’analisi del contesto (sia in termini di tempo che ambientale), sono tutti aspetti di progettazione circa una promozione online che necessitano di una profonda conoscenza del potenziale cliente e, per riuscire a distinguersi dai competitor, di quel guizzo che, ad oggi, è ancora proprio dell’essere umano. 53


GIUGNO 2015

ORACLE ITALIA: Intelligent Economy e Cloud al centro della digital transformation Intervista a Fabio Spoletini, Country Leader di Oracle Italia

Il 90% dei dati che oggi sono in circolazione sono stati creati negli ultimi due anni e il prossimo anno ne verrà creato un nuovo 90%. Nel 2020 probabilmente la stessa percentuale sarà stata creata un secondo prima. È il risultato della Intelligent Economy di cui l’Intelligenza Artificiale, l’Internet delle Cose, la velocità di comunicazione e la capacità di creare correlazioni sono il motore. L’output sono i dati, o meglio i Big Data, ossia dati con origini e formati diversi. Le opportunità per le aziende sono straordinarie: Fabio Spoletini, Country Leader di Oracle Italia, ci spiega perché. Quali sono le grandi trasformazioni che stanno attraversando il mondo dell’IT? Oggi tutte le organizzazioni sono toccate dalla digital transformation: ogni azienda è destinata a diventare un’azienda digitale perché la tecnologia sta pervadendo le imprese nel loro complesso. La scelta di abbracciare la trasformazione parte dal CEO ma perché essa avvenga è necessario il coinvolgimento dell’intero management di ogni dipartimento, a livello di processi e di infrastrutture. Senza sottovalutare la sfida culturale. Dotarsi di tecnologie che abbattono i silo informativi non serve se non si abbattono i “silo” organizzativi. Di cosa stiamo parlando nello specifico? Dal nostro osservatorio emergono alcuni fenomeni, oltre Big Data e Analitycs, che stanno facendo cambiare pelle all’IT 54

e alle aziende: ad esempio, l’industrializzazione dell’IT; o la piena maturità dei servizi in Cloud/ICT as a Service, che oggi consentono di creare infrastrutture, applicazioni, servizi in qualunque settore e per qualsiasi necessità; la gestione della sicurezza; la mobilità, le piattaforme social e di collaborazione, la condivisione di contenuti e la gestione della multicanalità integrata su cui si reggono i più moderni modelli organizzativi e operativi; l’emergere di soluzioni per gestire la Customer Experience in modalità olistica e omnichannel. Secondo Lei, le aziende italiane sono pronte a recepire tutti questi cambiamenti? L’Italia non ha ancora colmato il gap digitale che la posiziona nella parte bassa di quasi tutte le classifiche europee. Come evidenziato di recente da Confindustria Digitale, fino agli anni ‘90


investivamo in ICT più del Giappone, e quanto la Germania. Poi, mentre l’Europa continuava a moltiplicare i suoi sforzi, l’Italia ha ridotto il proprio impegno del 35%. Il sistema Italia ha cercato competitività nei tagli dei costi, nella delocalizzazione, nel costo del lavoro senza comprendere il potenziale dell’investimento tecnologico. Nessuna azienda italiana oggi è all’oscuro della necessità di innovare attraverso la tecnologia e se la volontà di farlo sta crescendo è anche grazie al fatto che esistono realmente soluzioni che consentono di approcciare la digital transformation ad imprese di ogni dimensione e ogni settore. In particolare come si sta evolvendo il Data Center aziendale? Oggi viviamo una crescita continua ed esponenziale dei dati, che richiede di affrontare il tema in modo diverso, guardando al dato come entità “viva”, “molteplice”, che si arricchisce di nuovi contenuti e significati momento dopo momento. Il data center non è più un repository ma un centro di innovazione. Nell’era della digital revolution, il data center “software-defined” diventa il motore di trasformazione: dopo il mainframe e il modello client-server, la terza piattaforma - caratterizzata dallo Smac (social, mobility, analytics e cloud) - fa sì che il datacenter diventi sempre più versatile per gestire lo storico e le applicazioni core, ancora su infrastrutture e piattaforme tradizionali, e allo stesso tempo evolvere verso i nuovi workload originati dallo SMAC. Le appliance lavorano contro la complessità, la nuvola ibrida ne accelera i processi: le offerta full cloud e la semplificazione del datacenter sono capisaldi che oggi tutte le aziende devono avere ben presenti. Che cosa fa Oracle per supportare le aziende in questi passaggi? Oracle realizza soluzioni tecnologiche per semplificare l’IT dei propri clienti attraverso piattaforme aperte e interoperabili che consentano di rendere efficiente il data center e assicurare servizi innovativi a tutti i tipi di aziende e in tutti i settori.

scenari Noi diciamo oggi che tutto è nel cloud e attraverso la nostra innovazione interna e una serie di acquisizioni mirate abbiamo costruito un portafoglio di soluzioni as a service che è speculare alla nostra offerta on-premise. La nostra strategia punta in direzione hybrid cloud e in generale a sfruttare al meglio la capacità del cloud di abbattere la complessità, standardizzare i processi, velocizzare l’implementazione, limitare l’investimento iniziale anche per il segmento PMI. La nostra piattaforma è in grado di sostenere e ottimizzare nel data center e sull’infrastruttura la gestione dei carichi di lavoro, che in un contesto cloud (full o hybrid) è altamente imprevedibile ed è molto differenziata. In passato i carichi di lavoro erano principalmente di tipo transazionale: oggi, come ha evidenziato IDC in una sua analisi, i workload transazionali sono in media il 36% del totale e nuovi carichi si contendono le risorse computazionali a disposizione (Big Data, HPC, Content Serving, Archiving) con il rischio di far lievitare complessità e costi. In un contesto del genere, la semplificazione del data center è la chiave di volta e va attuata con l’approccio che definiamo nel nostro claim: Hardware and Software Engineered to Work Together. Noi offriamo il migliore hardware per sostenere ed esaltare le prestazioni delle migliori architetture per sostenere l’evoluzione verso il Software Defined Data Center - ad esempio Oracle Virtual Networking - che consente di connettere dinamicamente server e storage; o i sistemi ingegnerizzati per gestire i diversi tipi di large workload che oggi sono amministrati nei data center (Exadata, Exalogic, Exalytics, Supercluster) con un focus particolare sulle big data appliances che consentono di governare in tempo reale l’informazione.

Fabio Spoletini Country Leader di Oracle Italia 45 55


GIUGNO 2015

SMART BUSINESS: L’IMPRESA DIVENTA DIGITALE? A Treviso aziende e startup raccontano la tecnologia intelligente

Lo straordinario progresso delle tecnologie digitali ha portato alla convergenza di hardware sempre più veloci e meno costosi e software sempre più adattabili e fruibili. Molto del nostro modello economico e del nostro modo di vivere apparirà antico, superato e irreversibilmente cambiato. Per le imprese è arrivato il momento di capire come muoversi e misurarsi in questo nuovo paradigma digitale.

Lo straordinario progresso delle tecnologie digitali ha portato alla convergenza di hardware sempre più veloci e meno costosi e software sempre più adattabili e fruibili. La fantascienza sta diventando realtà: molto del nostro modello economico e del nostro modo di vivere apparirà antico, superato e irreversibilmente cambiato. Per le imprese è arrivato il momento di capire come muoversi e misurarsi in questo nuovo paradigma digitale. Il 22 maggio l’Auditorium Fondazione Cassamarca di Treviso ha ospitato l’importante evento “Smart Business: l’impresa diventa digitale”, che ha richiamato nel territorio imprenditori, testimoni internazionali e appassionati di tecnologia. Giunti alla terza edizione, dopo gli eventi su cloud e mobile, che hanno visto la partecipazione di più di 1000 persone in Triveneto, continua la sensibilizzazione sui nuovi trend che stanno cambiando il mondo e il modo di lavorare. Stiamo vivendo in un’era caratterizzata da una straordinaria rivoluzione digitale che andrà a meccanizzare il lavoro mentale e che, se compresa e sfruttata al meglio, permetterà alle aziende di trarne beneficio: ci attende un mondo in cui molti lavori di concetto non esisteranno più perché saranno svolti dai computer. La fantascienza sta diventando realtà: i dieci miliardi di “oggetti” oggi connessi alla Rete potrebbero diventare cinquanta miliardi nel 2020. Impianti di ogni tipo o elettrodomestici comunicheranno con la Rete e i sensori verranno incorporati in utensili, aerei, strade e abiti. Ognuno di noi inoltre avrà accesso a un’abbondanza mai vista prima 56


scenari

di tecnologie, di nuovi prodotti e di nuovi servizi. Tutto il business sarà abilitato dal digitale. Ecco perché il tema scelto per quest’anno è stato lo Smart Business, che comprende tutte quelle tecnologie digitali che ci permetteranno di lavorare in modo intelligente e, per certi versi, più semplice. L’evento si è svolto all’interno di Comprenderexcambiare 2015, il programma di cultura d’impresa firmato Unindustria Treviso, che contribuisce a far conoscere e diffondere i trend digitali, con l’obiettivo di imparare a coglierne potenzialità e opportunità, premessa indispensabile per avviare il cambiamento. Insieme a Unindustria anche UNIS&F, Club Bit, Club TI e Informatici Senza Frontiere a Treviso che, oltre a interessanti testimonianze, hanno portato gli ultimi e avanzatissimi prototipi tecnologici, mostrandone usi e applicazioni in campi diversi: droni, occhiali per la realtà aumentata, stampanti 3D ecc. Oggi siamo abituati a pensare alle tecnologie come finalità, mentre invece queste devono essere il mezzo che abilità alla creazione di nuovi processi organizzativi e facilita l’efficienza produttiva delle aziende. La mattinata è stata ricca di presentazioni di idee e smart pitch, che hanno visto alternarsi tra loro molte aziende con i loro progetti innovativi: uno di questi, ad esempio, è Marko (Manual in Augmented Reality, Kit in Overlay) un’app realizzata da weAR Srl assolutamente user-friendly e intuitiva, che permette alle aziende, con tre semplici passaggi, di sfruttare la realtà aumentata per migliorare i manuali d’uso dei propri prodotti, senza richiedere particolari conoscenze informatiche. O come Experio, un sistema articolato in più moduli che consente di coprire a 360° la gestione della formazione all’interno di un’organizzazione, attraverso l’uso combinato di applicativi (web e mobile) e di dispositivi hardware. Nel pomeriggio invece si sono svolti nove workshop della durata di un’ora: con Eurosystem, a parlare di smart business, l’esperto di social media Umberto Macchi (Mediolanum Corporate University), il Security Manager di Check Point David Gubiani e Michelangelo Frigo, manager della nota Citrix Italia. Umberto Macchi - Mediolanum Corporate University Si parla sempre di più di Social Network. Ma cosa sono davvero e come funzionano le reti di relazione su Internet? Quali sono i rischi e le opportunità collegate a un uso poco attento e consapevole per le aziende? Secondo Umberto Macchi le potenzialità dei social possono essere riassunte in quattro punti molto significativi: 1. Sono amplificatori di relazioni, sia in positivo che in negativo; 2. Sono propulsori di lavoro; 3. Danno immenso potere ai cittadini, che possono esprimere più o meno liberamente il proprio giudizio; 4. Non sono una moda, ma acceleratori del progresso.

nostre esperienze con gli amici più cari; Twitter è la piazza, in cui si muove e parla moltissima gente che viene da ogni parte del mondo. Linkedin invece è il luogo di lavoro digitale in cui le relazioni sono strettamente professionali. Con le giuste competenze, possiamo utilizzare ciascun social network come strumento di crescita personale e aziendale per farci conoscere, acquisire nuovi punti di vista e vendere la nostra immagine. David Gubiani - Check Point In un mondo caratterizzato dal web, la sicurezza, specie quando entrano in gioco dati personali e sensibili, è fondamentale. Ecco perché David Gubiani ha presentato Capsule, la soluzione mobile Check Point in grado di offrire protezione senza paragoni ai dati aziendali e ai dispositivi mobili, ovunque. Capsule è un insieme di tre applicazioni che lavorano in modo sinergico tra loro: 1. Check Point Capsule Cloud: consente alle aziende di estendere le proprie policy di sicurezza anche ai dispositivi mobili fornendo protezione in tempo reale dalle minacce via web; 2. Check Point Capsule Workspace: crea un ambiente di lavoro sicuro su qualsiasi dispositivo mobile. Separa i dati e le applicazioni aziendali da quelli personali garantendo agli utenti, tramite una semplice interfaccia, l’accesso alla posta, ai file e ad altri dati aziendali senza compromettere le informazioni personali. 3. Check Point Capsule Docs: consente alle aziende di proteggere i documenti, garantendo l’accesso solo agli utenti autorizzati. Michelangelo Frigo - Citrix Nell’ultimo workshop della giornata Michelangelo Frigo ci ha raccontato come velocizzare e potenziare il business aziendale attraverso la mobility, secondo Citrix. Oggi avere un’applicazione che gira su pc, tablet o smartphone è del tutto indifferente. La mobilità porta valore per il business aziendale perché permette di essere connessi sempre e dovunque, ma porta con sé anche nuove esigenze: l’utente ad esempio chiede produttività a 360°, vuole lavorare fuori ufficio con la stessa comodità di cui gode all’interno. Noi quindi cosa possiamo dargli e in che forma? È ormai indispensabile creare applicazioni che siano corrette e funzionali: grazie a Citrix sicurezza e virtualizzazione assicurano alle imprese nuove capacità, integrabili con le architetture e i servizi IT esistenti. l’IT deve diventare partecipante strategico nella revisione di tutti i processi aziendali.

Facebook è il nostro salotto di casa, in cui condividiamo le 57


In un mondo di colori è giusto scegliere il migliore

ÂŽ

trevisostampa.it


scenari EMC WORLD 2015: LA RIVOLUZIONE DELL’IT Da Las Vegas le ultime novità EMC nell’era dell’Information Generation

Con la crescita della digitalizzazione globale aziende di ogni dimensione dovranno adattarsi ad uno scenario del tutto nuovo: sviluppo open source, cloud e terza piattaforma sono i tre ingredienti della ricetta EMC per affrontare quella che viene definita una vera e propria rivoluzione dell’IT. A raccontarci l’EMC World 2015 Ferdinando Caputo, Sales and Channel Enablement Manager - Europe East and Russia/CIS di EMC.

EMC WORLD 2015 LAS VEGAS, un appuntamento imperdibile per il mondo dell’IT, quali sono stati i numeri di questa edizione? I numeri sono stati assolutamente interessanti: circa 14mila partecipanti end user, ben 400 sessioni di approfondimento oltre alle plenarie - con pù di 33 sponsor e 50 exhibitor. Abbiamo avuto 50 sessioni di alto livello dedicate al tema dell’IT leadership e 300 sessioni tecnologiche. Dulcis in fundo, per la prima volta l’evento ha accolto un vero e proprio focus sullo sviluppo open source, facendo fare ai suoi ospiti un salto nel prossimo futuro e nell’era della terza piattaforma. All’interno dell’evento prìncipe, poi, il Global Partner Summit, un’occasione di incontro per partner EMC provenienti da tutto il mondo. Quali sono stati i trend del settore IT emersi nel corso dell’evento? Secondo una recente ricerca globale che EMC ha

commissionato a Institute For The Future e Vanson Bourne e che ha coinvolto oltre 3.600 business leader di medio-grandi aziende, entro il 2020 oltre 7 miliardi di persone saranno collegati ad Internet mediante 30 miliardi di dispositivi. Questo significa che consumatori e clienti, cioè prima di tutto persone, vivranno e lavoreranno costantemente connessi alla rete producendo un’enorme mole di dati e informazioni durante ogni attività, anche quella più semplice. È quella che viene chiamata l’era dell’Information Generation. Per prepararsi a questa rivoluzione, le aziende hanno bisogno di ridefinire se stesse e adottare una mentalità digitale. La sfida che questo comporta per i CIO è duplice: in primo luogo, ottimizzare i costi dell’IT già esistenti, senza comprometterne i livelli di servizio; in secondo luogo, mettere a frutto risparmi che derivano dall’abbattimento dei costi, per creare nuove applicazioni ottimizzate per il mondo digitale. I trend dell’IT ruoteranno quindi sempre di più intorno a questi temi e alla capacità di aziende come la nostra di dar loro una risposta. 59


GIUGNO 2015

Parliamo di tecnologie: quali le novità presentate da EMC? Gli annunci sono stati tantissimi soprattutto nell’ambito delle infrastrutture convergenti e iper-convergenti, con l’approfondimento sul nuovo VXRACK, una piattaforma che permette di scalare l’infrastruttura linearmente rispetto alle esigenze del cliente e che può arrivare a gestire, moli di dati nell’ordine dei petabyte non certo “chiusa” su un solo motore di virtualizzazione ma estremamente flessibile. Infine, una piattaforma che può dare la possibilita di implementare tutta la parte di sviluppo di applicazioni cloud e open source. Importanti anche gli annunci sul rinnovamento delle funzionalità delle famiglie di storage EMC enterprise, dotate della possibilità di estensione orizzontale verso piattaforme storage esterne e anche verso il cloud. E poi l’annuncio di favorire l’accesso gratuito al Software-defined storage con la possibilità di scaricare gratuitamente il software Emc ScaleIO in una versione senza limitazioni per ambienti non di produzione. Cloud e Piattaforma 3.0, di che cosa stiamo parlando esattamente? Nel termine piattaforma 2.0 è racchiuso tutto quello che conosciamo come mondo dell’IT, quindi sistemi di supporto alle applicazioni con cui siamo abituati a lavorare in ufficio (si pensi a email, ERP, CRM, ecc.). Le piattaforme 3.0 sono nate quando abbiamo iniziato a parlare di cloud, social, big data, e di tutta la pletora di applicazioni che iniziano a nascere, vivere ed evolversi sul cloud. Oggi i nostri clienti hanno necessità di supportare le loro applicazioni classiche ma hanno sempre piu voglia di

spostarsi verso la gestione di piattaforme 3.0. Diciamo che siamo a metà di un affascinante percorso e in questo momento dobbiamo essere in grado di aiutare il cliente sia a sviluppare nuovi modelli di business sia a supportarlo nella gestione delle piattaforme tradizionali. Sempre più verso la condivisione e lo scambio di informazioni, qual è lo stato dell’open source e cosa sta facendo EMC in questo ambito? L’open source è quello a cui stanno guardando con favore i clienti che vogliono utilizzare le piattaforme 3.0. Si tratta di approcciare lo sviluppo delle nuove applicazione all’interno di una community dove la collaborazione non può che far bene per migliorare la qualità dello sviluppo stesso. EMC in passato aveva abbracciato in parte l’open source ma quello che sta succedendo adesso è che ci stiamo avvicinando all’open stack e all’evoluzione di tutte le nostre infrastrutture. Se pensiamo al Software Defined Storage il grande annuncio dato all’EMC World è stato il rilascio, previsto a giugno, di Project CoprHd,versione open source di EMC ViPr Controller. Come verranno declinate le novità annunciate sul mercato italiano? Come sempre abbiamo grande fiducia nei nostri partner, che sono già abilitati a portare tecnologie d questo tipo sul mercato. Tutti gli annunci fatti a Las Vegas, infatti, sono stati pensati anche per la piccola e media impresa italiana. Di questo si potrà aver conferma nel corso dell’annuale evento nazionale di EMC che si terrà come di consueto alla fine dell’anno e che rappresenterà il più importante momento di condivisione e bilancio di quello che è stato fatto nell’anno. Siamo verso la processualizzazione di miliardi di dati, quindi la moltiplicazione degli stessi e la necessità di memorizzarli, archiviarli, lavorarli. Quali saranno le tecnologie fra 50 anni in grado di gestire questa mole di dati?

Ferdinando Caputo Sales and Channel Enablement Manager Europe East and Russia/CIS di EMC 60

Nel mondo IT è impossibile prevedere quello che succederà nell’arco di 50 anni. Basti pensare che solo negli ultimi 2-3 anni abbiamo visto cambiamenti di una portata inimmaginabile. C’è stata un’accelerazione enorme dell’evoluzione delle infrastrutture IT, tanto che all’EMC World si è parlato di una vera e propria rivoluzione. Quello che si prevede è che nei prossimi anni ci sarà sempre di più un’astrazione delle tecnologie hardware e una maggiore indipendenza nella gestione del software e delle applicazioni.


@EUROSYSTEM.IT: DIALOGARE CON IT E ICT

scenari

Cryptolocker, cosa fare? Tre consigli, tre. ipotetiche ma di vere e proprie guerre e il cybercrimine questa la sta vincendo a man bassa, anche a causa di comportamenti superficiali e abitudinari. Responsabilizziamo gli utenti e facciamo sparire gli “utonti”. E facciamolo subito. ATTILIO CUCCATO redazione@logyn.it

Il caso cryptolocker Cryptolocker ha iniziato a diffondersi a fine del 2013, tuttavia mai come in questi ultimi 7-8 mesi il fenomeno si è diffuso e sono moltiplicate le sue varianti. Le domande più ricorrenti che mi sono state fatte: come mi posso difendere? Non è sufficiente l’antivirus? Cosa posso fare di più? Devo pagare? Ci sono strumenti per recuperare velocemente i file crittografati? Cosa mi sento di rispondere? Non pagare prima di tutto e, anche se qualcuno sostiene di averli, no: non ci sono strumenti per recuperare velocemente file criptati con algoritmi di cifratura RSA a 2048 bit. Su questo tutti i produttori sono concordi. In ogni caso, tre cose suggerisco di fare. Due subito e la terza programmandola con una certa sollecitudine.

Come battere il virus in tre mosse Primo, anche se l’avrete certamente fatto più e più volte: risensibilizzare gli utenti. Anche se vengono fatte loro moltissime comunicazioni, come se non erro diceva Woody Allen, basta ce ne sia uno, uno soltanto, il più... e il danno è fatto. Mi sento di aggiungere che non ci si deve più accontentare che gli utenti siano informati e formati, li si deve responsabilizzare. Proprio perché non è più accettabile che il singolo faccia finta che la cosa non lo riguardi e debba occuparsene sempre e comunque mamma-azienda. Nessuno può esimersi dal non sapere cosa sta succedendo nel mondo in cui vive: piaccia o non piaccia, non si parla di minacce

Ai responsabili della sicurezza IT consiglio invece di fare un serio e attento Security Assessment e per questo affidarsi ad aziende competenti e certificate. Questo non servirà a proteggersi totalmente ma certamente alzerà il livello di sicurezza. In alcuni casi sarebbe già un bel passo avanti ottimizzare e aggiornare le piattaforme esistenti: l’antivirus, l’antispam, il firewall ecc. Ultimo e di fondamentale importanza in questo e in tantissimi altri casi in cui devo fare rollback e recuperare velocemente una situazione compromessa: il backup. Un software di backup che assicuri ripristini rapidi, flessibili e affidabili, meglio ancora backup e replica in una unica soluzione. Questa è la sola ancora di salvezza e per questo è fondamentale affidarsi a produttori seri e certificati.

Riepilogando Cryptolocker e le sue varianti (è di marzo TeslaCrypt, che oltre ai file blocca anche una quarantina di giochi) si diffondono generalmente come allegati di posta elettronica, sono dei ransomware (ransom = riscatto) di tipo poliformico che sfruttano l’ingegneria sociale per diffondersi. Cryptolocker ricalca la classica modalità di attacco degli Advanced Persistent Threat (APT) che insieme agli 0-day sono attualmente le minacce più insidiose e utilizzate. Nel caso un pc ne fosse infettato, isoliamolo subito e, se è solo questo ad essere compromesso, riformattiamolo, reinstalliamo sistema operativo e programmi e recuperiamo i dati dal backup. Sono stati invece compromessi i file condivisi sui server e gli storage? Sempre e solo il restore vi potrà aiutare. Se non siete certi di avere una soluzione di backup che vi assicuri restore affidabili e testati, parliamone e sentiamoci anche nel caso vogliate affidarvi ad un partner competente e certificato che verifichi lo stato dei vostri sistemi di sicurezza. 61


GIUGNO 2015

PRODUZIONE A COMMESSA: COME OTTENERE FLESSIBILITÀ E AUTOMAZIONE CON L’ERP La storia di Star Automation Europe

L’esperienza nella progettazione e costruzione di sistemi di automazione per lo stampaggio a iniezione e la manipolazione di parti in materiale termoplastico costituiscono il core di Star Automation Europe. L’azienda veneziana produttrice di robot cartesiani, fornitrice di automazioni complesse e soluzioni all’avanguardia di Total Factory Automation, dal 2006 ha scelto Freeway® Skyline, l’ERP della trevigiana Eurosystem SpA, per la propria gestione aziendale. 62


Installare impianti, organizzare training, garantire assistenza tecnica e soddisfare i clienti ovunque essi siano sono le basi di Star Automation Europe. L’azienda è presente in Europa dal 1989 e fa capo a Star Seiki Co. Ltd, la più grande azienda mondiale nella produzione di robot cartesiani per il processo di stampaggio a iniezione. La produzione dell’impresa italiana, situata a Caselle di Santa Maria di Sala (VE), è riconducibile a due grandi aree: quella standard che riguarda i robot cartesiani (a 3 assi) per presse a iniezione da 30 a 5000 ton, quella speciale, che riguarda automazioni chiavi in mano nel settore dello stampaggio della plastica. Un grande know-how, l’elevata qualità, la tecnologia e l’esperienza “made in Italy” nel progettare impianti chiavi in mano su specifiche del cliente sono standard per la produzione di Star Automation: lavorando su commessa, con una produzione di oltre 600 robot all’anno destinati al mercato europeo, l’azienda riesce a far fronte alle richieste sempre più articolate, fornendo un servizio di post vendita adeguato, quale condizione fondamentale per garantire la customer sactisfation. Alla base del buon funzionamento aziendale, specie se si tratta di una realtà internazionale con più filiali e una produzione a commessa, ci dev’essere un software gestionale in grado di supportare in modo ordinato e flessibile processi personalizzati e grandi moli di lavoro e di dati. Claudio Turco, IT Manager di Star Automation, racconta che “l’azienda inizialmente era formata da più filiali europee che necessitavano di essere allineate continuamente nella gestione ordini, nella condivisione degli articoli e nella configurazione dei prodotti. Dalla fine degli anni ‘90 avevamo implementato un software gestionale basato sulla piattaforma IBM AS/400, con MRP (Material Requirements Planning) integrato, che ci supportava nella pianificazione dei fabbisogni in termini di materiali e ordini. Nel 2006, guidati da nuove esigenze e anche a causa dei limiti della piattaforma adottata, parte la ricerca di un nuovo gestionale: doveva rispondere a richieste crescenti in tema di archiviazione documentale, controllo di gestione, analisi dei dati e integrazione con programmi esterni”. Star Automation Europe inizia così una software selection verso soluzioni basate su piattaforme scalabili e in grado di evolversi nel tempo, valutando con maggiore interesse quei prodotti che possedevano funzionalità specifiche come configuratore di prodotto, MRP, gestione della matricola, consuntivazione della commessa, e cercando caratteristiche più avanzate rispetto a quelle presenti nella vecchia piattaforma.

stories

L’attività di ricerca dura alcuni mesi, attraversa prodotti internazionali e locali, fino ad arrivare ad una rosa di 6 finalisti tra cui viene scelta la soluzione Freeway® Skyline. “Abbiamo scelto l’ERP di Eurosystem - continua Claudio Turco - per l’elevata affidabilità e prestazione e perché copriva tutte le funzioni, non solo con le caratteristiche richieste, ma anche con altre distintive come parametrizzabilità, aperture funzionali e facilità di integrazione con altri prodotti. I vantaggi rispetto al passato sono stati immediati: menù personalizzabili, ricerche facilitate (QBE), possibilità di annullamento operazioni errate (roll-back), creazione di interrogazioni a menù, gestione delle note, per elencarne alcuni. Ma soprattutto configuratore di prodotto, da un lato, e gestione della consuntivazione di commessa dall’altro. Il tutto sempre accompagnati da un partner competente e affidabile, dal passato e dalle referenze molto importanti”. “Un’attenta analisi dei processi aziendali, insieme alle linee guida della Direzione, ci ha consentito di delineare le necessità organizzative e tecniche di Star Automation Europe - racconta Luigi Sbrissa, project consultant di Eurosystem SpA - e di inquadrarle all’interno di tutta la realtà aziendale. Trattandosi di un’azienda a commessa con esigenze particolari nell’area progettazione e produzione, abbiamo focalizzato la prima parte del progetto sull’introduzione del configuratore di prodotto. Una volta identificate con l’ufficio tecnico di Star Automation Europe le regole di configurazione necessarie, siamo andati a inserirle nell’applicativo Freeway® Product Configurator: quest’operazione permette oggi, con poche regole standard inserite in una tabella di configurazione, di generare centinaia di anagrafiche articoli correttamente configurate velocizzando e standardizzando la fase di codifica dei prodotti”. 63


GIUGNO 2015

Sono stati predisposti gli articoli “neutri” di partenza e le loro distinte risorse (la distinta risorse rappresenta l’unione della distinta base e dei cicli di lavorazione). Nei vari nodi (legami) della distinta risorse sono state associate le regole di configurazione e le relative formule. Così facendo, con pochi articoli “neutri”, si sono gettate le basi per poter generare in automatico tutto il mix di prodotti finiti che Star Automation può offrire ai propri clienti.

l’integrazione in un secondo momento delle parti mancanti della distinta (parti speciali progettate volta per volta per le quali è stata predisposta una procedura di integrazione fra CAD ed ERP) senza andare a intaccare il processo, ma ‘rifasando’ semplicemente l’ordine di produzione. L’utilizzo del modulo di pianificazione materiali (MRP) consente di monitorare e di ordinare per tempo le parti di acquisto e di produzione riferite ai livelli più bassi della distinta.”

“Il processo di configurazione - continua Sbrissa parte dall’inserimento dell’ordine. Tramite un dialogo di configurazione, composto di un modulo a domanda e risposta, l’utente specifica le caratteristiche del prodotto, le varianti e le opzioni mentre il sistema controlla i vincoli e le dipendenze imposti dalle regole di configurazione; tutte queste caratteristiche sono poi associate all’articolo che viene generato alla fine del processo. Si procede poi con il rilascio degli ordini di produzione “Make To Order” che conterranno i fabbisogni effettivi predisposti dal configuratore. Il software rende possibile

In parallelo alle precedenti indagini, è stata presa in analisi la parte legata alla produzione per studiare la modalità con cui Star Automation Europe gestiva il WIP (Work In Progress), vale a dire il numero di pezzi in uscita lavorati contemporaneamente nel sistema produttivo. I flussi di lavoro prevedevano l’emissione di liste di prelievo, sulla cui base si andava a riscuotere il corrispettivo dal magazzino generale, per poi indirizzarlo al magazzino WIP. Questo percorso doveva essere monitorato passo per passo, compito perfetto per l’MRP di Freeway® Skyline: il sistema oggi monitora le quantità presenti nel magazzino WIP e in quello generale, tracciando tutti i passaggi che avvengono dall’uno all’altro. “Infine - conclude Sbrissa - abbiamo realizzato delle applicazioni ad hoc per la consuntivazione della commessa tenendo conto delle necessità della capogruppo giapponese. Avendo a che fare con una serie di prodotti sempre diversi, infatti, è importante per Star Automation Europe impostare all’inizio del progetto una stima realistica dei costi che si dovranno sostenere per poi confrontarli con i costi consuntivi. Il modulo standard per la gestione delle commesse presente su Freeway® Skyline consente di monitorare costantemente il consuntivo (che comprende tutti i costi: ore di lavorazione, materiali, trasferte, consulenze, progettazione interna ecc.) per avere il quadro generale della situazione sott’occhio, capire la marginalità effettiva delle vendite e quanto si sta andando a spendere. Si evitano così sprechi di risorse ed è possibile rivedere il processo in corso d’opera”. Il passaggio evolutivo a livello di gestionale ha semplificato la gestione dei flussi di lavoro in tutte le aree aziendali, portando quell’omogeneità organizzativa che era indispensabile per le diverse filiali. “In Eurosystem - conclude Claudio Turco abbiamo trovato un partner che ci segue 24 ore su 24, in base alle nostre esigenze, svolgendo per noi non solo consulenza informatica e tecnologica, ma anche organizzativa. È proprio per questi motivi che nel 2014 abbiamo avviato il progetto per il rinnovamento del Datacenter affidandolo ad Eurosystem, a conferma della fiducia che riponiamo nell’azienda trevigiana”.

64


@EUROSYSTEM.IT: DIALOGARE CON IT E ICT

scenari

Come innovare l’azienda tramite una working list

STEFANO BIRAL redazione@logyn.it

Il contesto dell’offerta Le PMI sono la spina dorsale dell’economia italiana e rappresentano una parte fondamentale e insostituibile del mercato. È importante riuscire a portare, all’interno di queste realtà, la cultura dell’innovazione anche negli uffici amministrativi e operativi, che rappresentano la catena di montaggio interna all’azienda. Una delle più efficaci armi a disposizione per migliorare il flusso gestionale della propria azienda è un utilizzo coerente delle tecnologie nonché della filosofia e disciplina del Business Process Management (BPM), preliminare rispetto all’automazione dei processi gestionali che può realizzare un software.

Il problema dell’utente Molte aziende hanno la giusta inventiva per creare prodotti innovativi ma è altrettanto indispensabile mantenere la creatività tipica italiana nell’ambito di una maggiore efficienza, preoccupandosi di innovare anche i processi organizzativi. Ci chiediamo allora cosa possa fare un software gestionale per semplificare il lavoro delle persone, guidando l’utente nel gestire le attività oltre che fornendogli gli strumenti per svolgerle.

Ma una soluzione a misura di utente esiste… Come consulenti e produttori di un ERP, noi di Eurosystem, per dare supporto alle aziende nella meccanizzazione dei processi aziendali, utilizziamo la metodologia codificata del BPM.

All’interno di questa metodologia, preliminare è l’inquadramento dei processi aziendali e la selezione di quelli sui quali si intende intervenire (framing): il risultato è una mappatura globale dei processi in un quadro dove siano chiari la missione, gli obiettivi e le strategie che l’azienda intende mettere in atto per raggiungerli. Questa fase si conclude con la valutazione di quelle criticità nei processi mappati sui quali l’azienda intende intervenire con priorità. Successivamente si individuano gli utenti di riferimento dei processi selezionati e l’interazione con essi: si produce un manifesto che riassume, per ciascun processo, gli eventi scatenanti, i risultati attesi, i passaggi principali, i ruoli/attori coinvolti, gli obiettivi, le eventuali metriche per il controllo e la misurazione delle prestazioni di processo. L’attività si conclude con l’analisi dei casi d’uso, necessaria ad individuare tutte le funzioni e le applicazioni gestionali che saranno di supporto ai processi ri-progettati. Si inserisce a questo punto il sistema gestionale: un ERP che dovrebbe conoscere l’utente e sapere quali sono i suoi compiti in modo da poterlo guidare nel lavoro, e fornirgli ciò di cui ha bisogno senza costringerlo a cercare tra le infinite funzionalità e informazioni che compongono il sistema. La Working list dell’ERP Freeway® Skyline, di cui siamo produttori, fa propri questi concetti e fa in modo che il sistema si adatati all’utente, mettendo a disposizione della persona la tecnologia in modo intelligente: l’utente non deve più ricordarsi le cose da fare, perché Freeway® Skyline segnala nella sua area di lavoro le prossime attività da svolgere all’interno di un flusso (workflow) definito precedentemente nel motore Freeway® Workflow Server. Al centro di questo motore c’è la Working List; essa consente di aprire un apposito form che visualizza le informazioni utili, eseguire dei link sui documenti, report o applicativi specifici, eseguire l’attività prevista, respingerla o addirittura delegarla ad altro utente. In questo modo, mediante il modulo di gestione dei workflow collaborativi di Freeway® Skyline, si riducono i tempi di ogni processo e non si rischia che vengano dimenticate attività: si sommano quindi efficacia ed efficienza in un circuito vizioso utile all’utente ed all’azienda. 65


GIUGNO 2015

PRIMA PARTE

QUANDO IL SOFTWARE GESTIONALE HA LA TESTA PIENA E… LA MEMORIA CORTA

Può l’IA sfruttare l’esperienza dell’utente per migliorare l’ERP? DIEGO TOSATO - ALBERTO TRONCHIN - ALESSIO VOLTAREL

redazione@logyn.it

Abbiamo già parlato di Intelligenza Artificiale e di una delle sue branche più interessanti, quella dell’apprendimento automatico. Ritorniamo ora sull’argomento con l’intento di far comprendere maggiormente al lettore come l’Intelligenza Artificiale possa essere impiegata efficacemente per risolvere in modo innovativo alcuni problemi gestionali comuni, ma non banali, che vengono affrontati da anni con un approccio classico. Un buon software gestionale costituisce ormai patrimonio fondamentale di ogni azienda che voglia rimanere sul mercato. Si dice spesso che il vero patrimonio dell’azienda, dopo il proprio capitale umano, siano i contenuti del suo sistema informativo. Spesso le informazioni archiviate sono frutto di anni e anni di attività dell’azienda, e rappresentano documenti di rilevanza anche fiscale, conservati per precisi obblighi normativi. Altri dati, invece, sono funzionali ed essenziali ai processi produttivi e in continua evoluzione. Quando il volume dei dati risulta eccessivo, ci si pone il problema di come storicizzare parte dell’archivio per snellire l’accumulo di dati nel tempo. Ci chiediamo tuttavia se un software gestionale con il passare 66

del tempo possa migliorare l’esperienza di utilizzo oppure continui a offrire le proprie funzionalità come se fosse la prima volta che viene usato. Se riflettiamo su questo interrogativo, ci rendiamo conto che il software gestionale comunemente non evolve con il suo utilizzo, perdendo la possibilità di semplificare la vita all’utente e massimizzare la soddisfazione nel suo uso. Proprio per superare questo limite l’applicazione dell’intelligenza artificiale e delle tecniche di apprendimento automatico possono fare la differenza: l’era in cui le tecniche di Intelligenza Artificiale si diffondono “viralmente” all’interno del software di uso quotidiano è ormai iniziata e senza dubbio può essere utilizzata nel lavoro di tutti i giorni dei nostri utenti.


spazio a y

VISION & METHODOLOGY

PROBLEMI GESTIONALI E NUOVE SOLUZIONI INTELLIGENTI Pensando alle esigenze di un’azienda emergono due scenari di applicazione ai quali si possono ricondurre diversi problemi comuni. Il primo è quello della compilazione di form di dati, ad esempio nel caso in cui si voglia generare un preventivo per un cliente; in questo contesto l’Intelligenza Artificiale potrebbe rendere il sistema in grado di assistere l’utente nell’inserimento proponendo automaticamente i valori da inserire e riducendo drasticamente i tempi di inserimento delle informazioni e la frustrazione originata dall’esecuzione di un compito noioso e ripetitivo. Il secondo è quello di generazione automatica di configurazioni che si applica a problemi come la creazione di colli da spedire; caso in cui l’intelligenza potrebbe fornire una o più configurazioni ammissibili a partire dalle precedenti, in modo da sfruttare appieno l’esperienza degli utenti più esperti che

velocizzerebbe e semplificherebbe le attività aumentando la produttività. Di seguito si analizzeranno nel dettaglio gli scenari e gli esempi citati in precedenza, confrontandoli con le pratiche attuali standard, ossia di un software non dotato di intelligenza, e illustrando alcune intuizioni riguardo a una sua possibile evoluzione utilizzando tecniche di apprendimento automatico. Infine, si fornirà un accenno su come si possano realizzare delle soluzioni intelligenti in grado di affrontare i problemi descritti.

Scenario 1: compilazione assistita di form di dati per la preventivazione a clienti e l’approvvigionamento da fornitori. Le aziende che producono o vendono articoli emettono preventivi simili tra loro. I software in circolazione permettono di allestire un preventivo per clienti solo con uno sforzo non trascurabile che comprende la ricerca e l’inserimento di articoli, 67


GIUGNO 2015

la specifica dei quantitativi e delle caratteristiche tecniche, la scelta del listino prezzi da applicare, l’applicazione di eventuali sconti e omaggi, la valutazione di eventuali campagne commerciali, ecc. Per aiutare l’utente oggi un sistema gestionale può solo e semplicemente fornire automaticamente i dati anagrafici del cliente e alcune altre informazioni predefinite, come la condizione di pagamento preferita, quindi la maggior parte delle informazioni deve essere inserita manualmente. Un altro supporto fornito dagli attuali software è permettere la duplicazione di preventivi o ordini già compilati per la costruzione di uno nuovo. In questo il processo si velocizza, ma il problema si sposta dalla compilazione all’individuazione del modello più adatto da utilizzare, cosa che risulta efficace solo grazie alle competenze personali dell’addetto alla compilazione del preventivo. È fantascienza pensare che possa essere la macchina a farlo per l’utente individuando il modello più adatto? Analogamente al caso precedente, se si considerano le aziende che periodicamente fanno richieste di fornitura di materie prime o prodotti da rivendere o da utilizzare in produzione, ci si trova davanti alla necessità di compilare una richiesta complessa. Infatti, stendere un ordine a fornitore richiede una certa esperienza e una buona dose di pazienza. Tra le altre cose si deve selezionare il fornitore in base alle condizioni economiche che applica alla vendita dei suoi articoli, ai tempi di approvvigionamento, alla qualità della fornitura. Inoltre vanno stabiliti i quantitativi di cui approvvigionarsi al fine di bilanciare i costi di immobilizzo con la scontistica che il fornitore applica e così via. A complicare lo scenario, spesso l’attività di richiesta si inserisce in un quadro più generale di piano di produzione o degli acquisti che deve essere osservato.

68

Un sistema gestionale sul mercato oggi permette di corredare di valori predefiniti le anagrafiche dei fornitori e dei loro articoli da proporre automaticamente nel momento della compilazione dell’ordine di acquisto e, come nel caso precedente, la funzionalità di duplicazione della richiesta a partire da un ordine di acquisto. Ma come sarebbe poter lavorare con un sistema in grado di imparare la relazione tra, articoli e quantità e sapesse generare automaticamente delle proposte di compilazione fornendo solo poche informazioni? Sarebbe d’aiuto?!

Scenario 2: generazione automatica di

configurazioni per colli di spedizione e piani di carico dei mezzi di trasporto. Allestire le spedizioni significa innanzitutto occuparsi del confezionamento e dell’imballaggio dei pezzi affinchè possano essere trasportati in modo sicuro, nonché facilitare le operazioni da parte dei destinatari della consegna. Per poter garantire ciò è necessario tenere in considerazione i diversi vincoli fisici e strutturali; ad esempio, non è possibile imballare ripiani di cristallo di una cucina con la rubinetteria. Contemporaneamente, per agevolare i montatori a svolgere le operazioni di disimballo e montaggio, è necessario progettare il carico attentamente disponendo i colli in un ordine preciso. Attualmente, un sistema ERP potrebbe gestire il compito seguendo un sistema di regole predefinite e utilizzando tecniche di ricerca della configurazione ottimale molto sofisticate e potenti, note con il nome di “programmazione vincolata”. Esse tuttavia richiedono generalmente tempi di calcolo elevati senza raggiungere necessariamente la soluzione migliore. Quest’ultima dipende dall’esperienza e dall’ingegno umano che è in grado di valutare contemporaneamente centinaia di requisiti


spazio a y espliciti e impliciti legati alla creazione di un collo di spedizione. Proprio qui entra in gioco l’apprendimento automatico, fornendo algoritmi in grado di imparare a imitare le mosse che l’utente configuratore esperto utilizzerebbe per creare i colli. La componente umana rimane comunque imprescindibile: gli impiegati del settore possono tirare un sospiro di sollievo! Il processo di apprendimento, infatti, deve essere supervisionato da un “computer in carne ed ossa” in grado di correggere, migliorare e suggerire soluzioni via via più efficaci alla macchina in un processo virtuoso che massimizzi la soddisfazione di utilizzo del software e la produttività dell’utente. Il problema del carico efficace dei mezzi di trasporto per attuare le consegne di prodotti o colli costituisce una questione più complessa rispetto al caso precedente: solo per citare alcuni aspetti, si deve tenere conto dei vincoli fisici e di sostenibilità dei carichi, bisogna considerare l’ottimizzazione dello spazio all’interno dei vettori e l’ordine di consegna. I software ERP che allo stato attuale risolvono questo tipo di problematiche ricorrono a tecniche di programmazione vincolata con i limiti già evidenziati in precedenza. Di fronte a questo scenario risulterebbe tuttavia estremamente vantaggioso poter contare su un sistema che riconosca le necessità di carico dell’utente e proponga automaticamente un piano sulla base di esperienze pregresse. La soluzione proposta da un sistema in grado di apprendere dall’utente potrebbe essere usata come preconfigurazione del piano di carico da rifinire con l’aiuto dell’utente e/o mediante tecniche greedy di pianificazione il cui risultato garantirebbe l’ammissibilità della soluzione presentata all’utente. Potrebbe sembrare che gli spunti forniti rimandino solo ad un esercizio di immaginazione, ma non c’è niente di più distante dalla verità. Lo testimonia la corsa da parte delle aziende che operano nell’IT per dotarsi delle più recenti tecniche di apprendimento automatico, come documentato di recente

Fonti: [1] http://www.ft.com/cms/s/2/019b3702-92a2-11e4-a1fd00144feabdc0.html [2] http://en.wikipedia.org/wiki/Kernel_method [3] http://en.wikipedia.org/wiki/Markov_random_field [4] http://en.wikipedia.org/wiki/Conditional_random_field [5] http://en.wikipedia.org/wiki/Feedforward_neural_network [6] http://en.wikipedia.org/wiki/Convolutional_neural_network [7] http://en.wikipedia.org/wiki/Deep_learning

del prestigioso Financial Times nell’articolo “Investor rush to artificial intelligence is real deal” [1]. Si potrebbe inoltre pensare che ogni problema citato in precedenza necessiti dello sviluppo di algoritmi specifici per ciascun caso; anche questo è falso, infatti le tecniche di apprendimento automatico non devono essere adattate ai problemi perché è proprio nella loro natura variare a seconda degli scenari in cui sono utilizzate. Questo non vuol dire che una tecnica sia adatta a risolvere qualsiasi problema, bisogna saper scegliere la tecnica più adatta da applicare a seconda del caso specifico. Per gli scenari descritti sono state individuate tre famiglie di approcci: la prima è quella dei Kernel Methods [2] per il confronto e la ricerca di oggetti come preventivi e ordini. La seconda è quella dei Markow Random Fields [3], in particolare dei Conditional Random Fields [4], per la proposizione di nuove configurazioni a partire dalle precedenti. Infine, la famiglia delle Feedforward Neural Networks [5] in cui sono contenute le Convolutional Neural Networks [6] ritornate in voga con il fenomeno tecnologico del momento, il Deep Learning [7], e in grado di simulare le decisioni dell’utente indipendentemente dalla complessità del compito svolto.

Nel prossimo numero di Logyn, la seconda parte

ARCHITECTURE & DESIGN

COME REALIZZARE LE SOLUZIONI GESTIONALI INTELLIGENTI? Per gli scenari delineati, riflettendo sugli spunti lanciati, saranno proposte delle soluzioni intelligenti ai problemi tramite tecniche di apprendimento automatico innestate e integrate in un’architettura service-orented.

69


Dopoun unaccurato accuratorestauro restauroeeun unadattamento adattamentofunzionale funzionalelalasplendida splendidadimora dimora Dopo settecentesca diventa diventa Palazzo Palazzo Giacomelli Giacomelli -- Spazio Spazio Unindustria Unindustria Treviso, Treviso, settecentesca nonsolo sololalasede sededidirappresentanza rappresentanzadelle delleimprese impreseassociate associateaaUnindustria Unindustria non Treviso,ma maanche ancheuno uno“spazio” “spazio”dedicato dedicatoalla allacultura, cultura,all’arte all’arteeealalterritorio. territorio. Treviso, disposizionedidioltre oltre2.000 2.000imprese impreseassociate associateeedella dellacomunità comunitàtrevigiana, trevigiana, AAdisposizione DopoGiacomelli un accurato- Spazio restauroUnindustria e un adattamento funzionale ladisplendida dimora Palazzo Treviso è il punto incontro tra Palazzo Giacomelli - Spazio Unindustria Treviso è il punto di incontro tra

settecentesca Giacomelli -comunità Spazio Unindustria Treviso, industria, cultura eediventa società.Palazzo La vetrina vetrina una comunità intraprendente, industria, cultura società. La didi una intraprendente, nonalsolo la sede di rappresentanza dellecostruzione imprese associate a Unindustria aperta mondo solidale impegnatanella nella delproprio proprio futuro. aperta al mondo eesolidale impegnata costruzione del futuro. Treviso, ma anche uno “spazio” dedicato alla cultura, all’arte e al territorio. A disposizione di oltre 2.000 imprese associate e della comunità trevigiana,

UNO SPAZIO PERUnindustria LE IMPRESE IMPRESE E PER PER traLA LA COMUNITÀ COMUNITÀ TREVIGIANA TREVIGIANA UNO SPAZIO PER LE Palazzo Giacomelli - Spazio Treviso è il puntoEdi incontro industria, cultura e società. La vetrina di una comunità intraprendente, aperta al mondo e solidale impegnata nella costruzione del proprio futuro.

UNO SPAZIO PER LE IMPRESE E PER LA COMUNITÀ TREVIGIANA

PIAZZA GARIBALDI, 13 TREVISO • PER INFO, PRENOTAZIONI E VISITE GUIDATE - SEGRETERIA: TEL. 0422.599401 OPPURE 0422.2941 • EMAIL. INFO@PALAZZOGIACOMELLI.IT • WWW.PALAZZOGIACOMELLI.IT PIAZZA GARIBALDI, 13 TREVISO • PER INFO, PRENOTAZIONI E VISITE GUIDATE - SEGRETERIA: TEL. 0422.599401 OPPURE 0422.2941 • EMAIL. INFO@PALAZZOGIACOMELLI.IT • WWW.PALAZZOGIACOMELLI.IT

PIAZZA GARIBALDI, 13 TREVISO • PER INFO, PRENOTAZIONI E VISITE GUIDATE - SEGRETERIA: TEL. 0422.599401 OPPURE 0422.2941 • EMAIL. INFO@PALAZZOGIACOMELLI.IT • WWW.PALAZZOGIACOMELLI.IT


L’amministrazione “intelligente” del personale

scenari

Business Intelligence per gestire i rapporti di lavoro VALENTINA GINESTRI - RICCARDO GIROTTO

info@studioassociatopiana.it

Il termine Business Intelligence (BI), coniato nel 1958 dallo scienziato tedesco Hans Peter Luhn, viene impropriamente utilizzato per identificare la reportistica aziendale; ma la BI è molto di più: è un insieme di processi distinti da raccolta dati ed analisi degli stessi per la trasformazione da dato in informazione. Con il testo che segue, frutto della nostra esperienza in materia, cercheremo di comprendere l’utilizzo della BI per ottimizzare l’amministrazione del personale. Nella pratica professionale ci siamo interessati alla BI per disegnare con le aziende clienti le strategie operative, che in questo caso utilizzano le risorse tecnologiche prodotte da uno strumento in grado di collezionare ed approfondire informazioni utili a determinare un processo migliorativo e/o decisionale su organizzazione e gestione dell’azienda. La BI si propone anche come sistema di ricerca fra varie informazioni, con la possibilità di trasformare il dato sintetico in analitico, permettendo un notevole incrocio di dati. In Italia questo strumento è conosciuto per le analisi del comparto vendite e promozione del prodotto, un po’ meno nel campo dell’amministrazione del personale. In quest’ultimo ambito, già per motivi gestionali, nonché per il rispetto di tutti gli adempimenti periodici che la legislazione impone, la raccolta dei dati risulta una componente in parte soddisfatta dall’uso di software gestionali per l’elaborazione del cedolino paga. Invero, proprio in questa fase, si determinano molti dati che potrebbero acquistare valore, in tema di BI, se opportunamente trattati ed esaminati. Inoltre, è importante l’aspetto visivo che risulta dall’analisi effettuata (grafici, e tabelle dinamiche) utile a rendere più facile

l’individuazione dei casi di studio. Ma al di là di ciò, la differenza fra semplice uso di BI e strategico sfruttamento pare focalizzarsi in considerazione dell’utente che ne carpisce le notizie e, soprattutto, individua, sulla scorta della prima, la successiva teoria che, trasportata in pratica, ne svelerà, tramite altra indagine, l’efficacia. In un ordinamento come il nostro, ove la contrattazione collettiva svolge un ruolo molto importante nel settore dell’amministrazione del personale, il consulente attento utilizza la BI per investire nell’applicazione di innovativi contratti c.d. di secondo livello. L’esempio più eclatante è l’assegnazione di premi di risultato e/o produttività, a seconda di obiettivi previamente studiati e prefissati rispetto una politica aziendale personalizzata considerando le diverse caratteristiche del singolo lavoratore. Infatti, la BI, non si consta solo nella conosciuta previsione di un risultato e conseguente premio al suo raggiungimento, quanto piuttosto nell’intervento attivo dell’insieme del personale all’interno del sistema decisionale e strategico tramite proposte ed eventuali idee innovative, verso le quali i lavoratori vengono spronati da un previo esame delle potenziali peculiarità che ognuno di loro potrebbe possedere, in

ragione di una diversa iniziativa che non riflette soltanto su qualifica e mansioni a cui sono adibiti. Nei casi di studio ove si è scelto di muoversi in questo senso, la partecipazione dei dipendenti in politiche aziendali migliorative ha reso i lavoratori più motivati e anche maggiormente performanti. Si tratta dell’applicazione dell’analisi di determinate informazioni (derivanti dall’uso di BI) verso una corretta gestione e verso il rinnovamento di modelli organizzativi. Questi sono esempi, ma gli utilizzi virtuosi degli output di BI sono infiniti. Considerando che gli studiosi in materia concordano sul fatto che la corretta gestione delle risorse umane è il migliore ingrediente per il successo di un’azienda, stupisce lo scarso ricorso alla BI applicata all’amministrazione del personale. Non è necessario saper masticare tutti i termini del settore, ciò che basta è riconoscere che la tecnologia può offrire molte possibilità e che, se queste permettono lo sviluppo e la crescita del personale di un’azienda, che senz’altro può rappresentarne la risorsa più importante, se ne potrebbero sfruttare le potenzialità nell’ottica di una politica di innovazione che richiede molto meno dispendio di denaro contro l’avvalersi di intelligenza. 71


GIUGNO 2015

Il commercio elettronico diretto La tecnologia a vantaggio delle aziende LISA REGAZZO - RUGGERO PAOLO ORTICA

info@studioassociatopiana.it

Viviamo nell’era della tecnologia in cui fenomeni come internet of things, cloud, wearable technology, rappresentano grandi opportunità per le aziende, in quanto ne permettono l’evoluzione in un’ottica di rapidità e quindi di efficacia ed efficienza. Tra questi parleremo di e-commerce diretto, coinvolto di recente da un’importante novità fiscale. Il fenomeno del commercio elettronico - e-commerce - consente di acquisire beni e servizi indipendentemente dal luogo di provenienza dei beni o servizi che vengono offerti, consentendo, d’altra parte, all’imprenditore che intende ampliare il proprio business, di espandere i confini dell’attività, raggiungendo un enorme numero di potenziali clienti. L’e-commerce si suddivide in due categorie in base ai soggetti operanti nel sistema: • Business to Business (B2B) quando i soggetti coinvolti sono imprese; • Business to Consumer (B2C) quando l’azienda si rivolge al consumatore finale.

72

L’altra importante differenziazione dell’ecommerce dipende dalle modalità di consegna del bene: • diretto quando la vendita avviene attraverso canali informatici, mediante la connessione al sito del produttore/ venditore e l’invio del bene avviene direttamente tramite download dalla postazione dell’utente; • indiretto solo quando l’ordine del prodotto, ed eventualmente il pagamento, sono effettuati per via informatica, mentre il recapito del bene ceduto avviene mediante canali tradizionali. Nel presente contributo analizzeremo i principali aspetti dell’e-commerce diretto,

che ha visto di recente un’importante novità ai fini dell’assolvimento dell’Iva nelle operazioni B2C nei confronti di committenti UE.

L’E-COMMERCE DIRETTO A prescindere che l’operazione di vendita sia conclusa nei confronti di un Business o di un Consumer, le operazioni di commercio elettronico diretto sono considerate ai fini Iva prestazioni di servizi. I servizi che possono essere ricompresi in tale ambito sono elencati all’art. 7 del Regolamento (CE) n. 282/11, recante le disposizioni applicative della Direttiva 2006/112/CE.


scenari

Il momento impositivo coincide con la conclusione della prestazione o, se effettuato prima, come avviene nella quasi totalità dei casi, con il pagamento del corrispettivo. Le disposizioni sul luogo di tassazione dei servizi ai fini Iva sono cambiate dal 1° gennaio 2010, quando il legislatore, con D. Lgs. 11 febbraio 2010 n. 18 ha recepito le norme comunitarie contenute nella Direttiva 2008/08/CE, introducendo l’articolo 7-ter del D.P.R. 633/72 che definisce la regola di carattere generale secondo la quale la prestazione è rilevante: • nel Paese di stabilimento del committente se quest’ultimo è soggetto passivo (B2B); • nel Paese di stabilimento del prestatore se il committente interviene come consumatore-utilizzatore finale del servizio (B2C). La regola generale si adatta parzialmente all’argomento in questione in quanto, per le prestazioni di commercio elettronico diretto, dal 1° gennaio 2015 sono state introdotte nuove regole ai fini dell’applicazione dell’Iva: nei rapporti B2C il luogo impositivo è individuato nel Paese del committente. Questo comporta una notevole difficoltà operativa in quanto il prestatore si trova nella situazione di doversi identificare in ogni Stato Membro in cui effettua una cessione per assolverne

correttamente l’imposta. A tal fine è stato istituito un nuovo regime facoltativo denominato MOSS (Mini One Stop Shop), grazie al quale i soggetti passivi (residenti o domiciliati anche fuori dall’Unione Europea) che effettuano servizi elettronici a favore di consumatori finali europei, possono assolvere gli obblighi in materia di Imposta sul Valore Aggiunto attraverso il portale telematico omonimo. Il MOSS si applica alle operazioni, effettuate in modalità esclusivamente elettronica, per quei beni «scaricabili» direttamente dal web. In seguito a registrazione al portale, il soggetto passivo potrà assolvere agli obblighi Iva nei confronti degli altri Stati UE direttamente dallo Stato Membro di residenza attraverso il portale telematico. Ecco quindi che se le vendite nei confronti di committenti nazionali, siano essi Business o Consumer, scontano l’imposta con aliquota ordinaria, quelle effettuate nei confronti di committenti Business residenti in altro stato UE o EXTRA-UE verranno addebitate senza applicazione dell’Iva ex art. 7-ter. Ulteriore distinzione dovrà essere fatta inoltre per le vendite nei confronti di committenti privati, a seconda che siano residenti in un altro Stato UE oppure in uno Stato EXTRA-UE: nel primo caso, come già detto, la vendita sconterà l’Iva nello Stato del committente, mentre, nel secondo caso

l’operazione è fuori campo Iva per effetto della deroga al principio generale stabilita dall’art. 7-septies, il quale precisa che non si considerano effettuati nel territorio dello Stato i servizi prestati per via elettronica quando questi sono resi a committenti non soggetti passivi domiciliati e residenti fuori dalla Comunità. Si ricorda inoltre che per poter effettuare operazioni intracomunitarie, i soggetti Iva devono essere inclusi nell’archivio VIES (VAT Information Exchange System). Il Decreto Semplificazioni ha eliminato il differimento di 30 giorni previsto per l’accesso al sistema, ammettendo l’ingresso immediato, salvo il potere di controllo dell’Agenzia delle Entrate. La cancellazione da tale elenco avverrà qualora il soggetto non presenti alcun elenco riepilogativo per quattro trimestri consecutivi. In occasione dell’apertura di una piattaforma di e-commerce, l’azienda dovrà quindi valutare caso per caso la tipologia di attività posta in essere, al fine di individuare le migliori modalità operative che dovranno esser adottate.

73


GIUGNO 2015

Internet of things (IoT) La nuova rivoluzione tecnologica LUCIA BRESSAN

lbressan@studio-bressan.com

Siamo di fronte a tecnologie rivoluzionarie, che cambieranno la vita della maggior parte degli abitanti del pianeta. Da un lato tablet, smartphone e mobile hanno rivoluzionato lo stile di vita delle persone, dall’altro l’avvento su larga scala delle tecnologie di nuova generazione ci fa parlare di Intelligenza Artificiale, realtà aumentata, olografia virtuale e molto altro. Nel mentre, l’avanzata del cambiamento tecnologico inizierà con l’“Internet delle cose”, quello che si definisce Internet of Things, oramai diventato Internet of Everything (IoE). L’Intelligenza Artificiale passando per l’Internet of Things Lo scopo della ricerca è utilizzare informazioni e creare strumenti in grado di interfacciarsi con l’uomo, al fine di agevolare in qualche modo il suo operato. Di primario interesse è il contesto marcatamente civile, ovvero la cooperazione uomo-robot in ambito sociale (si veda il progetto Ramcip descritto nell’intervista a Emanuele Ruffaldi, ricercatore della Scuola Superiore Sant’Anna di Pisa a pag. 34) o a livello industriale al fine, in primis, di automatizzare i processi, così migliorando la produttività e rendendo competitivo un prodotto che necessiterebbe di manodopera costosa. In questa rivoluzione si inserisce il fenomeno - già in atto - in cui ogni cosa sarà connessa, accessibile e tracciabile, il cosiddetto Internet of Things (IoT) o Industrial Internet of Things (IIoT), che interesserà i processi di business delle imprese, imponendo cambi di modelli in grado di condizionare ogni singolo aspetto aziendale e soprattutto lavorativo. Cosa significa IoT? Milioni di oggetti, ogni giorno, saranno connessi a Internet, in grado di “dialogare” 74

ed interagire tra loro mediante sensori e reti di comunicazione elettronica. Oggetti che, autonomamente, potranno registrare, processare e immagazzinare dati e generare informazioni sulle persone, su se stessi e sull’ambiente che li circonda; tali informazioni - che interessano dispositivi indossabili, sistemi di automazione domestica, geolocalizzazione, ecc. consentono non solo la profilazione delle persone (comportamenti, abitudini, gusti, stato di salute, ecc.), ma, indirettamente, un controllo sulla vita privata potenzialmente in grado di condizionarla. Quali sono le implicazioni giuridiche? Alla base c’è una enorme massa di dati che possono essere raccolti, utilizzati e incanalati on-line, motivo per cui priorità fondamentale è affrontare temi quali i) la privacy su Internet, ii) la sicurezza dei dati raccolti, iii) la titolarità dei dati (ivi inclusi i dati aggregati), iv) le responsabilità in caso di errori. Per tali ragioni, il Garante italiano della Privacy - viste le indicazioni fornite dal Gruppo di lavoro europeo per la tutela dei dati personali ex art.29 nella Opinion 8/2014 on Recent Developments on the Internet of Things, adottata il 16 settembre 2014 - ha avviato una consultazione

pubblica, con l’intento di raccogliere contributi, osservazioni e proposte da parte delle aziende entro il 29 ottobre 2015 (180 giorni dalla pubblicazione in Gazzetta ufficiale del 4 maggio 2015 dell’avviso di avvio della consultazione), allo scopo di definire misure per assicurare agli utenti la massima trasparenza nell’uso dei loro dati personali e di tutelarli contro possibili abusi. Nel frattempo, da dove cominciare? All’interno dell’azienda va disegnato il quadro organizzativo nel quale la tecnologia si sviluppa  e dialoga e, parallelamente, vanno individuate precise procedure di raccolta e salvaguardia dei dati, con nomina di figure responsabili incaricate e in grado di riferire e rispondere. La tutela dell’identità personale, la sicurezza e la privacy sono i tre pilastri su cui l’impresa si deve soffermare; aspetti che l’ICT manager aziendale troppo spesso trascura, ovvero considera solo in ultima battuta. Tanto per cominciare, la creazione di processi e di procedure interne per la raccolta del consenso, l’autenticazione e il riconoscimento, l’accesso ai dati, l’individuazione di ruoli e responsabilità


del security management deve andare di pari passo con l’attenta applicazione della normativa di riferimento. Ciò consente, in sintesi, di circoscrivere rischi e criticità in ambito informatico sotto il profilo normativo. Si pensi ai principi dettati dal D.Lgs. n.196/2003 (Codice della Privacy) ed ai numerosi provvedimenti dell’Autorità Garante della Protezione dei Dati (da ultimo le misure prescritte dal Garante con il provvedimento dell’8 maggio 2014 sull’uso dei cookie, la cui entrata in vigore è fissata al 2 giugno 2015, le Linee guida in materia di trattamento di dati personali per la profilazione on-line del 19 marzo 2015, ecc.), nonché ai reati informatici di cui al D.Lgs. n.231/2001 sulla responsabilità amministrativa delle persone giuridiche, delle società e delle

associazioni anche prive di personalità giuridica. Senza dimenticare, sul fronte interno, che l’uso di strumenti finalizzati alla raccolta dei dati comporta, giocoforza, un controllo a distanza delle risorse e dei lavoratori, col rischio di incorrere nelle violazioni di norme di base quali l’art. 4 della legge n.300/1970 (Statuto dei lavoratori) ovvero nel mancato rispetto delle Linee guida del 2007 del Garante per posta elettronica e internet ovvero per dispositivi mobili (BYOD - Bring Your Own Device), alla luce della normativa comunitaria in materia. Conclusione Nel processo di innovazione attraverso l’Internet delle cose, l’impresa deve considerare attentamente tutte le

scenari implicazioni giuridiche collegate al trattamento di dati personali ed alla sicurezza. Ciò va garantito attraverso la stesura, da un lato, di efficaci e dettagliate policy aziendali ad uso interno e di informative puntuali ed esaustive da sottoporre all’utente, dall’altro, nel pieno rispetto dei principi sanciti dai diversi codici nazionali della privacy e delle raccomandazioni tutte, delle direttive comunitarie e delle convenzioni internazionali in materia.

75


GIUGNO 2015

Decreto Tenuità del fatto: rubare una mela non è più un reato? Possibile l’archiviazione per i reati fino a 5 anni con il nuovo decreto ANDREA MANUEL

Con l’introduzione del Decreto Legislativo 16.03.2015 Tenuità del fatto è stato introdotto l’art. 131 bis il quale fa espresso riferimento alla esclusione di punibilità in alcuni casi, relativamente ai reati per i quali è prevista la pena detentiva non superiore nel massimo a 5 anni. Dal 2 aprile del 2015 è dunque possibile l’archiviazione per questo tipo di reati. Dell’introduzione di una causa di non punibilità legata all’esiguità dell’offesa si discuteva da decenni. Impianti di tipo sperimentale erano già stati realizzati nell’ambito del diritto penale minorile ed in quello dei reati rimessi alla competenza del Giudice di Pace. Si prevedeva, infatti, la possibilità di una “sentenza di non luogo a provvedere per irrilevanza del fatto” o la “esclusione della procedibilità nei casi di particolare tenuità del fatto”. In entrambi, pur tuttavia, si evitava il riferimento diretto alla “non punibilità”: ora, con introduzione del Decreto Legislativo 16.03.2015 qualcosa cambia ed è stato introdotto l’art. 131 bis il quale fa espresso riferimento alla esclusione di punibilità in alcuni casi. Si tratta di una causa di non punibilità in senso stretto: dato che essa non implica nè presuppone l’assenza o il venir meno di alcun elemento costituivo del reato. Al contrario ne postula la sussistenza, a partire proprio dall’offesa che, per essere qualificata “di particolare tenuità” deve ovviamente ricorrere. Privo di senso sarebbe richiamare una qualche forma di “depenalizzazione” perché il fatto dichiarato non punibile non 76

assume alcuna diversa rilevanza (non diviene lecito, non si trasforma in illecito amministrativo): è reato e tale resta pur se non punibile. La proprietà, pertanto, deve essere protetta e continuerà a venire protetta anche se si tratta di una mela: ma punirne il furto può risultare in concreto incongruo e controproducente.

La norma fondamentale contenuta nell’art. 131 bis del Codice Penale configura la possibilità di definire il procedimento con la declaratoria di non punibilità per particolare tenuità del fatto relativamente ai reati per i quali è prevista la pena detentiva non superiore nel massimo a 5 anni, ovvero la pena pecuniaria sola o congiunta alla pena detentiva. Sono esclusi


espressamente l’omicidio colposo e le lesioni gravissime. Inoltre non può essere applicata quando l’autore ha agito per motivi abietti o futili, o pure quando con crudeltà, anche nei confronti di animali o, quando, ha adoperato sevizie; non si applica quando l’autore ha approfittato delle condizioni della vittima impossibilitata o incapace di difendersi come nel caso di minori oppure di anziani. Certo è che esaminando uno per uno i

reati, si colgono delle incongruenze ma l’intenzione del Legislatore - è certamente (una volta tanto) apprezzabile. In tal modo, infatti, potranno soddisfarsi con correnti esigenze che stanno alla base dell’Istituto e che, riassumendo possono così essere identificate: 1. l’esigenza di alleggerimento del carico giudiziario; 2. rispetto del principio della proporzione (che vuole evitare il dispendio di energie processuali per fatti bagatellari,

scenari sproporzionato sia per l’ordinamento sia per l’autore “costretto a “sopportare” il peso psicologico del processo a suo carico”; 3. l’adeguata considerazione della posizione della persona offesa (soddisfatta vuoi con la previsione di spazi e di interlocuzione anche nell’ipotesi di archiviazione vuoi con l’esplicita previsione normativa dell’efficacia della sentenza di proscioglimento per particolare tenuità del fatto nel giudizio civile o amministrativo di danno). La riforma, se correttamente applicata (bisogna, sempre, poi vedere le applicazioni nel concreto) sarà certamente utile ed avrà un impatto altrettanto favorevole. Le cronache erano piene di processi che urtavano contro la sensibilità pubblica: 3 gradi di giudizio per un furto di una mela, una condanna penale per una modesta ingiuria erano situazioni che non meritavano (e che non meritano) il dispendio di energie che il procedimento penale comporta e che distraggono l’impiego dei Magistrati dai casi certamente più meritevoli di attenzione. Molto meglio prevedere - come in realtà è stato fatto - che nei casi dove effettivamente il reato sussiste, ma oggettivamente l’offesa è particolarmente tenue, il Giudice dichiari lo stesso non punibile e chiuda, definitivamente, il procedimento penale. Certamente vi sono dei punti di criticità ma l’intento è certamente apprezzabile, la logica che sottende il procedimento condivisibile, e l’applicazione, sicuramente, porterà dei benefici.

77


GIUGNO 2015

LAVORARE CON IT E ICT Dal dato alla conoscenza strategica Intervista alla divisione di Business Intelligence di Eurosystem SpA

“Tra algoritmi, grafici e statistiche, aiutiamo i clienti a conoscere meglio i propri dati, ad organizzarli, analizzarli e a leggerli nel modo migliore. Per farlo gli strumenti sono fondamentali ma ancor di più la capacità di capire come utilizzare lo storico delle informazioni aziendali per migliorare le performance del business”. Stefano Bacci e Marta Vicino ci parlano di cosa significa Business Intelligence (BI) per Eurosystem S.p.A. 78


La divisione di Business Intelligence di Eurosystem SpA progetta e sviluppa soluzioni standard o personalizzate di Business Intelligence basate sul software Freeway® Business Intelligence e sui migliori prodotti di BI presenti sul mercato. Ne fanno parte Stefano Bacci, socio titolare dell’azienda e responsabile della area di sviluppo delle soluzioni applicative aziendali e Marta Vicino, consulente per la Business Intelligence. Come stanno cambiando le esigenze delle aziende nell’ambito della BI? Stefano: «Le necessità dei clienti si stanno evolvendo molto velocemente e con esse anche il campo della BI. Mentre fino a qualche anno fa per il cliente era sufficiente avere un’analisi di tipo tradizionale, ad esempio le classiche statistiche sul rapporto del venduto per agente, o per area, o per cliente, oggi le aziende hanno la necessità di analisi più evolute, importanti per prendere decisioni ponderate». Marta: «E, anche, di rappresentazioni grafiche più intuitive, come i cruscotti che hanno ormai sostituito la datata e tradizionale tabella che riportava ogni singolo dato e i totali in ultima riga, fornendo così un quadro altrettanto attendibile ma più immediato. Alle aziende, infatti, interessa focalizzare la propria attenzione sui centri

conosciamoci STILE LIBERO

di criticità, per questo sempre di più le analisi che proponiamo partono da un dato di sintesi, una sorta di totale, per poi scendere nello specifico attraverso una tecnica che opera per scale gerarchiche e che si chiama “drill down”, in inglese “trapanare”. Ad esempio, ipotizziamo di avere una differenza tra venduto e budget suddiviso per area. In una tabella di tipo tradizionale avremmo centinaia di pagine per ogni area di business con tutte le relative statistiche e di tanto in tanto, tra le migliaia di righe, un segno rosso per evidenziare un dato critico. Con un’analisi di BI evoluta, invece, potremmo avere direttamente un cruscotto che evidenzia in primis i dati più critici, lasciando il resto ad una visualizzazione di secondo ordine. In questa maniera ci si concentra maggiormente dove ci sono problemi». È solo una questione di tecnologie? Marta: «Assolutamente no, gli strumenti sono importanti ma è

Da sinistra Stefano Bacci, Responsabile divisione Business Intelligence Eurosystem SpA Marta Vicino, Business Intelligence Consultant Eurosystem SpA

79


GIUGNO 2015

la consulenza che permette di indrizzare il cliente su una certa valutazione e rappresentazione dei dati piuttosto che su un’altra. Il prodotto, poi, consente di effettuare quel tipo di analisi e di far visualizzare i risultati nel modo richiesto. Il nostro apporto sta dunque nel guidare il cliente verso la comprensione di come può e gli è più utile esaminare i propri dati». Qual è la prossima frontiera in questo settore? Marta: «Il mercato si sta muovendo sempre di più verso le analisi predittive, che si basano sull’osservazione del dato storico per ottenere ciò che con una certa probabilità avverrà nel futuro. Come funzionano? Si possono identificare dei pattern all’interno dei dati storici e tramite degli algoritmi ricavare dei modelli predittivi. Gli algoritmi possono essere di diversi tipi, occorre fare una valutazione per scegliere l’algoritmo più adatto in base alla situazione e al tipo di dati a disposizione; in ogni caso si tratta di algoritmi che, alimentati da dati storici e tramite delle operazioni matematiche, possono restituire delle previsioni». Questo tipo di analisi come viene recepita dalle imprese del territorio? Marta: «La cultura del dato non è così diffusa come si potrebbe pensare anche se, in particolare, il concetto di previsione è già maggiormente accolto. Report più approfonditi che utilizzano algoritmi più complessi risultano invece più rari e meno di immediata comprensione, sia a causa della difficoltà che noi stessi abbiamo nel trasmettere questo tipo di cultura, sia da parte dei nostri referenti sotto forma di formazione e consulenza da recepire. Ma la maggior parte delle volte ai nostri clienti interessa che in quanto loro partner troviamo una soluzione ad un problema o rispondiamo ad un’esigenza; e quando fanno fatica a comprendere generalmente si affidano a noi volentieri». Ci dareste qualche esempio di analisi complesse? Di che cosa stiamo parlando esattamente? Marta: «Un tipo di analisi più evoluta è l’analisi cluster. Si basa su dati storici dell’azienda che vengono raggruppati in gruppi – cluster per l’appunto – sulla base di determinate caratteristiche e con lo scopo di identificare, ad esempio, segmenti di clientela, comportamenti, gruppi anagrafici che si riconoscono per un determinato comportamento di consumo. Sono analisi che

80

interessano soprattutto le aree commerciali di marketing, oppure molto utili nel controllo di gestione. Sono report che, anche solo partendo da dati storici, impiegano grandi moli di dati. Ai dati aziendali si possono aggiungere anche i dati provenienti dall’esterno, i cosiddetti big data, o addirittura quelli provenienti dall’IoT, che vanno davvero a misurare lo stile della vita personale. È chiaro come le analisi che possono derivarne assumono un’importanza strategica per le aziende». Stefano: «Esistono poi analisi basate sulla tecnica del datamining, che permette di esplorare i dati cercando di ricavare delle relazioni che non sono cosi esplicite. L’esempio classico che si fa per spiegare il datamining è questo: se si analizzano gli scontrini di cassa di un supermercato si può verificare che i consumatori che acquistano latte nella maggior parte dei casi acquistano anche biscotti, di conseguenza chi gestisce la strategia di vendita di quel supermercato può orientare la disposizione dei prodotti in base a questo tipo di valutazione». Come si evolveranno le tecnologie e gli strumenti per supportare questo tipo di richieste? Stefano: «L’evoluzione della Business Intelligence toccherà sempre di più tre ambiti, e non tutti riguardano la tecnologia. Bisogna innanzitutto avere delle piattaforme di memorizzazione ed elaborazione dei dati sempre più performanti - in questo caso parliamo dell’evoluzione dei database - poi occorre investire nella ricerca matematica per creare e testare algoritmi predittivi corretti, e infine ci sono gli strumenti per applicare gli algoritmi, andare a leggere i dati elaborati e rappresentarli graficamente. Dunque, ci sarà un’evoluzione delle tecnologie software sempre maggiore: il nostro compito sarà quello di conoscere e abbracciare queste innovazioni per poter guidare il cliente nella scelta e nell’utilizzo di strumenti che lo aiutino ad ottenere dai propri dati le informazioni che gli servono». In questo numero parliamo di Intelligenza Artificiale: secondo voi esiste un collegamento tra queste tematiche e le tecnologie di Business Intelligence? Marta: «Esistono dei modelli basati su algoritmi di auto apprendimento e questa tematica viene ampiamente sviluppata nell’ambito dell’Intelligenza Artificiale. In questi modelli si forniscono al sistema dati storici “di allenamento” che vengono elaborati per cogliere ricorrenze e relazioni fra essi, il risultato viene confrontato con cio che è accaduto realmente in modo che il modello si vada ad adattare e modificare automaticamente per risultati sempre più accurati. La sfida maggiore nell’ambito dell’Intelligenza Artificiale è riprodurre sistemi di apprendimento automatico simili a quello umano. È un settore di frontiera ma fortemente in crescita».


il viaggio

STILE LIBERO

Dal computer manager al computer consigliere Verso un’Intelligenza Artificiale autonoma

Un viaggio attraverso la metropoli, centro d’affari di livello mondiale. Abbiamo indagato sulla parte più tecnologica e innovativa di Hong Kong e abbiamo scoperto delle vere e proprie chicche legate all’Intelligenza Artificiale. Una città culturalmente aperta all’innovazione e pronta ad investire in qualsiasi settore. Non è un caso che Hong Kong, che raggruppa gli uffici di quasi i tre quarti delle 100 banche più importanti al mondo, fornisce assistenza alle società multinazionali o alle PMI che intendono intraprendere affari in Cina e nell’Asia-Pacifico. 81


GIUGNO 2015

Hong Kong è la città più verticale del mondo con una popolazione di sette milioni di persone e una rete di trasporti molto sviluppata. Oltre il 90% degli spostamenti quotidiani avviene grazie ai trasporti pubblici, la più alta percentuale al mondo.

INFRASTRUTTURE COMMERCIALI DELLA CINA • Principale investitore estero in Cina • Esperti nella gestione e nel controllo dei rischi aziendali • Accesso preferenziale ai mercati cinesi Hong Kong ha il maggior numero di società che rappresentano il 45 per cento degli investimenti esteri nelle principali città della Cina. Da quasi 25 anni circa 60.000 aziende di Hong Kong sono il motore di crescita economica del Pearl River Delta, nella regione meridionale cinese, impiegano oltre 10 milioni di persone. Alle aziende di dimensioni più contenute, la partnership con una società di Hong Kong fornisce un accesso più semplice e veloce ai mercati del continente grazie all’accordo di libero scambio.

82

È proprio sui trasporti la città ha investito nell’IA per ottimizzare la parte manutentiva della metropolitana, già di per sé un’eccellenza, con la più alta percentuale al mondo di treni in orario e 10 mila persone impegnate in oltre 2500 interventi di tutti i tipi ogni settimana. Il protagonista è un computer che gestisce la pianificazione degli interventi di manutenzione della metropolitana di Hong Kong. In pratica attraverso degli algoritmi di intelligenza artificiale il sistema crea un modello virtuale dell’intera rete e decide quali sono le professionalità richieste e a quale intervento di riparazione dare priorità. Il piano di manutenzione generato tiene conto di eventuali regolamenti in vigore nelle zone destinatarie degli interventi (per esempio relativi all’inquinamento acustico nelle ore notturne), ed è comunque soggetto a supervisione da parte di operatori umani. Il professor Chun dell’Università di Hong Kong è l’autore di questa piattaforma. L’equipe impegnata in questo progetto ha trascorso diversi mesi in compagnia di operai, ingegneri ed esperti, al fine di estrarne l’esperienza sul campo e codificarla. Il nuovo sistema permette di risparmiare complessivamente due intere giornate di pianificazione a settimana, riducendo il tempo medio dedicato alle riparazioni di 30 minuti a notte, in termini economici si parla di un risparmio di circa $800.000 ogni anno.


il viaggio Parco della Scienza e della Tecnologia Il Governo e gli Enti scientifici di Hong Kong stanno investendo con forza sullo sviluppo dei settori ad alta tecnologia, in particolar modo per quanto concerne la protezione ambientale, le bio/ nano tecnologie, con la consapevolezza che Hong Kong potrebbe affermarsi nel continente asiatico non solo come hub finanziario e commerciale, ma anche come polo internazionale nei settori a più alto tasso di tecnologia e scienza applicata. A confermare la forte tendenza allo sviluppo delle tecnologie c’è il Parco della Scienza e della Tecnologia di Hong Kong che ospita 200 imprese e circa 6.000 addetti operanti nei settori dell’high technology. Occupa una superficie di 22 ettari di area tra cui zone verdi, laboratori e uffici. Il parco completamente finanziato dal governo, offre la possibilità ad aziende, anche appena create, di affittare locali a prezzi molto vantaggiosi, non solo, offre incentivi alle imprese, oltre che la possibilità di lavorare in un ambiente vibrante che promuove la ricerca e sviluppo. Il parco mette a disposizione degli investitori esteri strutture, attrezzature, servizi specializzati e, soprattutto, la propria vicinanza geografica e culturale con un mercato di enormi dimensioni come quello della Cina continentale. Un computer con diritto di voto Un computer nel CDA con diritto di voto, questa è l’ultima

LIBERO FLUSSO DI CAPITALI E DI MERCI • Libero scambio, liberi mercati e liberi “media” • Nessuna restrizione agli investimenti esteri • Nessuna restrizione al movimento di capitali Il libero flusso di merci, capitali e informazioni di Hong Kong è di fondamentale importanza per il successo negli affari. Le merci entrano ed escono in esenzione d’imposta, le informazioni sul mercato cinese sono le migliori disponibili, e il dollaro di Hong Kong è liberamente convertibile. Quasi un quarto del commercio estero della Cina Popolare è gestito attraverso Hong Kong.

trovata tecnologica che arriva dalla Deep Knowledge Ventures o Dkv, una società di investimenti con sede a Hong Kong. È specializzata in investimenti in compagnie che operano nel settore della cosiddetta medicina rigenerativa, Dkv ha fatto entrare un programma artificiale denominato Vital (Validating Investment Tool for Advancing Life Sciences) all’interno del suo consiglio di

83


GIUGNO 2015

COMUNITÀ D’AFFARI INTERNAZIONALE • Istituzioni solide e familiari • Cultura imprenditoriale • Stile di vita cosmopolita Hong Kong è la scelta ideale per le aziende di ogni dimensione e nazionalità che intendono intraprendere affari in quest’area, perché ha un sistema giuridico aperto e trasparente, le istituzioni economico-commerciali di livello mondiale e le condizioni di pari opportunità offerte agli operatori. È diffusamente parlata la lingua inglese e sono adottate prassi commerciali del tutto familiari alla comunità d’affari internazionale.

amministrazione, con tanto di diritto di voto. Il compito di Vital è quello di analizzare gli investimenti che i vari esperti dell’azienda

84

propongono, per verificare la percentuale di successo e completare con proprie proposte l’investimento nel settore delle biotecnologie. Si tratta di un software che automatizza i vecchi sistemi di ricognizione sugli investimenti, facendo affidamento a dati storici che permettono di avere i trend che altrimenti non sarebbero immediatamente evidenti all’uomo. Allo storico si aggiungono informazioni relative a potenziali investimenti presenti nelle banche dati, per poi arrivare a un confronto dei risultati con gli investimenti selezionati. In pratica in tempo reale si valuta la logicità dell’investimento basato su dati razionali evitando così scelte influenzate dai rapporti con le società finanziarie. La Dkv concorda con Andrew Garazha, analista senior della Aging Analytics, ovvero la società che ha creato VITAL asserendo che gli esseri umani sono emotivi e soggettivi, possono commettere errori ma, a differenza delle macchine, possono prendere brillanti decisioni intuitive. Macchine come VITAL usano solo logica, ma l’unione dell’intuito umano con la logica di una IA crea un team perfetto. Il rischio di errori diventa minimo. L’obiettivo futuro dell’azienda è quello di creare un software che sia in grado di prendere decisioni di investimento autonome.


sport

STILE LIBERO

NBA, L’OLIMPO DEL BASKET NON È UN TRAGUARDO MA UN INIZIO Il basket del capitano della nazionale italiana

Tenace e determinato Luigi Datome, il nostro capitano, ci racconta il suo sogno diventato realtà. Ha toccato con mano l’olimpo del Basket ma lui dice che la cosa più importante è l’affetto delle persone che ti vogliono bene. Giocare con un robot per lui sarebbe un’esperienza curiosa.

Hai da poco terminato la stagione in America, cosa hai lasciato? Ho lasciato, spero solo per l’estate, un paio di mesi finali a Boston in cui mi sono tolto piccole soddisfazioni e ho potuto dimostrare di poter far parte della Nba (la lega professionistica più importante degli Stati Uniti, se non del mondo). Un mondo da sogno, in cui tutto funziona alla perfezione e a

cui ambiscono tutti i giocatori di basket. È stata dura dopo l’anno e mezzo a Detroit, sono stati giorni difficili, in cui facevo fatica a vedere il campo per scelte che tuttora non riesco a comprendere. Ma le ho accettate. Oggi mi sento diverso, perché ho dimostrato di poter stare in quel mondo dorato chiamato Nba e qualsiasi cosa accada adesso la prenderò con maggiore leggerezza, come del resto va presa la vita e lo sport. 85


GIUGNO 2015

Cosa hai ritrovato in Italia? La mia famiglia, gli amici di sempre e la mia terra. Oltre, tantissimo affetto. Sarò banale, ma è la cosa che conta di più. Trovarli dopo un anno a migliaia di km di distanza ha un sapore particolare. Il calore della famiglia, l’abbraccio degli amici e un pranzo in riva al mare hanno sempre in me un effetto speciale. Perché mi riportano alle origini, fra gente che mi vuole bene e soprattutto nella mia terra, la Sardegna, alla quale sono molto legato. Basket Italia vs Basket America, quali le differenze da un punto di vista culturale e di pensiero? In America è concessa più libertà ad un giocatore: non ci sono lunghi ritiri, cene assieme. Manca il vissuto comune. Lì ognuno è libero di fare come vuole prima di una partita, si cena dove si vuole e ci si gestisce. Questo non vuol dire fare vita sregolata, perché il livello di professionismo è estremamente alto. In Italia una cosa del genere non avviene mai, si sta assieme ed è il club che pensa a scadenzarti gli orari. Questa è la differenza principale come cultura sportiva. Poi ovviamente tutto il contorno è diverso: in Nba la pallacanestro è un movimento che smuove quasi mille addetti ai lavori ogni partita. Numeri oggettivamente impensabili per noi. L’altra differenza è ovviamente il livello di fisicità: in America l’atletismo fa da padrone: difficilmente riescono a trovar spazio giocatori meno dotati fisicamente, a meno che non si tratti di un talento fuori dal comune. In Italia il livello di fisicità non è così spinto al limite e c’è ancora spazio per i giocatori “normali”. Come è iniziata la tua carriera? Nella palestra della Santa Croce Olbia, la società della mia famiglia. Dopo aver iniziato a camminare ci ho messo poco a prendere un pallone in mano. Era anche logico così, visto che ero sempre in palestra a guardare i più grandi. Poi ho iniziato col giocare, ho fatto tutta la trafila giovanile, abbiamo vinto uno scudetto pazzesco, sono andato a Siena, dove ho sofferto un po’ il fatto di avere poco spazio. E allora ho scelto Scafati dove sono cresciuto molto e poi la tappa fondamentale a Roma. Cinque stagioni importantissime per la mia crescita, l’ultima delle quali indimenticabile, con una finale scudetto raggiunta e un titolo da MVP del campionato che custodisco ancora gelosamente. Il resto lo sapete già.

Luigi Datome Capitano nazionale di Basket Italia

86


sport Una carriera brillante, immaginavi a 10 anni che saresti arrivato così in alto? No, era impossibile da immaginare, ma il mio sogno era giocare nella Nba. Avevo i poster dei campioni americani nella mia cameretta e sapere che adesso sto calcando lo stesso parquet mi riempie di felicità. Da un certo punto di vista è un sogno che si avvera, perché chiunque inizia a giocare a pallacanestro lo fa con il desiderio di arrivare nell’Olimpo del basket. Sono felice di avercela fatta, ma quando si arriva qua ci si rende conto che anche questo è solo un punto di partenza, perché è necessario lavorare quotidianamente e migliorarsi sempre per essere competitivo e performante in questa Lega. In questo numero di Logyn parliamo di intelligenza artificiale, tutto va nella direzione di costruire un robot capace di imitare l’uomo in molte cose, immagina di dover giocare con un avversario robot come ti rapporteresti? Dipende da come è stato programmato questo robot, ma sarebbe interessantissimo. È un argomento che mi incuriosisce, da ogni punto di vista. Il robot è programmato da noi uomini, quindi è capace di fare ciò che gli è stato “insegnato”. Certo è che nel tiro sarebbe imbattibile se sapesse calcolare in una frazione di secondo tutti i fattori che influiscono in quel movimento. Farebbe sempre canestro. Potrebbe essere diverso nell’armonia dei movimenti e nelle fasi di lettura del gioco, dove forse l’intelligenza umana riesce ancora a dare qualcosa in più rispetto a degli algoritmi! Ma è un tema, questo, che mi stimola davvero molta curiosità. Quali sono le caratteristiche che hanno fatto scegliere al coach di nominarti capitano della nazionale di Basket? Penso di essere un ragazzo che aiuta le dinamiche di gruppo e le favorisce, cercando a volte anche una mediazione. Anche a Roma è successo lo stesso. Siamo stati bravi a creare un gruppo vincente ed esserne stato capitano ha significato moltissimo per me. Poi in realtà in Nazionale è l’anzianità a livello di presenze che conta molto. Ma mi piace anche pensare che il mio apporto alle dinamiche di gruppo abbia dato un contributo importante. Quali sono i tuoi progetti per la prossima stagione? Sono aperto a vagliare ogni offerta. La mia priorità sarebbe giocare nella Nba in una squadra che possa farmi fare un ulteriore salto in avanti rispetto agli ultimi due mesi a Boston. Se fosse possibile farlo ancora nei Celtics sarebbe perfetto, ma in generale avere un’altra chance nella Nba potrebbe essere un’altra bella sfida. Ma non chiudo la porta a nessuno, anche se dovessero arrivare offerte interessanti dall’Europa. Aspettiamo e valutiamo.

L’EUROBASKET È un Europeo, ma vale i Giochi Olimpici di Rio 2016. L’EuroBasket che inizia il prossimo 5 settembre a Berlino qualifica per l’Olimpiade del prossimo anno. L’Italia non partecipò ai Giochi dal 2004 quando ad Atene l’Italia vinse l’Argento. “Non voglio far parte di quel gruppo di giocatori che non hanno vinto nulla in Nazionale” il grido di battaglia di Gigi Datome. Insieme a Gigi anche Danilo Gallinari, Andrea Bargnani e Marco Belinelli, i giocatori italiani in NBA, hanno assicurato la partecipazione. Troveranno Daniel Hackett, Pietro Aradori, Andrea Cinciarini, Marco Cusin, Alessandro Gentile, Nicolò Melli e non solo, pronti a giocare per tornare ai Giochi Olimpici.Il raduno di preparazione inizia il 21 luglio a Folgaria, in provincia di Trento. Il giorno prima il Media Day, l’incontro con i giornalisti, a Milano. Quattro i tornei di preparazione a Trento (30 luglio-1 agosto), a Tiblisi in Georgia (14-16 agosto), a Koper in Slovenia (21-23 agosto) e poi il Torneo di Trieste (28-30 agosto). Il 5 settembre inizia l’Europeo. L’Italia, nella prima fase, è nel girone di Berlino e gioca nell’ordine contro Turchia, Islanda, Spagna, Germania e Serbia: il classico girone di ferro. Le prime quattro vanno a Lille (Francia) per la seconda fase dagli Ottavi alla Finale. 87 87


GIUGNO 2015

UNA MOSSA A SCACCHI È LA SCELTA DI UN SOLO SECONDO L’Intelligenza artificiale degli scacchi

Una macchina come allenatore instancabile ma anche come avversario. Intervista a Paolo Ciancarini, Professore ordinario di Informatica all’Università di Bologna. Serve solo un secondo per decidere la mossa giusta, è la mente a vederla per prima, solo dopo averla fatta si comprende se la mossa sia stata giusta o sbagliata. Il punto di vista di Ciancarini, che è nel back-end della macchina, ci racconta i processi umani e artificiali che sono alla base di questo gioco.

88


Il suo lavoro è frutto di una grande passione? Come professore, il mio lavoro è insegnare e fare ricerca nell’ambito delle scienze informatiche. Quando ho scelto di studiare Scienze dell’Informazione, nel 1977, avevo 18 anni, ed ero affascinato dall’Intelligenza Artificiale applicata al gioco. Erano gli anni in cui si usavano gli Scacchi come laboratorio per costruire programmi “intelligenti”. Lo scopo era di battere i migliori giocatori umani. Questo risultato venne conseguito da alcun ricercatori IBM nel 1997; la macchina che costruirono si chiamava Deep Blue. Oggi un modello derivato da Deep Blue si chiama Blue Gene ed è una delle macchine più potenti del mondo. Grazie alla passione per gli scacchi ho poi studiato non solo l’Intelligenza Artificiale, ma anche i linguaggi per i supercalcolatori e l’ingegneria del software. Quindi in un certo senso il mio lavoro è frutto della mia passione per il gioco degli scacchi. Come si impara a giocare a scacchi? Le regole di base, cioè come si muovono i pezzi, si imparano in molti modi. Per esempio io ho imparato a 12 anni da un amico con cui giocavo all’oratorio. I giornali all’epoca riportavano le partite del campionato del mondo tra il sovietico Spassky e l’americano Fischer. Io ricostruivo le partite e me le facevo

percorsi

STILE LIBERO

spiegare da amici più esperti di me. I miei due figli invece hanno imparato da me. So che molti giovani giocatori oggi imparano direttamente dal computer. Come si impara a giocare bene? Per diventare forti giocatori bisogna avere la possibilità di frequentare forti giocatori. Da adolescente io vivevo in una città abbastanza piccola, Civitavecchia, e quando divenni il più forte giocatore locale, verso i diciotto anni, ebbi difficoltà a migliorare. Allora incominciai a studiare i libri di scacchi scritti da grandi giocatori o teorici del gioco. I libri italiani erano pochi, quindi li compravo in inglese o a volte in russo. Oggi ho una collezione di più di 2000 libri di scacchi, ma naturalmente ne ho studiati davvero solo una piccola parte.

Paolo Ciancarini Professore ordinario di Informatica dell’Università di Bologna e Presidente del GRIN, associazione dei docenti universitari di Informatica 89


GIUGNO 2015

Come fa una mente a prendere una decisione? Bella domanda, cui rispondere è molto difficile. Cos’è una mente, e cos’è una decisione? Diamo per scontato di sapere cos’è una mente. In un certo senso la mente è ciò che fa il cervello: per esempio quando il cervello muore la mente non c’è più. Si ha una decisione quando la mente identifica diverse alternative e ne sceglie una. Nel caso degli scacchi le diverse scelte corrispondono alle diverse mosse possibili. La mente dello scacchista esamina una posizione e sceglie una mossa in vari modi, in funzione del tempo che ha a disposizione per la scelta. Per esempio, se si gioca con un tempo molto limitato (certe partite su internet durano un minuto in tutto, cioè si gioca circa una mossa al secondo), la mente non costruisce la lista delle possibili mosse alternative. La percezione è quella funzione della mente che opera la sintesi dei dati sensoriali e gli assegna un significato. Vedo una torre sulla scacchiera, ma il suo “significato” sono le caselle in cui si può muovere. Bisogna imparare a “vedere” che la torre è il pezzo da muovere e su una certa casella. Dunque nel caso del gioco “veloce” è proprio la percezione allenata dall’esperienza che filtra le alternative. Molti grandi giocatori, per esempio il campione del mondo attuale, il norvegese Magnus Carlssen, dicono che non visualizzano le alternative: piuttosto la mossa da giocare “compare” nella mente che osserva la scacchiera. Solo dopo averla giocata, secondo Carlssen, ci si accorge se è sbagliata. Il punto è che la grande maggioranza delle mosse giocate da campioni in questo modo sono “giuste”, cioè adeguate alla situazione. Lo studio e l’allenamento continuo affinano la percezione sicché la mente “vede” solo la mossa giusta mentre “trascura” tutte quelle sbagliate. Qui sarebbe interessante capire perché talvolta la mente, anche se esperta e allenata, sbaglia. Esistono molti studi in ambito psicologico, per la precisione nell’ambito delle scienze cognitive, che studiano questo genere di argomenti. Come fa un programma a prendere una decisione? Un programma decide in modo diverso. Il programma costruisce la lista di tutte mosse possibili, per ogni mossa tutte le contromosse, e così via finché c’è tempo. Alla fine si ottiene un “albero delle alternative possibili” in cui vengono confrontate tutte le posizioni ottenibili. Questo metodo sceglie la mossa che porta nella posizione “migliore”. Allo stato attuale della tecnologia un programma su personal computer riesce a confrontare decine di miliardi di posizioni possibili prima di scegliere. I giocatori artificiali danno la stessa emozione di quelli veri? Come avversari no. Direi piuttosto che un programma è un allenatore instancabile, sempre pronto al bisogno. I giovani 90

giocatori oggi usano sistematicamente i programmi per preparare le partite contro gli umani. Lei preferisce essere battuto più da una persona oppure da un computer? Un famoso cartone che vinse l’oscar qualche anno fa, Geri’s Game, mostra un simpatico vecchietto che gioca contro se stesso, e si arrabbia quando perde. Nessuno “preferisce essere battuto”; io ricordo ancora il bruciore terribile delle prime sconfitte in torneo ufficiale, subite a quattordici anni. Diciamo che quando perdo con una persona ci rimango molto più male che non quando perdo contro un programma. La sensazione più strana è comunque perdere contro un programma che ho progettato io stesso. Il programma è un’estensione della mia mente, quindi quando perdo, perdo contro... me stesso, proprio come Geri. Quali sono le novità in questo campo? Dal punto di vista commerciale esistono molti programmi molto forti, che migliorano marginalmente anno dopo anno, ma che già oggi battono qualsiasi giocatore umano. Dal punto di vista delle ricerche in psicologia esistono molti studi che cercano di capire come funziona il cervello che gioca, in particolare come si fa a giocare bene. Dal punto di vista informatico invece si studiano oggi giochi più complessi degli scacchi, alcuni ben noti, come il Go, altri più moderni e pensati apposta per mettere in difficoltà i computer, come ad esempio uno che si chiama Arimaa. Esistono poi i programmi che imparano a giocare qualsiasi gioco, questo tema si chiama “general game playing”, ed è uno dei temi più attuali della ricerca in Intelligenza Artificiale.


percorsi IL TURCO Macchina creata nel 1769 dal Barone Wolfgang Von Kempelen (1734/1804) dopo sei mesi di lavoro, si dice per ‘far colpo’ sulla imperatrice austriaca Maria Teresa, di cui si era innamorato. La macchina era composta da una grossa scatola piena di ingranaggi, sopra la quale stava una scacchiera ed un manichino raffigurante un uomo vestito alla turca, con un turbante. Von Kempelen affermava che non vi era trucco, e le mosse venivano escogitate dalla macchina. Alcuni sportelli consentivano di vedere l’interno della macchina prima di iniziare la partita. In realtà, gli ingranaggi prendevano solo una parte dello spazio interno reale, lasciando il posto per una persona di piccola statura. Gli sportelli dimostrativi venivano aperti uno alla volta, dando modo alla persona all’interno di spostarsi all’interno della cassa per non

farsi vedere. Il giocatore all’interno della macchina vedeva le mosse dell’avversario di turno grazie a dei magneti (e questo fu comunque un capolavoro di ingegneria), le riportava su di una piccola scacchiera e poi comandava le braccia del manichino per fare la mossa. Per vedere utilizzava una candela, il cui fumo usciva dal turbante, e si mischiava al fumo dei candelabri che venivano messi vicino alla macchina. Dopo alcuni anni in cui non fu utilizzato, Il Turco venne riattivato da Von Kempelen che aveva bisogno di soldi. E fece una trionfale tournèe in Europa, esibendosi anche a Parigi e Londra e nel 1776 in Russia. Nel 1783 si esibì a Vienna per l’imperatore Giuseppe II e a

Parigi dove sconfisse Benjamin Franklin, poi nel 1786 sconfisse Federico il Grande di Prussia. Nel 1805 Von Kempelen morì, e l’automa venne acquistato da Johann Maelzel (1772/1838). Nel 1809 il Turco (con all’interno il maestro Allgaier) sconfisse Napoleone Buonaparte in sole 24 mosse. La macchina più tardi finisce in un museo cinese a Philadelphia, dove verrà bruciata da un incendio nel 1854.

Fonte: Federscacchi

91


GIUGNO 2015

L’acqua di mare & l’erba voglio

La cucina a modo mio: cucina trendy, facile o un po’ elaborata, ma alla portata di tutti e di tutte le situazioni. C’erano una volta: gli spaghetti gelée di zucchine e rucola con caviale di pomodoro e spuma al pecorino e menta.

di Luisa Giacomini cuoca per passione luisagiacomini.com

C’erano una volta... gli spaghetti di grano duro conditi con ricette classiche o creative di salse a base di ragoût di carne o verdure: una delle tante proposte dei primi piatti vanto dell’eccellenza della cucina italiana. Ora l’innovativa gastronomia molecolare, vanto della cucina internazionale, propone ricette decostruite partendo da elementi naturali per preparare gustosissime proposte culinarie, basate sull’originalità delle preparazioni e delle presentazioni ma anche sull’ispirazione della tradizione più classica. La cucina molecolare è una disciplina che si è sviluppata alla fine degli anni Ottanta all’INRA (Institut National de la Recherche Agronomique) presso il Collège de France di Parigi ad opera di Hervè This (fisico e gastronomo) e di Pierre Gilles de Gennes (Premio Nobel per la Fisica nel 1991); studi simili sono stati intrapresi anche da Nicholas Kurti (1908-1998, ricercatore di fisica ad Oxford in Inghilterra) e da Harold McGee (chimico alimentare negli USA). In Italia lo studioso di maggior spicco è Davide Cassi, del Dipartimento di Fisica dell’Università di Parma di Gastronomia. Nel 2003 il fisico Davide Cassi ed il cuoco Ettore Bocchia hanno redatto il Manifesto della Cucina Molecolare Italiana, che tende a preservare i sapori tradizionali italiani. Un famoso maestro della cucina molecolare è lo chef spagnolo Ferran Adrià Acosta. La ricetta che propongo è una ricetta facile per i neofiti di questa disciplina. Gli spaghetti sono un’elaborazione della decostruzione delle zucchine, della rucola, del pomodoro e così via. Un valido e interessante aiuto ci viene da Molecule-R. R-Evolution, è un brand che ha creato vari kit per i primi approcci della cucina molecolare e non solo; dagli antipasti ai condimenti, dai dessert ai cocktail molecolari: ogni proposta ha qualcosa di particolare e intrigante. Il Kit in questione è un oggetto di design venduto anche al Museo del Design e della Scienza di Londra. 92

Spaghetti gelée di zucchine e rucola con caviale di pomodoro e spuma al pecorino e menta Alcune note per la cucina molecolare Gli agenti chimici naturali possono essere usati per elaborare qualsiasi piatto o cocktail grazie a 4 tecniche in particolare. Tutte le tecniche elencate lavorano su composti liquidi e non solidi. Per decostruire, in questo caso, è necessario frullare bene tutti i preparati e lasciare da parte eventuali residui. Le misure sono state date in ml o in cup poiché si basano sul volume dell’alimento. Per calcolare gli ml di un cibo solido potete grattugiarlo o sminuzzarlo e inserirlo tranquillamente in un capacimetro fino a raggiungere gli ml desiderati. Nel caso della rucola ricordatevi di pressarla un po’ per far uscire l’aria.

Gelificazione degli spaghetti di rucola e zucchine Questa preparazione richiede l’utilizzo di diversi tubicini per la creazione degli spaghetti e dell’apposita siringa grande, si trova tutto nel kit o nei migliori negozi di casalinghi specializzati. Consiglio di procurarsi dei tubicini extra kit per abbreviare i tempi e l’acquisto ulteriore degli agenti chimici per la pratica.


Ingredienti

cucina

STILE LIBERO

x 8 persone: • • • •

475 ml di rucola (95 gr) 175 ml d’acqua 1 bustina o 2g di agar-agar AG 475 ml di zucchine: grattugiate con grattugia a fori larghi e dopo essere state private della parte centrale (170 gr) • 1 terrina di acqua freddissima (meglio se rinfrescata in congelatore) con 5-6 cubi di ghiaccio

Unite al frullato di pomodoro lo sciroppo di alginato; il rapporto che dovete mantenere è di 1:1, ovvero se avrete preparato 100 ml di salsa dovrete unirla a 100 ml di sciroppo.

Esecuzione

Raccogliete con una pipetta lo sciroppo mescolato al pomodoro e lasciate cadere delle piccole gocce nel bagno di calcio facendo attenzione a non farle unire, un po’ di pratica e poi riusciranno bene. Una volta finito mescolate con un cucchiaio forato e servite il vostro caviale di pomodoro.

Frullate la rucola assieme ai 175 ml d’acqua e alla bustina di agar-agar. Mettete il frullato in un pentolino, portate a ebollizione mescolando di tanto in tanto e contate 10 secondi. Mettete da parte e lasciate riposare per 10 minuti. Ripetete l’operazione con le zucchine grattugiate. Una volta raffreddati i due frullati di verdura, prelevate con la siringa il preparato da un pentolino. Inserite ora il beccuccio della siringa in un tubicino, facendo attenzione a non far fuoriuscire la gelée vegetale dall’altro capo, premete all’interno del tubicino il composto. Mettete il tubicino nell’acqua fredda della terrina e attendete 5 minuti. Uguale operazione con gli altri tubicini. Quando avrete terminato, passate all’altro frullato di verdura e ripetete le identiche fasi nuovamente. Sono sufficienti due spaghetti differenti a persona. Riempite di aria la siringa ritirando lo stantuffo, reinseritela nel tubicino ripieno di gelée, utilizzate la pressione per “sparare” delicatamente fuori lo spaghetto gelificato dal tubicino; continuate così per tutti gli spaghetti sino all’ultimo.

Sferificazione per il caviale di pomodoro Questa preparazione necessita di due passaggi fondamentali: uno per preparare il composto della sfera e un secondo per creare il bagno di calcio in cui si creeranno le perle. Per preservare appieno il sapore delle sfere, esse vanno servite entro 15 minuti dalla preparazione ma possono essere preparare fino a 24 ore prima e conservate nel bagno di calcio.

Ingredienti x 8 persone:

Per le sfere • 150 ml d’acqua • 1 bustina o 2g di alginato di sodio AS • 100 ml di frullato finissimo di pomodoro: 80 gr di pomodorini tagliati e spremuti dall’acqua di vegetazione e dei semi e 20 gr di concentrato di pomodoro Per il bagno di calcio • 1 lt d’acqua • 1 bustina o 5g di lattato di calcio LC

Esecuzione Mettete l’alginato di sodio in un pentolino con l’acqua e stemperatelo col minipimer. Mettete il pentolino sul fuoco, portate a ebollizione e contate fino a 20. Spegnete e lasciate riposare per 10 minuti.

In una terrina mettete la polvere di lattato di calcio, unite l’acqua e stemperare con il minipimer.

Emulsione per la spuma al pecorino e menta La spuma ha una durata di 30 minuti prima che inizi a disfarsi. Si può preparare la soluzione liquida fino a due giorni prima e conservarla in frigo.

Ingredienti x 8 persone:

• 300 ml d’acqua • 400 ml di pecorino grattugiato (circa 150 gr o 1 cup e 2/3) con grattugia a fori larghi • 20 g di foglie di menta • 1 bustina o 2 di lecitina di soia LS

Esecuzione Mescolate tutti gli ingredienti in una pirofila e frullateli con il minipimer. Versate il liquido in una pentola, portate a ebollizione mescolando di tanto in tanto e contando fino a 10 secondi. Mettete da parte e lasciate riposare per circa 10 minuti. Aiutandovi con il minipimer leggermente sbiego, incorporate quante più bolle d’aria per creare una spuma densa e gustosa. Raccoglietela con un cucchiaio, mettetela in un contenitore e continuate a montare il liquido rimasto fino a che non formerà più spuma. Mettete il contenitore in freezer per 15/20 minuti massimo. Su un grande piatto piano, impiattate con un paio di spaghetti di un bel verde brillante in contrasto, ponete una nuvola di sapida di spuma al pecorino e menta, esaltando il tutto con le perle del caviale di pomodoro a grappolo. Alla degustazione, avrete tutta la delicatezza, la freschezza ma anche la pienezza vivace dei sapori dell’orto in bocca.

Vino in abbinamento

Il gusto vivace della verdura cruda e del pecorino è mal sopportato dal vino ma uno Spumante Rosé dell’Oltrepò Pavese potrebbe dare il giusto tocco di vivacità alla preparazione. 93


CHECK POINT

THREAT EXTRACTION ZERO MALWARE IN ZERO SECONDS Check Point Threat Extraction eliminates malware contained in emailed and web-downloaded documents. Exploitable content including active content and various embedded objects are removed and files are reconstructed using known safe elements.

W E W E

S E C U R E S E C U R E

T H E T H E

F U T U R E F U T U R E

W E

S E C U R E

T H E

F U T U R E


La ninfea Il fiore galleggiante che decora i nostri laghetti CARLA SBICEGO

ufficioverde STILE LIBERO

redazione@logyn.it

Per gli antichi greci rappresentava l’amore platonico, in Oriente simboleggia l’alba e l’arrivo del sole, in Occidente è sinonimo di purezza e ammirazione. Stiamo parlando della ninfea, un fiore profumato molto amato e conosciuto, un raggio di sole all’interno del nostro giardino aziendale. Voglio dedicare questo articolo alle aziende che hanno la fortuna di avere un laghetto artificiale annesso alla fabbrica, gradevole per rilassarsi nelle pause di lavoro, e che aiuta l’ambiente (soprattutto gli uccelli ma tutti gli animali in genere), già messo a dura prova dalle costruzioni industriali, a rigenerarsi. Così posso scrivere su una delle piante preferite per decorare gli specchi d’acqua: la Ninfea. La Ninfea è un meraviglioso fiore acquatico, molto grande e decorativo e che non richiede cure eccessive. Tutta la pianta si sviluppa completamente sommersa, le radici rizomatose affondano nel terreno. I fusti sono lunghi quanto è profonda l’acqua, le foglie si sviluppano sott’acqua per poi galleggiare

quando raggiungono la superficie. I fiori sono di svariati colori: bianco, giallo, rosa, rosso, viola, in tutte le gradazioni. La maggior parte delle specie sboccia all’alba per richiudersi al tramonto. Fiorisce da maggio a settembre. In Oriente simboleggia l’arrivo del sole. Nel linguaggio dei fiori significa purezza e castità, ma anche ammirazione. Per gli antichi greci era il simbolo dell’amore platonico, la consideravano una pianta antiafrodisiaca. Ho trovato una leggenda, che riporto: Una Ninfa bellissima viveva presso un lago, un raggio di sole la vide e si innamorò perdutamente di lei, scese dal cielo e le si avvicinò. Il raggio era vestito con un abito tutto d’oro e la Ninfa si

95


GIUGNO GIUGNO 2015 2015

vergognò del suo semplice abbigliamento. Sentendosi mortificata scese in fondo al lago, dove sapeva essere nascosto un immenso tesoro, per vestirsi anch’essa d’oro.

in punti profondi almeno mezzo metro ma non più di due metri, zavorrando con dei sassi per ancorare il cestino al fondo dello specchio d’acqua.

La Ninfa raccolse l’oro dal fondo del lago, ma era così pesante che la trascinò giù. Sprofondò e fu ricoperta dal fango, solamente le sue mani piene d’oro rimasero visibili. Il raggio cercò a lungo la sua amata Ninfa, ma di lei rimanevano solo le sue mani trasformate in bellissimi fiori, che si aprivano quando lui sorgeva e si richiudevano quando tramontava.

La coltivazione non è difficile, la Ninfea è una pianta rustica che sopravvive anche al freddo, sempre che l’acqua non geli completamente. A fine stagione andrà in letargo nel fondo. Per le cure annuali sarà sufficiente l’eliminazione di foglie e fiori che stanno marcendo la potatura se la pianta diventa troppo invadente. Non ha neanche parassiti, a parte raramente gli afidi che è possibile combattere lavando le foglie con un getto d’acqua fino a staccare i pidocchietti e, se necessario, “annegandoli” con una rete che tenga le foglie sott’acqua per qualche giorno.

Per fiorire la Ninfea ha bisogno di posizione soleggiata e temperature abbastanza alte (20/25 gradi). Serve sufficiente spazio, fiori e foglie arrivano a coprire anche un metro e mezzo di superficie. Fiorisce da maggio a settembre e la fioritura è direttamente proporzionale alle ore di sole. La messa a dimora va fatta sott’acqua, tra aprile e maggio. Le nuove piantine si ricavano tagliando i rizomi dalla pianta madre, facendo attenzione a conservare una gemma per ogni rizoma. I rizomi vanno interrati in vasi forati pieni di terriccio argilloso mescolato a sabbia e reso fertile con letame. In commercio si trovano già pronte, predisposte in pratici contenitori. Trattandosi di laghetti artificiali i contenitori andranno sistemati 96

Innaffiature: può sembrare strano parlare di innaffiare le piante acquatiche, ma in caso di estate troppo calda la temperatura dell’acqua può diventare eccessiva causando evaporazione; sarà quindi necessario ripristinare l’equilibrio del laghetto. Se usiamo acqua con cloro bisognerà lasciarla depositare qualche giorno. Per finire: stiamo attenti alle zanzare, l’acqua stagnante è il loro regno. Non usiamo veleni, sono sufficienti dei pesciolini per eliminare il problema!


fumetti

STILE LIBERO

La matita di Sue

97


N. 10 - Giugno 2015 pubblicazione bimestrale Registrazione Tribunale di Treviso n. 201 del 09/11/2012 ROC n. 22990/2012 direttore responsabile Leonardo Canal coordinamento editoriale Dora Carapellese responsabile organizzativa Giovanna Bellifemine hanno collaborato Gian Nello Piccoli, Stefano Moriggi, Stefano Biral, Attilio Cuccato, Alberto Tronchin, Alessio Voltarel, Diego Tosato, Sara Cappellazzo, Valentina Cambareri, Marco Ziero Riccardo Girotto, Valentina Ginestri, Ruggero Paolo Ortica, Lisa Regazzo, Lucia Bressan, Andrea Manuel, Carla Sbicego, Luisa Giacomini, Sue Maurizio. realizzazione grafica Franco Brunello segreteria e sede operativa Via Newton 21, 31020 Villorba (TV), telefono 0422.628711, fax 0422.928759 redazione@logyn.it editore Eurosystem S.p.A., via Newton 21, 31020 Villorba (TV) redazione@logyn.it per la pubblicità e per i numeri arretrati Eurosystem S.p.A., via Newton 21, 31020 Villorba (TV), telefono 0422.628711 redazione@logyn.it stampa Trevisostampa Srl Via Edison 133, 31020 Villorba (TV) telefono 0422.440200 info@trevisostampa.it Nell’eventualità in cui immagini di proprietà di terzi siano state qui riprodotte, l’Editore ne risponde agli aventi diritto che si rendano reperibili. Porrà inoltre rimedio, su segnalazione, a eventuali involontari errori e/o omissioni nei riferimenti.


E N I F REDE

HYBRID CLOUD


Logyn n. 10 un traguardo, un sogno, una realtà. Anche grazie a Voi.

®

tecnologie informatiche

per l’impresa


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.