5 minute read

DIGITAL TRANSFORMATION & BIG DATA

Massimo Nannini*

Da qualche tempo e sempre più spesso la parola digitalizzazione è entrata prepotentemente nelle nostre case e soprattutto è diventata un lessico di uso comune. Digitalizzare signifca trasformare i fenomeni ed eventi che di per sé sono analogici in digit cioè in cifre o meglio in numeri.

Advertisement

Il concetto di digitalizzazione ha radici storiche legate alla nascita degli elaboratori elettronici che basano il loro funzionamento sull’algebra Booleana ove le variabili possono assumere solo due valori, vero o falso. Per questo motivo i numeri derivati dalla digitalizzazione dei processi analogici devono essere descritti secondo questa rappresentazione per potere essere calcolati. Tutto quanto debba essere elaborato da un dispositivo elettronico programmabile deve dunque essere prima di tutto digitalizzato, cioè trasformato in una sequenza di bit (livelli logici 0 ed 1) e diventare così i dati di ingresso per la successiva elaborazione atta ad estrarre il “signifcato” intrinseco ai dati e cioè l’informazione cercata. La trasformazione digitale o Digital Transformation ha come primario ed immediato risvolto la generazione di dati raccolti attraverso il processo di digitalizzazione della realtà allo scopo di creare un modello della stessa in grado di rappresentarne il comportamento e l’evoluzione temporale. Questo modello viene identifcato con il nome Digital Twin, nome che bene ne coglie l’essenza in quanto come un gemello in carne ed ossa ne ricalca l’aspetto esteriore ma anche e soprattutto i comportamenti Tanto più accurato deve essere il modello da creare tanto più preciso deve essere il sistema di campionamento da utilizzare per raccogliere i dati essenziali a ricostruire digitalmente la realtà e tanto più la realtà è complessa tanti più dati si dovranno raccogliere per descriverla ed essere così in grado di elaborare previsioni sulla sua evoluzione temporale. Un semplice esempio di questi concetti lo possiamo toccare con mano tutte le volte che ci accingiamo a scattare una fotografa con una qualunque dispositivo digitale. Tutti sappiamo che più è alta la risoluzione in termini di pixel tanto più la nostra foto sarà “reale” sia in termini di accuratezza dei dettagli sia in termini di resa cromatica. Proviamo ora a ingrandire l’immagine ottenuta e ci accorgeremo immediatamente che tanto più aumentiamo la scala di ingrandimento tanto più andremo a perdere in nitidezza cioè in accuratezza dei particolari. Questo effetto è proprio dovuto al limite del campionamento della realtà analogica che abbiamo modellato attraverso un suo gemello digitale che non è altro che l’immagine acquisita dalla nostra camera digitale. Maggiore risoluzione signifca maggiore quantità di pixel, maggiore realismo cromatico signifca una gamma di colori più estesa, tutto tradotti in numeri binari per cui bit che andranno a formare un modello digitale dell’immagine da salvare. Questo piccolo esempio ha il solo scopo di introdurci al semplice concetto, tanto più i sistemi da modellare sono complessi tanti più dati occorrono per renderli “reali”, da qui il passo per arrivare al concetto Big Data è breve. Cosa sono allora i Big Data?

I Big Data sono anch’essi dati ma di enormi dimen-

sioni. Big Data è un termine usato per descrivere una collezione di dati, enorme in dimensione, ma che cresce esponenzialmente nel tempo. In breve questi dati sono così grandi e complessi che i tradizionali tools di gestione non sono in grado di memorizzarli né tanto meno processarli effcientemente. Esempi di Big Data o meglio generatori di Big Data possono essere per esempio i social network, ove da statistiche effettuate, si può evincere che più di 500 terabytes (1012 byte) di nuovi dati vengono generati per esempio da Facebook ogni giorno, oppure dal mercato azionario ove vengono generati circa 1 terabyte ogni giorno, oppure ancora un singolo motore di aereo può generare fno a 10 terabyte ogni 30 muniti di volo il che signifca che migliaia di voli aerei ogni giorno possono generare una quantità di dati dell’ordine del Petabytes (1015 byte). Da una analisi condotte dal Cefriel (Centro di innovazione digitale fondato dal Politecnico di Milano) e da IBM, emerge che ogni giorno vengono generati circa 3 quintiglioni di byte (1018 byte) una quantità enorme mai vista fno ad oggi, ma quello che impressiona di più è che il 90% dei dati oggi disponibili sono stati generati negli ultimi 2/3 anni. Questa smisurata quantità di dati raccolti rappresenta un enorme valore per le aziende, ma anche per la nostra società, tuttavia come si può ben capire i soli dati non sono suffcienti a creare valore, è necessario applicare ad essi algoritmi in grado di trasformare i dati raccolti in informazioni, argomento di cui abbiamo già parlato.

È proprio sulle capacità di creare algoritmi sempre più sofsticati in grado da un lato di elaborate enormi quantità di dati e dall’altro di trarre le adeguate informazioni atte a prevedere i comportamenti futuri dei processi da analizzare, che si gioca la partita competitiva tra le più importanti aziende informatiche mondiali.

Questo apre la porta sul mondo dell’Intelligenza Artifciale e del Machine Learning, argomenti che sicuramente affronteremo su queste pagine, ma i risultati di questo lavoro sono già evidenti nei vantaggi che queste tecnologie portano. Il vantaggio competitivo delle aziende si gioca oggi sulla capacità di investire su queste tecnologie e dunque diventare Data Driven Decision Making Companies cioè realtà in cui le strategie di business, l’ottimizzazione dei processi e dei prodotti, vengono valutate tenendo conto delle “proposte” generate dagli algoritmi. Effetti importanti si possono vedere per esempio nella gestione dei processi produttivi ove la presenza di sistemi IIOT in grado di acquisire grandi quantità di dati in tempo reale sull’andamento del processo e sulla qualità dei prodotti, se affancati da algoritmi di AI, possono prevedere in anticipo eventuali problemi ed evitare fermi di produzione per guasti ai macchinari. Oppure ancora sulla gestione del servizio di assistenza clienti affancando Big Data e tecnologie in grado di elaborare il linguaggio naturale per leggere e valutare le risposte dei clienti. Per ultimo come non considerare le possibili implicazioni dell’accesso ai dati generati dagli utenti dei social network quali per esempio Facebook o Twitter per decifrare gli orientamenti sui “bisogni” ed i “desideri” di acquisto per impostare correttamente campagne pubblicitarie mirate o prodotti personalizzati fno a creare nuovi bisogni.

*Massimo Nannini, Ingegnere elettronico e libero professionista esperto di software per l’industria, Massimo Nannini si occupa di consulenza informatica, project management e formazione di impresa. Contatti Email: info@gemaxconsulting.it www.gemaxconsulting.it

This article is from: