MindUp Qualità & Organizzazione
Sistemi
Governance
Messa
Sviluppo ed allineamento Management
Sviluppo SMART delle risorse umane
massimo.fucci@pentaconsulting.it
In un contesto caratterizzato da dinamiche veloci, al fine di lavorare sempre meglio, ci siamo certificati UNI EN ISO 9001 - 2015. Quanto ci abbiamo messo? 21 giornate in un arco temporale che è andato da fine agosto al 12 dicembre. La certificazione è avvenuta al primo esame.
Pentaconsulting ha conseguito il riconoscimento per operare in termini di sistema di qualità!
Perché sento il bisogno di esternare l’accaduto… Per una serie di considerazioni che penso possano essere utili anche ad altre aziende ad ai loro Manager.
Un risultato ottenuto in così breve tempo grazie a tre fattori fondamentali. Il primo, la volontà da parte del management apicale di voler operare in un ambito trasparente, tracciabile, predittivo.
Il secondo, l’applicazione di una metodologia innovativa per la progettazione e la realizzazione di un Sistema Qualità Integrato che, oltretutto, ne ha velocizzato la messa in opera sul campo. Abbiamo utilizzato le Mappe Mentali secondo la nostra metodologia proprietaria MindUp. Uno strumento portentoso in grado di gestire complesse relazioni tra funzioni e dati e tra modelli ed operatività. Il risultato: abbiamo generato un ecosistema di circa 100 mappe correlate
tra di loro, che ci ha consentito una grandissima gestibilità e padronanza (Mastering) del Sistema integrato qualità in un rapporto uno a dieci in termini di tempo.
Il terzo, non meno importante, tanto da richiedere una riflessione: non si è di sviluppato un sistema di qualità integrato per prendere il prestigioso bollino, ma per poter trarre benefici e vantaggi competitivi effettivi. Un ecosistema in cui: gestire e strutturare le operation di azienda e le inevitabili variazioni richieste in corso d’opera, pianificare e misurare le attività di sviluppo, gestire e risolvere le situazioni che generano un problema, un reclamo, un ritardo, una perdita di margine, un conflitto interno o con un sub fornitore o, peggio, con un cliente o potenziale cliente. Un paio di giorni dopo la certificazione, abbiamo dovuto affrontare un problema, lo abbiamo risolto in brevissimo tempo applicando il nostro Sistema di Qualità integrato con le persone e le loro attività effettive.
Una domanda mi sorge spontanea… ma le aziende (i loro Manager) sanno quanto costa mantenere il sistema qualità e non utilizzarlo come reale strumento aziendale?
È ben chiaro a quali benefici sono costretti a rinunciare.
Comprendono che operare in contesti strutturati e gestiti incrementa l’efficacia aziendale e la capacità di competere? A Voi la risposta, rimediare è semplice: capire e agire!
La certificazione non è un mero bollino, ma un vero e proprio fattore critico di successo
E
La certificazione non è un mero un bollino, ma un vero e proprio fattore critico di successo.
24
Errare è umano. Capitalizzare gli errori è da Manager-Leader
Sistemi
Focus dittoriale
Pentaconsulting Srl Piazza Caiazzo, 2 - 20124 Milano Tel. 02 39523808
Direttore Responsabile
Massimo Fucci
massimo.fucci@pentaconsulting.it
Progetto Grafico
mcquadro studio creativo campanagrafica@gmail.com
duemila
10
Il valore prodotto dalle attività no-profit: reale e tangibile
Tecnologie quantistiche IA e implicazioni geopolitiche
20
Qual è la sfida per una Data Governance a supporto delle decisioni
Sotto la Lente
OT e Cybersecurity un contesto da affrontare con decisione e investimenti
Intervista
Abbattere i costi di realizzazione dei prodotti, spesso la miniera è già in azienda
Innovazione
Intelligenza Artificiale a supporto delle imprese: vantaggi, ostacoli e falsi miti
Richiedi l’approfondimento degli argomenti
Errare è umano.
Capitalizzare gli errori è da Manager-Leader di MASSIMO FUCCI
Gli errori fanno parte della realtà di ogni azienda e di ogni persona.
Nelle aziende di successo si è sviluppata la cultura della gestione dell’errore.
Un modus operandi da cui si comprende come e quanto si è in grado di gestire (mastering) le persone e il loro sviluppo. Una cultura che deve vedere la presenza di manager-leader.
Per quanto si possa essere efficaci ed organizzati non è possibile evitare ex ante errori e/o incidenti di percorso.
Focus
IManagerLeader si concentrano sul capire perché è successo qualcosa, cercando di identificare la causa principale di un problema e le concause.
Siamo onesti, a tutti è capitato di dover gestire errori commessi dai propri collaboratori, dai collaboratori di altre divisioni, da un subfornitore e, perché no, da un cliente. Facciamo mente locale (riflettiamo a freddo) circoscriviamoci agli errori interni, quante volte, spesso sulla spinta di una reazione iniziale, abbiamo messo in opera una caccia al colpevole e, una volta individuato, è partito tutto il nostro biasimo, con annessi e connessi.
Siamo ancora più onesti, quante volte questo nostro comportamento ha avuto una ricaduta positiva sulle persone, sul modo di operare, e, quindi, sull’azienda. E, non ultimo, quante volte ha evitato che la situazione si ripetesse nel tempo? Rispondiamoci, riflettendo per qualche minuto. Se la risposta è quasi mai, allora, da Manager dobbiamo iniziare a comportarci da Manager-Leader e comprendere quale cambiamento vada introdotto nella cultura e nella gestione degli errori. Almeno questo ci è noto: se non si cambia strategia con le persone, non ci si può aspettare un loro cambiamento in positivo, e, quindi un miglioramento dell’ambiente collaborativo aziendale.
Il modo in cui i Manager reagiscono influenza direttamente la cultura di un’organizzazione, nel bene e nel male. Infatti, il biasimo porta a puntare il dito, al risentimento, alla sfiducia e a comportamenti improduttivi. Inoltre, può causare la
stagnazione di un’organizzazione.
Al contrario, agire senza colpevolizzare crea un ambiente di apprendimento e crescita in cui i dipendenti riconoscono che gli errori fanno parte del processo e che i loro sforzi sono apprezzati. Per essere vincenti va incoraggiata la cosiddetta cultura senza colpe dirette. Il che non include le situazioni di dolo conclamato e la perseveranza continua dei fatti, anche in caso di precedente gestione intelligente degli errori.
In questo contesto che guarda avanti, i Manager- Leader si concentrano sul capire perché è successo qualcosa, cercando di identificare la causa principale di un problema e le concause.
I manager-leader della cultura senza colpe riconoscono di essere parte del sistema, quindi si assumono la responsabilità dei propri errori, come ad esempio comunicare in modo insufficiente sulla questione ola definizione di flussi imprecisi.
Questo incoraggia i dipendenti a parlare apertamente degli errori e a utilizzarli come opportunità di apprendimento, invece di nasconderli per paura di essere puniti.
Riconoscendo che gli errori sono inevitabili, le organizzazioni permettono ai dipendenti di sperimentare e rischiare senza temere punizioni o imbarazzo.
Questo incoraggia la risoluzione
creativa dei problemi, la collaborazione e l’innovazione.
Ecco un primo insieme di punti cardine che possono aiutare a capitalizzare gli errori e andare avanti in un contesto di miglioramento continuo e di sviluppo delle persone:
1. Riformulare gli errori come opportunità per comprendere e per migliorare i processi, per migliorare noi stessi ed i rapporti con lee persone
2. Strutturare un percorso di miglioramento che coinvolga il diretto/i diretti interessati
3. Ridefinire processi e documenti standard di riferimento per evitare che si ripropongano le condizioni di errore
4. Definire le best practices per la gestione degli errori
5. Nel definire gli obiettivi introduciamo: la gestione dell’errore
6. Evitare la cultura della competenza su di una sola persona
7. Creare una cultura di domande aperte e di partecipazione
8. Sviluppare un processo di segnalazione degli errori
9. Assicurarsi che i team / le persone siano stati adeguatamente formati
10. Introdurre gli opportuni programmi di coach
Questo approccio crea fiducia all’interno dell’azienda, sviluppa la figura del Manager-Leader e può portare a una migliore capacità di identificare i rischi e, quindi, di affrontarli più rapidamente, grazie al corretto coinvolgimento delle parti interessate e al cambiamento delle condizioni al contorno in essere.
In conclusione, gli errori rappresentano un’ottima opportunità di apprendimento e le organizzazioni di maggior successo riconoscono l’importanza di imparare dagli errori. Apportano i miglioramenti condivisi e ne misurano l’impatto in un contesto in cui tutti collaborano e si sentono un po’ artefici del successo per raggiungere la
soluzione dei problemi ed il miglioramento dell’operatività.
Alla fine, la domanda potrebbe sorgere spontanea: quanto sono Manager-Leader?
La capacità di gestire gli errori... potrebbe essere un primo indicatore.
Il valore prodotto dalle attività no-profit: reale e tangibile
In una recente intervista televisiva l’economista Jean-Paul Fitoussi osservava che, quando un avvocato sposa la sua domestica, il PIL cala: infatti, lui smette di retribuirla.
Evidentemente il PIL è una misura molto limitata del valore generato dal lavoro, perché si basa sull’esistenza di una retribuzione, mentre il valore del lavoro è legato al risultato dello stesso, e non a una transazione economica.
Risultato: alla misura attraverso il PIL sfuggono tutte quelle attività, come quelle del Terzo Settore, che si basano largamente sul volontariato.
Possiamo misurarle? Possiamo valutare la ricchezza prodotta da tutte quelle attività che non presentano un corrispettivo economico basato sullo scambio di denaro?
La risposta è: sì, possiamo.
Ed è quello che ha fatto un gruppo di lavoro organizzato dall’amministrazione del comune di Caronno Pertusella (VA), mettendo
a punto il cosiddetto Bilancio in Valore, che ha permesso di misurare economicamente il valore generato dalle associazioni no-profit presenti sul suo territorio. UN ESEMPIO.
Supponiamo che una struttura prepari dei pasti da vendere alla popolazione, che produca 5.000 pasti all’anno, con i seguenti costi: 10.000 euro di materie prime, 30.000 euro di remunerazione agli addetti, 5.000 euro di affitti e utenze, 5.000 euro di ammortamento di impianti; il costo totale di 50.000 euro può essere coperto vendendo ogni pasto a 10 euro. Il cliente paga la merce quanto essa costa, e non ha alcun vantaggio, e la struttura ha costi pari ai ricavi, quindi non ha alcun utile.
Cosa succede se il lavoro è svolto da volontari? Il valore dei pasti non può essere diverso, e resterà di 50.000 euro, ma, per mantenere il pareggio di bilancio, sarà sufficiente far pagare un pasto 4 euro, invece che 10. Ovvero, la comunità riceve un valore di
ClubIBE
50.000 euro a fronte di una spesa di 20.000. i restanti 30.000 euro sono un valore generato per la comunità.
IL BILANCIO IN VALORE
Il metodo di calcolo sopra esemplificato è stato articolato con molta attenzione per vari tipi di servizi e prodotti offerti dal Terzo Settore: in sostanza si sono individuati due principi:
Se esistono servizi e prodotti confrontabili già disponibili sul mercato, quello è il loro valore: sottraendo a tale valore il costo che il fruitore finale deve sopportare si ha il valore netto generato, regalato alla comunità;
Se non esistono sul mercato servizi o prodotti confrontabili, sarà sufficiente operare il calcolo dei costi che si dovrebbero sopportare per la loro generazione, in assenza di volontariato e sponsor o benefattori, e sottrarre a questo quanto pagato dai fruitori.
Si ottiene in tal modo quel valore, misurato in termini economici, di quanto sfugge al calcolo del PIL.
LE ESPERIENZE
Il metodo, validato attraverso verifiche con docenti di Pubblica Amministrazione e con altri sogget-
ti coinvolti nella sistematizzazione delle regolamentazioni del Terzo Settore, è stato applicato all’insieme di associazioni no-profit del territorio di Caronno Pertusella (una quarantina) producendo un risultato sorprendente: il Comune (di circa 18.000 abitanti) presenta un bilancio annuo di circa 16 milioni di euro, e il valore generato dalle associazioni è circa di 2 milioni e mezzo di euro, pari a circa il 16% del bilancio!
Ovviamente, le associazioni sono estremamente diversificate, accanto ad alcune di piccola dimensione, che producono valori contenuti (si pensi a un’associazione che tiene corsi di pittura), altre hanno un forte impatto sul territorio (si pensi ai centri Auser, per l’invecchiamento attivo), ma un dato è rilevante: il valore medio generato da quella quarantina di associazioni risulta superiore ai 65.000 euro annui.
In un recente convegno tenutosi proprio sul Bilancio in Valore, Maurizio Ampollini (direttore di CSV Insubria) ha indicato in oltre 360.000 il numero di associazioni no-profit in Italia: se il valore medio misurato a Caronno Pertusella fosse una caratteristica di tutto il territorio, si tratterebbe di un valore generato superiore ai 23 miliardi di euro!
INIZIATIVE FUTURE
Il gruppo di lavoro si è esteso ad altri enti come i CSV, e insieme stanno lavorando per diffondere la pratica del Bilancio in Valore, anche perché da queste misure è possibile fornire degli strumenti di supporto alle decisioni da mettere a disposizione delle amministrazioni locali, per indirizzare eventuali contributi.
Non solo, l’associazionismo produce anche un valore, più difficilmente misurabile (ma su cui si sta lavo-
rando) anche per il futuro; a titolo di esempio, la Comunità Europea fornisce dati sul miglioramento dello stato di salute di chi pratica con continuità attività sportive non agonistiche: quanto la presenza di associazioni dedicate a ciò può ridurre i costi della sanità pubblica? È possibile dare qualche risposta alla domanda, su base statistica.
Ma non dimentichiamo una cosa forse più importante: le attività legate all’associazionismo sono certamente legate al piacere della partecipazione e della socializzazione. Come recita il titolo di un libro sul tema1: quanto vale un’ora di gioia?
NOTE
IlPIL è una misura molto limitata del valore generato dal lavoro, perché si basa sull’esistenza di una retribuzione, mentre il valore del lavoro è legato al risultato dello stesso, e non a una transazione economica.
Tecnologie quantistiche IA e implicazioni geopolitiche
Computer quantistici e intelligenza artificiale sono il binomio da tenere sotto la lente.
Il binomio è all’attenzione di tutte le super potenze che stanno investendo e non poco nella ricerca e sviluppo.
Ancora una volta Europa e Italia si rivelano fanalini di coda e debbono cambiare marcia a fronte di una comprensione della reale importanza in gioco.
Un contesto che andrà ad inficiare, e non poco, gli equilibri geopolitici mondiali e quindi, il nostro quotidiano.
ClubIBE
Prendo spunto dal successo planetario di chatGPT, che ha reso palese a tutti quanto sia importante e ineludibile l’uso consapevole e strutturato dell’Intelligenza Artificiale. Non c’è impresa che possa disinteressarsi dell’Intelligenza Artificiale: ritengo molto probabile che entro il 2030 ci saranno solo due tipi di imprese: quelle scomparse e quelle che faranno uso intensivo dell’IA. E stiamo parlando solo dell’IA che usa algoritmi classici. Cosa succederà allora quando arriveranno i computer quantistici?
I miglioramenti in termini di velocità e di gestione dati saran-
no senza precedenti. I computer quantistici saranno rapidissimi nel calcolo che coinvolge grandi matrici, e tutti gli algoritmi che hanno a che fare con grandi basi di dati che si scontrano con la gestione di grandi matrici. In fin dei conti gli algoritmi tipo GPT hanno portato a questo grande progresso nell’IA proprio perché sanno gestire una miriade di dati pescati da grandi database, in maniera efficiente.
L’IA Quantistica può migliorare i risultati perfezionando le tecniche attuali; i progressi si estenderanno alla chimica e alla scienza dei materiali dove le tecniche dell’IA
Quantistica saranno utilizzate per simulare reazioni chimiche e prevedere le proprietà di nuovi materiali, e questo a lungo termine porterà a una rivoluzione nel campo della scoperta di nuovi farmaci e materiali. Ciò farà comprendere a tutti che ci troviamo in una nuova era: l’era della creazione, di cui adesso siamo solo agli inizi.
I calcolatori quantistici e l’intelligenza artificiale quantistica potranno essere impiegati per migliorare la modellizzazione climatica, cruciale in futuro perché potremo prevedere con maggiore precisione i fenomeni climatici e metereologici e mitigarne significativamente i possibili effetti distruttivi.
Altre importanti applicazioni saranno la risoluzione di problemi pratici di ottimizzazione nella logistica, nelle catene di approvvigionamento e nei processi di produzione. Inoltre, il nuovo paradigma di calcolo sarà utile anche al settore finanziario per identificare tendenze, fare previsioni e valutare i rischi.
Ma vi è un’area in cui il computer quantistico potrebbe portare a grandi tensioni geopolitiche: si tratta del settore della criptografia. Un computer quantistico pienamente funzionante potrebbe in pochissimo tempo violare le chiavi criptografiche asimmetriche con cui vengono criptati la maggior
parte dei documenti governativi e industriali che contengono informazioni riservate. Mentre un computer classico impiegherebbe 300 trilioni di anni per decifrare le chiavi crittografiche a 2.048 bit oggi in uso, un computer quantistico potrebbe farlo in una manciata di secondi. Bisognerebbe infatti già da ora criptare i dati con metodi post-quantistici, per evitare che chi oggi si sta impossessando di dati criptati li possa decifrare in futuro. Anche in questo campo l’IA quantistica è chiamata a svolgere un ruolo importante nel formulare algoritmi di crittografia più sicuri.
Infine, non è da escludere che grazie ai computer quantistici si arrivi a realizzare un’Intelligenza Artificiale Generalizzata, arrivando così a sistemi che avranno il potenziale per pensare e imparare - quasi- come gli umani, portandoci a nuove ed entusiasmanti scoperte in tutte le discipline e soprattutto nella robotica.
A tale proposito è importante che i calcolatori quantistici siano sia miniaturizzabili sia in grado di operare a temperatura ambiente, ed è per questo motivo che sono convinto che una delle strade più promettenti sia quella dei computer quantistici fotonici.
Entro questo decennio riusciremo a risolvere problemi che oggi non hanno soluzioni in tempi ragionevoli su un calcolatore classico. Ciò
ClubIBE
La sfida per l’Europa non sarà quella di favorire l’emergere delle start-up, quanto di mantenerle.
che oggi richiederebbe anni o addirittura migliaia di anni sarà risolto in pochi minuti.
Non vi racconto cosa sono i computer quantistici perché vi sa rispondere benissimo chatGPT; mi limiterò a fare alcune considerazioni su investimenti, geopolitica e tecnologie. Cose su cui è più difficile far parlare chatGPT, ma solo perché è necessario formulare in maniera più precisa la domanda.
ChatGPT, infatti, è utile se si sa cosa cercare e quale sia la vera domanda a cui deve rispondere; come dire che “non si sa quello che non si sa”.
Molti Stati, e la lista è lunga anche se purtroppo manca l’Italia, stanno rivolgendo sempre più la loro attenzione allo sviluppo di computer quantistici per ottenere un vantaggio in termini di cybersecurity, di intelligence e di competitività del sistema industriale. I computer quantistici sono macchine altamente avanzate, e molti di questi Stati temono la loro capacità di decrittografare, che oltre alle implicazioni per la privacy, la sicurezza e i segreti industriali porta anche al rilevamento delle capacità militari.
È sulla base di queste preoccupazioni che si sta intensificando la competizione geopolitica per la supremazia quantistica. In questa gara tra grandi Stati, che stabilirà una leadership entro il 2030,
l’Italia è , come succede spesso per le competizioni tecnologiche ai margini, anche se non lo è per la qualità della ricerca e dei ricercatori.
La competizione è guidata da USA, Inghilterra, Cina e nell’area Europea da Francia, Germania, Olanda e Svizzera. Ai confini dell’Europa abbiamo la Russia e Israele e nell’area asiatica Giappone, Taiwan, Corea, India, Singapore e Australia. L’Italia è dunque l’unico paese del G7 a non avere un programma specifico sulle tecnologie quantistiche, anche se in parte ci pensa l’Europa con la Quantum Flagship che però ha il difetto dei programmi europei, troppo frammentati per competere con due giganti della tecnologia come USA e Cina.
L’Europa è comunque abbastanza ben posizionata nella corsa quantistica globale. Questo dovrebbe permetterle di non rimanere intrappolata nella sfida tra America e Cina, che molto probabilmente porterà alla restrizione all’esportazione di queste tecnologie. Bene fanno pertanto a investire nel settore Francia e Germania, così da evitare quello che è successo durante la guerra fredda quando gli USA hanno imposto un embargo sull’esportazione di apparecchiature informatiche all’avanguardia in Francia, per timore che la tecnologia potesse cadere nelle mani sovietiche.
La sfida per l’Europa non sarà quella di favorire l’emergere delle start-up, quanto di mantenerle. Tipicamente, in Europa le start-up più promettenti non crescono a causa di un capitale di rischio inadeguato. Quello che è successo finora sul versante tecnologico ne è una dimostrazione, basti ricordare chi ha acquisito Arm o DeepMind e dove si sia ricollocata Psi Quantum. Le società si spostano dove ci sono i capitali di rischio e questi si trovano ancora in grande maggioranza negli USA.
Per contrastare questo rischio sono state lanciate in Europa diverse iniziative nelle tecnologie emergenti, con l’obiettivo di costruire una “sovranità tecnologica” europea. Dietro queste iniziative c’è tuttavia un problema che anch’io ho toccato con mano quando mi occupavo di realizzare e vendere supercalcolatori in Europa: le norme dell’UE sugli appalti non favoriscono necessariamente i fornitori europei, in
contrasto con il “Buy American Act” statunitense. Quello che ho notato è che gli Stati membri dell’EU sono riluttanti a favorire i fornitori di tecnologia europei quando esistono opzioni straniere solo un po’ più avanzate o più economiche, cosa che ho visto fare alla Germania e non credo sia un esempio isolato. Bisognerebbe dunque cambiare gli strumenti per gli appalti e introdurre un principio di reciprocità o un “Buy Europea Act”.
I computer quantistici e l’intelligenza artificiale quantistica cambieranno il mondo per sempre e cambieranno in meglio la vita di tanti, in tanti modi. Siamo ancora nella fase di sviluppo di questa tecnologia, e potrebbero volerci degli anni, ma arriverà il momento in cui essa diventerà praticabile, e allora il nostro mondo si trasformerà.
Considerando la mole degli investimenti nel settore, mi viene da dire che la nuova frontiera non
quantistica cambieranno il mondo per sempre e cambieranno in meglio la vita di tanti, in tanti modi.
è l’esplorazione dello spazio ma l’esplorazione del molto piccolo. La nuova “corsa allo spazio” è dunque dentro la Terra e non fuori. La nuova frontiera è il mondo quantistico a milioni di miliardesimi dal metro. Parafrasando il grande fisico Richard Feynman, c’è un universo da esplorare e da comprendere nel molto piccolo. Ed è da lì che si potrà costruire il nostro futuro, anche quello spaziale.
I computer quantistici e l’intelligenza artificiale
Qual è la sfida per una Data Governance a supporto delle decisioni
In un contesto data driven il binomio tempo di estrazione/qualità dei dati è un fattore cruciale per prendere le giuste decisioni.
Una soluzione è rappresentata dalla corretta definizione e utilizzo di pipeline di dati, da uno strumento che integra i dati per fornire informazioni fruibili in tempo reale,
basata su un processo ripetibile, ma con una verifica -nel tempo- della qualità di input output in ogni singolo sottoprocesso/attività.
ClubIBE
profitti, siano quelle che hanno investito fortemente nella gestione e nell’analisi dei dati, mettendo a regime un processo strutturato per la gestione dei dati che sia in grado di generare dati di qualità e funzionali al loro utilizzo.
Giorgio Dossena, Pre-Sales Manager di QlikOggi, i responsabili di Azienda e di Dipartimento (C-Level) sono sempre più concentrati sull’impiego dei dati a supporto delle iniziative strategiche, ma anche sull’operatività del quotidiano. Dietro tutto questo ci sono delle ottime ragioni legate a come una corretta gestione ed utilizzo dei dati siano la base per ottenere una maggiore efficienza, efficacia e reddittività delle aziende.
A tal proposito, IDC nel suo report “Data as the New Water: The Importance of Investing in Data and Analytics Pipelines”, fa notare come le organizzazioni che hanno una migliore efficienza operativa, un aumento dei ricavi e dei relativi
Se consideriamo che normalmente un’azienda utilizza molteplici applicazioni, diversi database e altre sorgenti di informazioni, come i sempreverdi -quanto ingannevoli- fogli di calcolo di Excel, si comprende che la qualità dei dati e la loro attendibilità sono quelle che sono. Se non si interviene, difficilmente si possono raggiungere buoni risultati. Per fare un paragone basta pensare ad una buona ricetta di cucina: la base è la qualità degli ingredienti.
Poter accedere a “buoni” dati in modo veloce (in tempo reale) è oggi una priorità che le aziende che vogliono operare in modalità data-driven, devono avere ben chiara e quindi debbono costruire un processo solido del ciclo di vita e utilizzo dei dati.
Quando si parla di velocità nella trattazione dei dati è necessario mettere in atto strategie, metodi ed operatività, in maniera tale da affrontare anche i rischi connessi all’andare “più veloci”. Rischi che, sostanzialmente, si materializzano in una maggiore esposizione agli errori e alla gestione della sicurezza legata al dato stesso.
In molti casi ci si trova a dover rispondere alla continua ed incessante richiesta di nuovi dati. Vista la compressione delle dinamiche è necessario sviluppare nuovi approcci al governo del dato. Anche perché, sempre secondo IDC, entro il 2025 circa il 90% dei dati mondiali non sarà archiviato. Ciò significa che tra pochi anni i dati saranno raccolti, elaborati e analizzati in memoria e in tempo reale. Questa previsione è solo una delle tante ragioni alla base della crescente esigenza di pipeline di dati scalabili.
Il termine indica -semplificandouna sorta di grande tubo nel quale fluiscono i dati, un processo che racchiude una serie di sottoprocessi e azioni, che partono dall’acquisizione di tutti i dati grezzi provenienti da una sorgente per
trasformarli rapidamente in dati pronti per essere analizzati ed utilizzati.
Non possiamo prescindere per la definizione di una corretta pipeline da una serie di milestones:
Identificazione del dato. Si deve iniziare con l’identificazione dei dati, sia internamente che esternamente, potrebbero essere preziosi per l’organizzazione.
Raccolta del dato. Integrare i dati grezzi provenienti da molteplici fonti in svariati formati per avere una visione a 360° del contenuto informativo utile ai processi aziendali.
Trasformazione del dato. Applicare una serie di azioni per rendere i dati comprensibili e utili agli utenti aziendali. Queste azioni
Fornire costantemente dati di alta qualità crea anche fiducia da parte degli utenti sui dati stessi e su chi li rende disponibili.
possono essere di varia natura, ad esempio: trasformazione, standardizzazione, ordinamento, deduplicazione, selezione, validazione e verifica.
Distribuzione del dato. La pipeline trasferisce questi dati all’interno delle piattaforme dati (ad esempio, un data warehouse, lake lakehouse) o direttamente all’interno di piattaforme di analisi.
Cifrare i dati in movimento e at rest - ovvero durante le fasi di trasporto e archiviazione. Anche questo elemento imprescindibile alla compliance GDPR.
Alcuni accorgimenti possono rendere migliore l’attendibilità: Autenticare gli utenti, verificando che siano realmente chi dicono di essere. Seppur banale questo è il primo caposaldo della sicurezza.
Fornire controlli di accesso dettagliati che possono essere attivati per ruolo o per singolo utente. Una volta che so chi sono, devo poterli profilare in base a ruoli e regole.
Offrire l’offuscamento dei campi dati, mascherando le informazioni sensibili e rendendo i dati analizzabili, ma non infrangendo alcun elemento di compliance GDPR.
In conclusione, la vera sfida è operare sulla qualità del dato, la sua sicurezza in tempi ristretti, in
questo modo le organizzazioni a identificano e risolvono gli errori prima che i dati vengano analizzati, cioè prima che possano produrre impatti negativi sull’azienda. Anche perché, fornire costantemente dati di alta qualità crea anche fiducia da parte degli utenti sui dati stessi e su chi li rende disponibili. Avendo ben in mente queste tematiche, le risorse corrette e un’adeguata tecnologia a supporto le aziende potranno affrontare i progetti di Data Governance con maggiore serenità e con la certezza che i dati saranno per loro un vero alleato.
Un sistema di Gestione Qualità innovativo ed integrato
Il sistema della qualità aziendale spesso risiede all’interno dei singoli uffici qualità e viene sostanzialmente subito dal resto dell’azienda, che, nella migliore delle ipotesi fornisce solo dei piccoli contributi e a posteriori.
Ma cosa si perde in questa modalità?
Qual è l’impatto sulla competitività?
Come operare per mettere in atto una svolta in merito: attuando un cambiamento e sviluppando un sistema per la gestione della qualità, basato sulla metodologia delle mappe mentali.
SistemiQualità
Un sistema di gestione aziendale altro non è che l’insieme delle risorse, dei processi, delle competenze e delle regole impostate per rendere più efficiente ed efficace l’organizzazione; infatti l’obiettivo comune che sottende a tutti gli standard applicabili è il miglioramento continuo, miglioramento continuo delle performance dell’organizzazione così come definite dalla stessa in modo da garantire la continuità del business in contesti complessi sempre in evoluzione e che per tale motivo rappresentano un fattore di incertezza. La comprensione di un sistema di gestione si fonda infatti su un paio di concetti fondamentali: il ciclo PDCA (Plan Do Check Action) del miglioramento continuo e l’approccio all’identificazione e valutazione dei rischi.
Il ciclo PDCA applicato in tutte le sue fasi garantisce la realizzazione degli obiettivi attraverso -prima di tutto- l’identificazione degli obiettivi stessi, che non sempre risulta chiara fin dall’inizio, quindi una attenta pianificazione delle attività, delle risorse, dei controlli al fine del raggiungimento degli obiettivi; successivamente attraverso la realizzazione delle fasi pianificate e dei controlli che se non soddisfatti richiedono una revisione della pianificazione e al termine delle attività, una volta raggiunti gli obiettivi, la standardizzazione dei risultati ottenuti e l’identificazione di nuovi obiettivi per ricominciare lo stesso
ciclo su un livello di performance sempre più sfidante.
Questa attività di miglioramento continuo però non può prescindere da una costante analisi dei contesti in cui l’organizzazione opera e della loro evoluzione al fine di individuare quei fattori di incertezza, rischi od opportunità, che potrebbero impattare in modo anche importante sulla pianificazione e realizzazione degli obiettivi. L’approccio basato sulla valutazione dei rischi rappresenta lo strumento per mitigare l’effetto dell’incertezza sugli obiettivi definiti e pianificati, mettendo in campo le
azioni adeguate e revisionandole il più spesso possibile; addirittura, l’approccio basato sulla valutazione dei rischi più che lo strumento dovrebbe diventare l’attitudine con la quale utilizzare tutti gli altri strumenti proposti dalla normativa.
Il metodo MindUP Qualità favorisce l’applicazione di entrambi gli approcci perché attraverso mappe mentali strutturate e impostate già per garantire un’analisi approfondita e integrata su tali aspetti, guida la Direzione nel percorso del miglioramento continuo e nell’identificazione e mitigazione dei rischi.
Chiarite le premesse vediamo come è possibile operare fattivamente perché il sistema qualità esca dalle mura dell’ufficio preposto e si propaghi all’interno di tutta l’azienda. Perché quello è il suo vero posto se deve contribuire a generare e capitalizzare valore per le aziende.
Da dove partire: dalle cause. La Qualità viene vissuta come un orpello – magari necessario- ma sempre e comunque un orpello. Da un lato bisogna agire sulla cultura aziendale a tutti i livelli e riaffermare il concetto ed i fondamentali per un ‘azienda, dall’altra va migliorata la comunicazione tra i reparti
e, quindi, con l’ufficio qualità. Un percorso che debba portare efficacia ed efficienza nelle comunicazioni necessità di persone orientate e – soprattutto- di un metodo di comunicazione in grado di oggettivare temi e situazioni, in maniera tale da poter essere condivisi senza dare adito al prevalere di rapporti interpersonali o di rivalità tra team/ tra responsabili di diversi dipartimenti. L’obiettivo è comune, tutti dobbiamo essere orientati verso lo stesso risultato. Un risultato che si ottiene dall’introduzione di metodi e regole condivise (o quantomeno conosciute) al fine di coinvolgere le persone in un percorso che le vede meglio orientate verso il Sistema qualità.
L’introduzione delle mappe mentali con l’approccio gerarchico relazionale si sono rivelate uno strumento che consente di avvicinare il linguaggio dei singoli responsabili di dipartimento/di team con il linguaggio richiesto dalle normative cogenti dei sistemi qualità e quindi da parte delle persone preposte alla Qualità in azienda. Introdurre un sistema di descrizione della Qualità basati su un eco- sistema predefinito ed interrelato di mappe mentali ha un risultato veramente dirompente. Accade che le persone coinvolte capiscono perché gli vengono chieste certe informazioni, ma soprattutto capiscono cosa viene a loro chiesto. Il primo passo verso una proattività inaspettata. Le persone dei reparti danno suggerimenti e si sforzano di
applicare quanto definito e compreso dalle persone che trattano la qualità coma missione aziendale. Una sorta di circolo virtuoso che, nel breve periodo, fa propria la mentalità del miglioramento continuo, della soddisfazione del cliente, della gestione intelligente e programmata delle criticità.
Tutte situazioni che impattano sulla fluidità dei processi che alla fine generanno la remunerazione delle persone.
Scusate se è poco.
OT e Cybersecurity un contesto da affrontare con decisione e investimenti
L’OT (Operation Technology) è quell’insieme di strumenti informatici utilizzati per controllare e gestire sistemi e apparati tecnologici e quindi è presente in tutti i principali settori industriali, dal manufacturing all’energia, ai trasporti.
L’attuale situazione mondiale, caratterizzata da elementi puri come la guerra in Ucraina e le tensioni USA-CINA rappresentano un fattore aggravante accompagnato dalla non preparazione di molte aziende ma anche di parte dei fornitori a diversi livelli.
Sotto la Lente
In sintesi, per citare il rapporto CLUSIT: “se in ambito IT il divario che divide i cybercriminali e i nuclei di cybersecurity delle varie aziende è spesso troppo ampio, a favore degli attaccanti ovviamente, in ambito OT è disarmante”.
Per lungo tempo fisicamente isolati dal resto del sistema informativo aziendale, i sistemi OT negli ultimi anni hanno visto una progressiva integrazione con la rete aziendale e l’utilizzo sempre più spinto di tecnologie standard. Questo ha reso gli impianti OT estremamente vulnerabili ad attacchi cyber mentre, allo stesso tempo, l’evoluzione degli strumenti di protezione informatica non è stata altrettanto veloce. Secondo l’ultimo rapporto CLUSIT il comparto Industry è quello che, insieme a Finance e Media, ha subito il maggiore incremento nel numero e nella pericolosità degli attacchi informatici. Stiamo parlando, per quanto riguarda il primo semestre 2022, di una crescita del 34%! Ed a seguire le cose non sono di certo migliorate. La fonte degli attacchi copre tutta la gamma dei possibili attori: si va da organizzazioni nazionali che mirano principalmente ai grandi impianti infrastrutturali per motivi politici (cyberwar) a criminali comuni che puntano a carpire informazioni o a creare disservizi per lucrare un vantaggio economico (cybercrime).. Quest’ultima tipologia sta iniziando a colpire anche le aziende di manufacturing, in tutto ciò la situazione UCRAINA ha contribuito alla formazione di
attacchi strutturati al fine di indebolire le economie occidentali.
Secondo i dati dei FortyGuards
Labs di Fortinet, sono tre le tipologie di attacco ai dispositivi SCADA, di gran lunga più frequenti nel mondo (e in Italia). Due di queste hanno l’obiettivo di ottenere informazioni sensibili dai sistemi vulnerabili sotto attacco; la terza punta a prendere direttamente il controllo dei sistemi vulnerabili. In realtà tutte queste possono avere un risvolto sulla continuità di esercizio e sulle politiche predittive che sono orai parte integrante dei sistemi OT o di applicazioni ad hoc ad esso correlate.
La risposta degli utenti e dei fornitori di soluzioni di cybersecurity inizialmente ha faticato a seguire l’evoluzione delle tecnologie e, di conseguenza, delle sfide connesse. Una fase iniziale di semplice “security by isolation”, che si faceva forte della separazione fisica fra l’infrastruttura SCADA e il resto dell’IT aziendale, è stata ben presto sorpassata dagli eventi e le Aziende (almeno quelle più lungimiranti) sono passate a soluzioni di protezione “Network Centric”.
L’evoluzione del mondo OT è stata però ancora una volta più veloce,
ed oggi è necessario un approccio che tenga conto del mondo IIOT (industrial IOT), dello smart building e, in generale, di un proliferare di dispositivi connessi che operano a cavallo fra il mondo dei dati e il mondo fisico.
In sintesi, per citare il rapporto CLUSIT: “se in ambito IT il divario che divide i cybercriminali e i nuclei di cybersecurity delle varie aziende è spesso troppo ampio, a favore degli attaccanti ovviamente,
in ambito OT è disarmante”. Tanto è vero che anche l’Unione Europea sta esaminando con particolare attenzione il tema dell’OT Security. In primo luogo, verso le infrastrutture strategiche (energia, distribuzione, trasporti, sanità) ma anche verso il mondo del manufacturing, sia come ulteriore possibile canale di attacco, sia perché (e questo interessa particolarmente l’Italia) produttori di macchine e sistemi OEM devono rispettare in modo nativo determinati requisiti di
sicurezza. Alla nuova direttiva sulla sicurezza delle reti e dell’informazione (NIS2) si aggiungeranno presto nuove normative a cui le entità statali e le Aziende produttrici dovranno uniformarsi.
Il paradosso informatico che prima si fermava alla incapacità di un utilizzo intelligente dei dati acquisiti sul campo, ora si allarga e deve tener di conto del fatto che si deve inserire la certezza della bontà del dato. Un salto di qualità non ba-
Sotto la Lente
nale per tutte le aziende. Un vero e proprio paradigma shift per le aziende che hanno adottato modelli di business improntati non alla cessione del bene ma al suo utilizzo. Pensiamo solo all’aspetto più benevolo: come contabilizzo dati falsati? Quale sarà l’impatto sui ricavi attesi?
Un esempio immediato è rappresentato dell’uso di flotte nel settore automotive … ma non solo. Come programmo interventi di manutenzione preventiva e di sostituzione di componenti o sottosistemi che denunciano un presunto alto grado di deterioramento e quindi di una fermata dell’esercizio che implica il non utilizzo del bene?
Come muoversi per intraprendere un percorso virtuoso di messa in sicurezza dell’ambiente OT aziendale e salvaguardare il modello di business? Secondo un recente report di Gartner, occorre partire da un’analisi dell’infrastruttura IT/ OT vista nel suo insieme (asset Discovery e network mapping).
Inevitabilmente questa fase di assessment porterà a quello che Gartner definisce il momento “Oh Wow!”: quando ci si rende conto delle differenti possibili vulnerabilità. Solo per fare alcuni esempi: asset non gestiti, sistemi nati per essere isolati che sono invece integrati in rete, dispositivi aperti
all’accesso da remoto per manutenzione, software non aggiornati, patch non installate, etc.).
A questo punto vengono individuate e messe in opera le azioni correttive più urgenti e, nel contempo, si provvede ad un’analisi più strutturata e alla definizione dei passi successivi. L’aspetto positivo è che diversi fornitori (alcuni dichiaratamente specializzati in soluzioni OT) hanno iniziato a mettere sul mercato soluzioni specifiche di discovery e di prevenzione del rischio. La cattiva notizia è che, proprio per la forte integrazione fra ambienti e sistemi di cui abbiamo parlato in precedenza, l’applicazione di soluzioni puntuali non basta: serve un approccio integrato alla sicurezza che tenga conto, se possibile, anche degli aspetti non informatici (SIEM: Security Information and Event Management, o SOAR: Security Orchestration Automation and Response).
In conclusione, l’OT Cybersecurity è un tema di stringente attualità, che comporta rischi non trascurabili sia per le grandi infrastrutture nazionali, sia per le realtà produttive, anche di medie dimensioni. Il tema va affrontato con le adeguate competenze che, purtroppo, non sono facili da reperire in un mercato dove la domanda supera di molto l’offerta. L’alternativa è
quella di appoggiarsi a fornitori esterni qualificati, ma comunque sotto la supervisione di una risorsa interna (CISO: Chief Information Security Officier) che possa avere una visione globale della sicurezza aziendale.
Che dire: un altro tema importante che necessità il coinvolgimento e l’azione propulsiva del management aziendale. In primis non è un fattore tecnico e basta. E’ un tema strategico e come tale va trattato e alla svelta.
Torna al Sommario .....................
Abbattere i costi di realizzazione dei prodotti, spesso la miniera è già in azienda
Il sistema manifatturiero italiano è riuscito ad operare in termini positivi sia nel mercato interno, sia nel mercato estero. Le condizioni al contorno non sono state e, anche oggi, non sono le migliori, ma le aziende hanno operato per continuare a competere.
Certo ora la sfida importante è di poter uscire sul mercato con prodotti caratterizzati da un buon rapporto prezzo di vendita e valore percepito.
Intervista
L’azienda leader di questo settore è CADENAS, una realtà già consolidata nell’ambito dei servizi a supporto della progettazione CAD.
Non tutte le aziende hanno come logo una mela, la cui reputazione consente di assegnare ai prodotti un elevato valore percepito, per cui si possono permettere di definire un prezzo di vendita …. che garantisca un generoso margine.
Torniamo alla media delle aziende italiane di un certo respiro/ storia. Queste si trovano ad avere sul mercato un mix di prodotti tra quelli datati e quelli nuovi. In tutti questi anni hanno continuato a sviluppare prodotti finiti e componenti, spesso confluiti in famiglie di prodotti di diversa generazione.
Ma non solo, le aziende mediamente hanno investito in soluzioni software CAD, CAE, CAM per la progettazione, la simulazione e la produzione dei prodotti e in siste-
mi PDM-PLM per la gestione del ciclo di vita dei prodotti.
È innegabile che queste soluzioni, a fronte di un periodo più o meno breve di messa a regime (non sono software offtheshelf, checché se ne potesse dire nel tempo) alcuni risultati economici e di riorganizzazione del lavoro, lo hanno decisamente portato.
Nel frattempo, alcune colonne silenti (o meno) degli uffici tecnici hanno raggiunto la meritata pensione ed hanno lasciato spazio a colleghi talentuosi, ma non cresciuti nel dopoguerra economico, quindi con un basso senso del riuso nel DNA.
Tutto questo ha tolto il coperchio ad un vero e proprio vaso di
Pandora: la gestione ottimizzata dei componenti di prodotto, magari declinata in senso trasversale su diverse famiglie di prodotti e di centri/ uffici di sviluppo dei prodotti.
Una vera e propria miniera, che se affrontata in maniera strutturata e progettuale, può rappresentare il differenziatore rispetto alla concorrenza per essere maggiormente competitivi nel prezzo rispetto al valore atteso e viceversa.
In questo contesto si sta facendo strada la cultura della “gestione strategica delle parti”, che se ben declinata all’interno delle aziende può portare a notevoli benefici di abbattimento dei costi: da un 20 ad un 30% e anche di più in funzione della tipologia di azienda, del volume di codici e di parti trattate.
L’azienda leader di questo settore è CADENAS, una realtà già consolidata nell’ambito dei servizi a supporto della progettazione CAD. Un’azienda che crede fortemente nell’efficacia della gestione strategica delle parti, nna soluzione che permette alle aziende di avere un potente motore di ricerca di dati tecnici dove, ad esempio, è possibile trovare velocemente i componenti utilizzando funzioni come la “Ricerca Geometrica” che partendo dalla forma 3D oppure da una fotografia, trova tutti componenti simili in breve tempo.
Intervista
Un’applicazione progettuale (cucita sull’azienda) che permette di accedere in maniera molto più rapida ed efficace all’archivio, permette notevoli vantaggi in termini di ottimizzazione e riutilizzo dei componenti, nonché nella definizione ed applicazione di politiche di standardizzazione. In un percorso trasversale ai dipartimenti: partendo dalla progettazione fino agli acquisti.
Viste le grandi potenzialità in termini di ROI associate, siamo andati direttamente alla fonte, e abbiamo parlato con Luca Borghi, CEO di CADENAS Italiana Srl.
Andiamo subito al punto: qual è il valore intrinseco e se vuole, i benefici attesi dall’adozione della vostra soluzione?
La soluzione denominata PARTsolutions, con i suoi strumenti di ricerca avanzati anche nel 2023 renderà possibile, a sempre più aziende, di ottimizzare i tempi di progettazione esistenti.
La Gestione Strategica delle Parti che perseguiamo con la soluzione denominata PARTsolutions, con i suoi strumenti di ricerca avanzati anche nel 2023 renderà possibile, a sempre più aziende, di ottimizzare i tempi di progettazione e soprattutto eliminare i costi derivati dalla gestione di codici doppi in azienda – esordisce Borghi-. L’ottimizzazione delle parti porta a risparmi importanti non solo nell’eliminazione iniziale dei codici doppi esistenti, ma la nostra soluzione è in grado di prevenire attivamente la loro proliferazione. I risultati comprovati dai nostri clienti portano a risparmi importanti nell’individuazione ed eliminazione dei doppioni, nell’accorpamento dei fornitori e nel non banale alleggerimento del magazzino. Dobbiamo considerare che gli Strumenti di “Ricerca per Forma Geometrica” e “Analisi Doppioni” permettono alle aziende di ottimizzare il proprio archivio in tempi rapidi con ampi margini di risparmio effettivo. Eliminare anche un 2% di codici doppi porta a risparmi significativi
sia in termini di gestione delle parti, sia in termini di acquisti e tempi. La Gestione Strategica delle Parti, secondo i nostri clienti, è oggi un valore importante nelle strategie di progettazione e produzione delle aziende.
Nel 2023, le aziende hanno accumulato esperienza e montagne di software applicativo e investono se ne comprendono la reale utilità e i benefici, non in generale, ma per loro stesse. Quale è il vostro approccio?
Concordo con la sua analisi, infatti abbiamo fatto una scelta specifica per la proposizione della soluzione PARTsolutions. Il nostro obiettivo è di mettere nelle migliori condizioni di decidere il nostro interlocutore. Il nostro apporto è da un lato consulenziale, dall’altro progettuale. Ogni percorso presenta delle similitudini, ma è unico per la singola azienda, perché sono uniche le modalità operative di ogni azienda.
Viene quindi proposto un progetto pilota – di comune accordo- in cui dare sufficiente visione dei benefici
tangibili (numeri) e di quelli intangibili ma non per questo meno importanti. Dobbiamo definire una piccola squadra (noi- azienda cliente) che collabora ed opera sui dati reali dell’azienda. Ovviamente noi firmiamo tutti i trattati di non disclosure.
Alla fine, tiriamo insieme le somme. Sono particolarmente orgoglioso, ad oggi tutti i percorsi pilota si sono mutati in un inserimento stabile e virtuoso dell’utilizzo della nostra soluzione con notevoli riduzioni di costi e tempi. Tanto è vero che diventano, mediamente, nostri testimonial.
Sono particolarmente orgoglioso, ad oggi tutti i percorsi pilota si sono mutati in un inserimento stabile e virtuoso dell’utilizzo della nostra soluzione con notevoli riduzioni di costi e tempi.
La gestione strategica delle parti non è un tema nuovo, ma oggi è diventato importante grazie alle condizioni al contorno che impongono una vera e propria ottimizzazione dei costi a salvaguardia di margini (giusti) e capacità di competere. Il vantaggio che ora - al contrario di qualche lustro fa- è perseguibile grazie alle tecnologie hardware e soprattutto software che ne consentono finalmente una rapida e proficua implementazione.
Non ci rimane che agire!
Intelligenza Artificiale a supporto delle imprese: vantaggi, ostacoli e falsi miti
L’Intelligenza Artificiale permea la nostra quotidianità molto oltre la nostra consapevolezza e sarà destinata a diventare sempre più pervasiva nell’esistenza di ognuno di noi.
È opportuno, quindi, conoscerne tutte le potenzialità e anche i limiti per poter trarne il massimo vantaggio e sfruttarla in modo virtuoso, sia nella nostra vita privata sia in quella professionale.
Innovazione
Immaginare oggi la nostra vita senza il supporto di tutte quelle applicazioni basate sull’Intelligenza Artificiale (AI – Artificial Intelligence) sarebbe come ritornare in un passato molto lontano (che poi così remoto non è) e, verosimilmente, la maggior parte di noi non sarebbe disposta a rinunciare a tutti quegli strumenti che ci assistono in molte azioni quotidiane, basati sull’AI. Pensiamo, per esempio al classico assistente vocale al quale sempre più frequentemente ricorriamo, da Siri, Cortana, Alexa, etc.; oppure ai nostri acquisti su Amazon e sulle diverse piattaforme di e-commerce, che sono in grado di proporci prodotti e articoli sulla base dei nostri comportamenti e delle nostre caratteristiche. Alla stessa stregua, piattaforme quali Netflix o Spotify,
ci suggeriscono film o brani musicali in linea con i nostri gusti; medesimo discorso vale per i Social che, in base al nostro profilo o ai post che pubblichiamo e condividiamo, ci propongo contenuti similari o la connessione con persone con le quali potremmo avere delle cose in comune. Insomma, sembrerebbe che tutta la nostra vita oggi sia scandita dall’utilizzo di sistemi, applicazioni e tecnologie basate su AI, con indubbi vantaggi in termini di efficienza. Nonostante questo, però, attualmente l’intelligenza artificiale è percepita ancora come qualcosa di futuristico e ci sono degli ambiti nei quali la sua applicazione presenta ampi margini di miglioramento e di ottimizzazione, in particolare in diversi contesti aziendali.
I VANTAGGI PER LE AZIENDE
Per quanto possano sembrare evidenti i numerosi benefici che l’AI è in grado di portare alle aziende, la sua adozione dipende molto dalle caratteristiche della stessa organizzazione, dai suoi obiettivi e, soprattutto, dalla lungimiranza di chi la guida. In effetti, far funzionare l’intelligenza artificiale all’interno di un’impresa richiede tempo, finanziamenti, ma soprattutto una visione sul medio e lungo termine da parte del management con un totale coinvolgimento di tutti gli stakeholder, dal momento che l’AI comporta una vera e propria rivoluzione nelle modalità con cui ogni area di un’impresa opera. Quindi, solo sé sì a disposti a un radicale cambio di paradigma e di mind set, un’azienda può davvero beneficiare degli enormi vantaggi derivanti dall’intelligenza artificiale.
Vediamone alcuni:
L’intelligenza artificiale esegue più velocemente e più facilmente le attività di routine, sollevando le persone da operazioni di tipo ripetitivo, tediose e noiose, decisamente time consuming, automatizzandole a ciclo continuo.
Dispostivi, applicazioni e macchinari, basati su intelligenza artificiale, funzionano senza soluzione di continuità e limiti di tempo. Infatti, mentre l’essere umano, in genere, è operativo per 8-12 ore massimo
al giorno, i sistemi AI based possono funzionare per una durata di tempo indefinita, senza cali di produttività – fisiologici per le persone -, ovviamente se si dispone di risorse energetiche adeguate e infrastrutture idonee.
L’intelligenza artificiale genera meno errori, diventa quindi uno strumento di grande efficienza in quei settori in cui l’accuratezza e la precisione sono assolutamente prioritari. Pensiamo, ad esempio, all’ambito produttivo, in cui una produzione sbagliata – il tipico caso dell’errore umano - determina danni significativi in termini economici e organizzativi per l’azienda.
L’accessibilità: l’intelligenza artificiale può essere ed è alla portata di tutti. In un contesto aziendale è fruibile nei diversi compartimenti e a tutti i livelli: dalla gestione del centralino, all’assistenza clienti, al recruitment, alla produzione e così via. Di per sé, quindi, non richiede competenze particolari se non quelle legate al proprio ruolo e alla propria funzione, che trovano nell’AI un valido supporto nell’esecuzione.
L’intelligenza artificiale è alleata della sostenibilità perché, digitalizzando molti dei processi aziendali e rendendoli più efficienti, consente di contenerne l’impatto sull’ambiente a tutti i livelli, soprattutto se pensiamo alla produzione e alla supply chain.
Innovazione
Questi che abbiamo elencato sono solo alcuni degli aspetti positivi –probabilmente i più macroscopicigenerati dall’utilizzo dell’AI, tuttavia la strada da percorrere è ancora lunga, sia per via di fattori che in qualche modo ne limitano un’adozione più massiva, sia a causa di resistenze e pregiudizi da parte dell’uomo che, talora, si sente quasi minacciato e prevaricato dall’intelligenza artificiale stessa.
OSTACOLI E FALSI MITI
È fuori dubbio che l’adozione di tecnologie basate su AI comporti ancora dei costi elevati, derivanti fondamentalmente dalle competenze tecniche da acquisire, dalle infrastrutture informatiche (software e hardware) e dalla qualità
del dato, la quale tanto più sarà elevata, quanto più la metodologia di raccolta sarà accurata. Tale accuratezza, infatti, dipende molto dalle infrastrutture informatiche a disposizione, che rappresentano la condizione necessaria per lo sviluppo e l’utilizzo di algoritmi di apprendimento automatico affidabili.
In effetti, sebbene tali costi stiano diminuendo e tenderanno progressivamente a scendere, attualmente si stima che per un’implementazione di base di intelligenza artificiale, sono necessari almeno 200.000 euro che, per un’azienda media italiana, rappresenta comunque un investimento importante. Se poi ci spostiamo nell’ambito delle grandi imprese, dove la quantità di dati da elaborare e analizzare è maggiore, i costi lievitano rapidamente.
L’AI, infatti, si fonda su modelli basati esclusivamente su dati e su una serie di correlazione tra essi, ma è proprio su questo punto che l’AI incontra il suo principale limite.
Una certa resistenza nei confronti dell’intelligenza artificiale deriva dalla convinzione che essa determinerà una riduzione dei posti di lavoro. Una leggenda metropolitana, con il rischio di prendere un grosso abbaglio, perché se è vero che l’AI si sostituisce all’essere umano in quelle mansioni ripetitive e meccaniche, è altrettanto vero che essa permette nuove e più interessanti modalità di lavoro che necessitano dell’intelligenza e della creatività umana. In realtà, quello che è emerso da una ricerca condotta da OCSE, già nel gennaio del 2021, è che l’intelligenza artificiale offre l’opportunità di integrare e aumentare, piuttosto che sostituire, le capacità dell’uomo. Anzi, sembrerebbe che fino ad oggi, l’introduzione dell’AI nelle aziende abbia creato più posti di lavoro di quelli che ha fatto perdere, dando vita a nuove professionalità e spazio a nuove competenze che consentono una tipologia di attività più stimolante.
Indubbiamente esistono degli aspetti di carattere etico, su cui è
opportuno fare qualche riflessione, che riguardano il meccanismo decisionale dell’intelligenza artificiale. L’AI, infatti, si fonda su modelli basati esclusivamente su dati e su una serie di correlazione tra essi, ma è proprio su questo punto che l’AI incontra il suo principale limite. Infatti, come sostiene Stefano Quintarelli, esperto di tecnologie informatiche e digitali, i dati descrivono il mondo per com’è e non per come vorremmo che fosse: essi, infatti, ci forniscono un modello di riferimento che viene poi applicato in un ambito specifico. In pratica, la decisione, generata da meccanismi di intelligenza artificiale, si fonda sulla migliore soluzione analitica possibile che, però, non sempre è quella giusta e/o eticamente corretta. Dunque, prendere decisioni, basate esclusivamente su tali modelli, in alcuni casi diventerebbe fortemente pregiudizievole. In effetti, se applichiamo questo concetto in ambito aziendale, si potrebbe rischiare, per esempio, di definire e assegnare ruoli, mansioni e retribuzioni in modo estremamente discriminante.
Appare evidente, quindi che l’impiego dell’intelligenza artificiale non può prescindere dal contesto e deve comunque essere guidata dall’uomo e dalla sua capacità di discernimento. Si tratta, dunque, di mettere in atto una strategia di applicazione e implementazione dell’AI strutturata e ponderata, integrando infrastrutture tecnologiche, competenze e buon senso. A quel punto sì che l’intelligenza artificiale può davvero diventare un potentissimo strumento, in grado di garantire a un’azienda un elevato livello di efficienza dei propri processi e di qualità del lavoro dei suoi collaboratori, massimizzando gli investimenti e crescendo in termini di fatturato e competitività.
L’intelligenza artificiale, nel tempo, sarà (in alcuni casi lo è già ora) l’elemento differenziatore per le situazioni di successo. Non resta che incominciare a interessarsene.
diventare un potentissimo strumento, in grado di garantire a un’azienda un elevato livello di efficienza.
FONTI: Forbes 9 gennaio 2023
Agendadigitale.eu
The AI business case guide – SAS Intelligenza artificiale. Cos’è davvero, come funziona, che effetti avrà (ed Bollati Boringhieri) - Stefano Quintarelli
L’intelligenza artificiale può davvero
La formazione sul campo ottimizza le potenzialità e le competenze delle persone per migliorare la condivisione degli obiettivi aziendali.
Scopri il metodo MindUp: esperienze formative che si traducono in risultati effettivi per le imprese.
IN AULA - ONLINE - BLEND
Piazza Caiazzo, 2 - MILANO - Tel. 02 39523808 pentaconsulting@pentaconsulting.it - mindupformazione.net Corsi e percorsi sono basati sulle Mappe Mentali* personalizzati in base alle esigenze e strutturati in funzione degli obiettivi. *Metodo proprietario MINDUP_FSC di PentaconsultingLa formazione sviluppa la capacità di competere.