MindUp Speciale IBE 2025

Page 1


MILANO P irelli H angar B icocca 14.nov.25

Agenda

09.30 Benvenuto

Natascia Marchei | Direttrice del Dipartimento di Giurisprudenza Università degli Studi di Milano - Bicocca

09.40 IBE un percorso per porre e porsi le giuste domande Massimo Fucci | MindUP

09.50 AI: potere, obblighi e responsabilità del management apicale. Che fare Andrea Rossetti | Università degli Studi di Milano - Bicocca

10.10 AI nei luoghi di lavoro nuovi rischi per il Capitale Umano Federico Cabitza | RED OPEN

10.30 Lete e Mnemosine: riflessioni sull’impatto dell’AI nelle organizzazioni

Luca Verzelloni | Università degli Studi di Milano - Bicocca

10.50 AI e vulnerabilità aziendale: rischi o opportunità?

Alessandro Capocchi | Università degli Studi di Milano - Bicocca

11.10 L’AI nei board d’impresa: dall’analisi dei bilanci all’indipendenza digitale

Massimo V. A. Manzari | RED OPEN

11.30 L’Era dell’AI Acceleration: scenari, soluzioni verticali e vantaggi concreti per le imprese

Francesco Sinopoli | ASUS

11.50 IA. L’Intelligenza delle api, riflessioni e insegnamenti Marco Maiocchi | OPDPO - Future Evangelist

12.10 Parbleau, dell’AI Molière aveva già capito tutto Compagnia Mai sentiti | Spettacolo Teatrale

12.30 Dibattito interattivo

13.00 Business lunch e relazioni

14.00 Visita guidata all’interno della parte museale del Pirelli HangarBicocca

Massimo FUCCI

Direttore Responsabile

massimo.fucci@pentaconsulting.it

Incredibile, l’intelligenza

Artificiale è proprio trattata da tutti per tutto e non sempre a ragion veduta e di quello strato di conoscenza che consente almeno di disquisire. Trattando AI (motori di inferenza) dal 1977 (Gruppo Elettronica Cibernetica- Università statale di Milano) ed essendomi specializzato sullo sviluppo della capacità di management e della governance efficiente delle aziende, ho alcune riflessioni in merito. L’AI non rimpiazzerà i manager, ma ne sta profondamente trasformando il ruolo. Invece di sostituire l’intelligenza umana, l’AI diventa uno strumento che potenzia le capacità dei manager, liberandoli da compiti operativi e permettendo loro di concentrarsi su attività a maggior valore aggiunto. Il manager che ha compreso che deve vivere del cambiamento, si muove per integrare un mix di competenze tradizionali e specialistiche per governare questo cambiamento. Sebbene

l’AI possa automatizzare processi e fornire analisi, la responsabilità finale delle decisioni rimane al manager Si perché l’AI può superare un manager che manca di empatia emotiva, poiché le macchine eccellono nell’analisi dei dati, ma le competenze umane come la leadership, l’empatia e il pensiero critico restano insostituibili].

La vera sfida per i manager è quindi imparare a collaborare con l’AI per migliorare le performance e la qualità delle decisioni, senza perdere di vista l’importanza del fattore umano. In sintesi, l’Intelligenza Artificiale, come tutte le tecnologie, è strumento abilitatore. In tale contesto uno strumento a supporto di chi ha la responsabilità di decidere… una sorta di Cobot cui fornire alcuni dati e informazioni e da cui traiamo indicazioni, non di pancia, per decidere ed agire. Tutto risolto: NO. Cioè SI, se uniamo intuito, capacità di comprendere, empatia e quel pizzico di fortuna, che non guasta proprio mai.

Sommario

Cover

Speciale

IBE 2025

Memorial Umberto Cugini

28

Verso le organizzazioni

I2E: intelligenti - integrate - efficaci, per competere nell’era dell’IA.

EDITORE

Pentaconsulting Srl

Piazza Caiazzo, 2 - 20124 Milano Tel. 02 39523808 pentaconsulting@pentaconsulting.it

03

AI e vulnerabilità aziendale: rischi o opportunità? AI=COBOT

Content Redazione NewsImpresa

Progetto Grafico mcquadro studio creativo campanagrafica@gmail.com E dittoriale

Direttore Responsabile Massimo Fucci massimo.fucci@pentaconsulting.it

Mindup magazine Speciale IBE 2025

Rivista di ECONOMIA, MERCATI, TECNOLOGIE, MANAGEMENT E FORMAZIONE

44 11

n. 11 - novembre 2025 - anno V supplemento a www.newsimpresa.it diffusione gratuita

12

Impatto dell’AI sull’Amministratore Delegato, CEO e CDA: cosa bisogna sapere

50

L’AI nei board d’impresa: dall’analisi dei bilanci all’indipendenza digitale

18 24

AI nei luoghi di Lavoro nuovi Rischi per il Capitale Umano

Lete e Mnemosine: riflessioni sull’impatto dell’AI nelle organizzazioni

54

L’Era dell’AI Acceleration: scenari, soluzioni verticali e vantaggi concreti per le imprese

58

IA. L’Intelligenza delle Api, riflessioni e insegnamenti

61

Parbleau, dell’AI Molière aveva già capito tutto!

Dossier IBE 2025

L’AI l’abilitatore della capacità di competere

Negli ultimi anni, l’intelligenza artificiale (Al) si é affermata come una delle tecnologie più rivoluzionarie e dirompenti, trasformando profondamente il modo in cui le aziende gestiscono le proprie operazioni e le risorse umane.

La sua capacità di analizzare grandi volumi di dati, automatizzare processi ripetitivi e supportare decisioni strategiche sta ridefinendo le dinamiche del management, creando nuove opportunità di ottimizzazione e competitività.

Una strada oramai tracciata che è inutile guardare con sospetto, aria di intolleranza o, peggio, ignorare. Siamo al cospetto di un abilitatore differenziante. Manager ci sei?

L’Intelligenza Artificiale può essere efficacemente impiegata nel management aziendale per migliorare l’efficienza dei processi, favorire una gestione efficace delle persone e garantire una governance robusta delle Operation. A tutto vantaggio della capacità di variare direzione e organizzazione in funzione della dinamica dei cambiamenti dei mercati consolidati o nuovi da esplorare. In estrema sintesi il vero focus è mantenere elevata la capacità di competere delle aziende. In particolare, ho individuato cinque grandi aree in cui questo abilitatore sta già fornendo il proprio valore aggiunto.

1. DECISIONI STRATEGICHE

L’intelligenza artificiale si configura come uno strumento di supporto alle decisioni strategiche a livello di top management. Attraverso sistemi di analisi predittiva, il management può ottenere insight approfonditi su trend di mercato, comportamenti dei clienti e performance aziendali. L’analisi dei big data raccolti permette di individuare pattern e correlazioni che sfuggono all’analisi umana, facilitando previsioni più accurate e scelte più informate. Per esempio, le aziende possono utilizzare l’AI per prevedere i cambiamenti nella domanda di mercato, identificare nuovi segmenti di clientela o valutare il rischio associato a determinate strategie di investimento. La simulazione di scenari tramite modelli di intelligenza artificiale consente di esplorare le conseguenze di diverse decisioni, riducendo l’incertezza e migliorando la capacità di adattamento. L’applicazione dell’AI nelle ricerche di mercato, nella simulazione di prodotti e nel testing virtuale accelera i cicli di innovazione. Le aziende possono utilizzare algoritmi di machine learning per analizzare dati scientifici, prevedere i risultati di nuovi materiali, o ottimizzare i processi di prototipazione rapida. Questo consente ai manager di prendere decisioni più informate e di ridurre i rischi associati a investimenti in innovazione

Dossier IBE 2025

2. GOVERNANCE, TRASPARENZA, COMPLIANCE E GESTIONE DEI RISCHI

L’AI può aiutare i manager a garantire una governance più efficiente e trasparente attraverso sistemi di monitoraggio continui e reportistica automatica, che evidenziano le aree di rischio, le performance e la conformità alle politiche aziendali. La Blockchain combinata con l’AI può inoltre contribuire a garantire l’integrità dei dati e la tracciabilità delle operazioni, riducendo le possibilità di frodi e incentivando una cultura di responsabilità.

Le tecnologie di intelligenza artificiale sono impiegate anche nella rilevazione e prevenzione delle frodi, nella gestione dei rischi finanziari e nella conformità normativa. Algoritmi di anomaly detection identificano attività sospette o incoerenze nei dati, aiutando i manager a intervenire tempestivamente per mitigare i rischi legati alla sicurezza, alle normative o alle operazioni finanziarie, contribuendo a garantire trasparenza e integrità.

3. HR E ORGANIZZAZIONI RESILIENTI

Un’area particolarmente strategica in cui l’AI sta avendo un impatto significativo riguarda la gestio-

ne delle risorse umane. La capacità di analizzare grandi quantità di dati relativi alle performance dei dipendenti, ai processi di recruitment e alla retention permette di rendere più efficace e più equa la gestione del capitale umano.

Nel recruitment, ad esempio, algoritmi di intelligenza artificiale vengono utilizzati per analizzare curricula, valutare le soft skills e prevedere il successo dei candidati. Questo permette di ridurre i tempi di assunzione e di migliorare la qualità delle selezioni, minimizzando i conflitti di bias e favorendo un ambiente più inclusivo. Anche se questo è un campo in cui è necessario muoversi con la dovuta attenzione.

Nella gestione delle performance, strumenti di analisi predittiva possono individuare i dipendenti a rischio di turnover o di calo di produttività, consentendo interventi mirati di formazione, motivazione o riorganizzazione. Inoltre, l’AI può supportare la pianificazione delle carriere e la definizione di piani di sviluppo personalizzati, favorendo la crescita professionale e il benessere dei collaboratori.

L’intelligenza artificiale, combinata con il sentiment analysis e l’analisi delle comunicazioni interne, aiuta anche a monitorare il clima aziendale e il livello di engagement dei dipendenti, fornendo dati utili a sviluppare sistemi di supporto e

sistemi premianti. Inoltre, l’analisi dei dati comportamentali e delle performance permette di personalizzare il coaching e lo sviluppo dei leader. Strumenti di AI possono identificare i punti di forza e di debolezza individuali, suggerendo percorsi di formazione più mirati e migliorando le capacità di leadership. Questo aiuta a sviluppare team più motivati, allineati e resilienti.

In un’epoca di grandi instabilità, l’AI può contribuire a migliorare la resilienza aziendale tramite modelli predittivi di scenario che anticipano crisi di mercato, problemi di supply chain, o instabilità geopolitiche. Questi strumenti aiutano a pianificare strategie di contingenza e a sviluppare capacità di adattamento rapido, rafforzando la stabilità complessiva dell’organizzazione.

4. OTTIMIZZAZIONE DEI PROCESSI AZIENDALI

Uno dei principali ambiti di applicazione dell’AI nelle aziende riguarda l’ottimizzazione dei processi operativi. In generale, a partire da una mappatura standard dei processi (IDEF0) l’AI è in grado di proporre automatizzazione e revisione dei flussi e di segnalare le attività che non portano a nulla, i duplicati e le ridondanze. Le attività ripetitive, manuali e time-consuming possono essere automatizzate attraverso

Dossier IBE 2025

sistemi di intelligenza artificiale, liberando risorse umane per attività a maggior valore aggiunto e migliorando l’efficacia complessiva. Non solo nel caso di interazione tra strutture interne ed esterne (dipartimenti-supply chain) si ricevono informazioni utili su come migliorare i tempi di attraversamento e le diverse funzioni associate.

Se entriamo nello specifico, i sistemi di Robotic Process Automation (RPA) integrati con tecnologie di AI possono gestire in modo autonomo attività come l’elaborazione di fatture, la riconciliazione contabile, la gestione degli ordini e il monitoraggio delle scorte. Questi strumenti sono in grado di apprendere e adattarsi alle variazioni nei dati e nei processi, garantendo un flusso di lavoro più fluido e meno soggetto a errori.

Inoltre, l’AI consente di analizzare i dati storici e in tempo reale per individuare inefficienze, colli di bottiglia e opportunità di miglioramento. Algoritmi di machine learning possono prevedere i livelli di domanda, ottimizzare la pianificazione della produzione e adottare strategie di manutenzione predittiva che riducono i tempi di fermo macchina. Questo approccio permette di rispondere rapidamente ai cambiamenti di mercato, ridurre i costi operativi, aumentare

la qualità del prodotto o servizio e, cosa di non poco conto, di mantenere alto il grado di soddisfazione dei clienti… che rimangono tali.

5. BUSINESS INTELLIGENCE E NELLE ATTIVITÀ DI VENDITA

L’AI consente di scoprire nuove opportunità di mercato e di creare modelli di business innovativi. Per esempio, l’analisi dei big data può rivelare nicchie di mercato inaspettate o nuove esigenze dei clienti, portando alla creazione di prodotti o servizi altamente personalizzati o scalabili. La segmentazione automatizzata dei clienti permette di indirizzare meglio le risorse di marketing e vendita, migliorando l’efficacia delle campagne e aumentando il customer lifetime value

In tale contesto è possibile automatizzare l’analisi dei bilanci, l’analisi del portfolio d’offerta, l’analisi della comunicazione dei clienti target. L’integrazione delle analisi fornisce elementi utili per delineare prospect ad alta potenzialità e per definire offerte su misura, consentendo alle aziende di adottare strategie di acquisizione e fidelizzazione più efficaci. Quindi da un lato consente di ottimizzare le campagne di marketing, aumentando il ritorno sull’investimento, dall’altro

2025 dossier

di migliorare l’efficacia delle forze di vendita in correlazione ad un arco temporale predefinito.

HUMAN AI IL FATTORE CHE FA E FARÀ LA DIFFERENZA

In conclusione, l’intelligenza artificiale rappresenta un catalizzatore di trasformazione che abbraccia tutte le funzioni aziendali e promuove un management più agile, innovativo e sostenibile. La sua integrazione richiede però un’attenta strategia di adozione, formazione del personale e rispetto delle normative etiche e di privacy, affinché si possa massimizzare il valore e minimizzare i rischi. Ma la differenza, ancora una volta, la fanno le persone, nella fattispecie management e collaboratori. La capacità di competere sarà direttamente proporzione a quanto si è compreso in merito ad applicabilità, benefici e limiti delle diverse applicazioni AI.

novembre 2025 n. 11

Impatto dell’AI sull’Amministratore Delegato, CEO e CDA: cosa bisogna sapere

L’intelligenza artificiale sta trasformando radicalmente il panorama delle responsabilità aziendali in Italia, introducendo nuove sfide e opportunità per i vertici delle imprese.

Questo cambiamento epocale è stato accelerato dall’entrata in vigore del Regolamento UE 2024/1689, meglio conosciuto come AI Act, che dal primo agosto 2024 ha iniziato a ridisegnare il quadro normativo europeo con implicazioni profonde per Amministratori Delegati, CEO e Consigli di Amministrazione.

UNA RIVOLUZIONE NORMATIVA SENZA PRECEDENTI

Il nuovo Regolamento europeo rappresenta la prima legislazione organica e completa al mondo sull’intelligenza artificiale, stabilendo regole armonizzate per lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA nell’Unione Europea. L’obiettivo dichiarato è garantire sicurezza, trasparenza e rispetto dei diritti fondamentali, ma le implicazioni pratiche per i dirigenti aziendali vanno ben oltre gli aspetti puramente tecnici. Sebbene le sanzioni amministrative siano formalmente dirette alle imprese nel loro complesso, gli Amministratori Delegati italiani si trovano ora esposti a rischi di responsabilità personale di portata inedita.

La genialità dell’AI Act risiede nel suo approccio stratificato basato sul rischio, che classifica i sistemi di intelligenza artificiale in quattro categorie distinte. Al vertice della piramide del rischio troviamo le pratiche completamente vietate, come il social scoring governativo o i sistemi di riconoscimento delle emozioni in contesti commerciali, che espongono immediatamente le aziende a sanzioni draconiane. Subito dopo si collocano i sistemi ad alto rischio, utilizzati in settori critici come sanità, trasporti, finanza e risorse umane, che richiedono valutazioni di conformità rigorose e documentazione tecnica completa prima dell’immissione sul mercato.

Per comprendere la portata rivoluzionaria di questa normativa, basta considerare il regime sanzionatorio previsto: sanzioni fino a 35 milioni di euro o il 7% del fatturato mondiale annuo per le violazioni più gravi, con sanzioni fino a 15 milioni di euro o il 3% del fatturato globale per altre tipologie di violazioni. Questi importi, che eguagliano o superano quelli del GDPR, trasformano la conformità all’AI Act da adempimento tecnico a imperativo strategico di sopravvivenza aziendale.

Andrea

LA NUOVA FRONTIERA DELLA RESPONSABILITÀ CIVILE

La vera rivoluzione, tuttavia, si manifesta nell’intersezione tra il Regolamento europeo e il diritto societario italiano, dove emergono nuove forme di responsabilità personale per i vertici aziendali.

La mancata conformità all’AI Act può infatti concretizzare una violazione del dovere generale di diligenza previsto dall’articolo 2392 del Codice Civile, che impone agli amministratori di adempiere ai propri doveri con la diligenza richiesta dalla natura dell’incarico e dalle loro specifiche competenze. Questa responsabilità assume contorni particolarmente nitidi

quando si considera che assicurare la conformità a normative complesse come l’AI Act rientra pienamente nel dovere di informarsi, valutare e adottare tutte le misure ragionevolmente necessarie per garantire che l’attività aziendale avvenga nel rispetto della normativa vigente. Un CEO che guida un’azienda che utilizza significativamente l’intelligenza artificiale sarà quindi tenuto a un livello di diligenza più elevato nella comprensione dei rischi e dei requisiti di conformità.

L’aspetto più insidioso di questa nuova responsabilità riguarda la sua estensione oltre il rapporto con la società amministrata. La responsabilità civile dell’Amministratore Delegato può infatti estendersi ai creditori sociali quando l’inosservanza degli obblighi normativi compromette l’integrità del patrimonio sociale, rendendolo insufficiente a soddisfare le pretese creditorie. In questi casi, i creditori possono agire direttamente nei confronti degli amministratori per il risarcimento del danno subito, creando un meccanismo di responsabilità diretta che bypassa la protezione tradizionale della personalità giuridica societaria.

Ancora più preoccupante è la possibilità che la responsabilità si configuri nei confronti di singoli soci o terzi che abbiano subito un danno diretto causalmente connesso ad atti illeciti dolosi o colposi dell’amministratore, compiuti nell’ambito della gestione dell’intelligenza

artificiale. Questa ipotesi si verifica quando l’azione o l’omissione dell’amministratore, in violazione degli obblighi imposti dall’AI Act, pregiudica direttamente il patrimonio o altri interessi giuridicamente rilevanti del socio o del terzo.

LA DIMENSIONE PENALE

Sul fronte penale, la situazione presenta sfumature ancora più complesse. Sebbene l’AI Act non contempli sanzioni penali specifiche per le sue violazioni, non esclude affatto la potenziale rilevanza penale di condotte poste in essere in relazione al mancato rispetto del Regolamento. Azioni o omissioni che contravvengono alle disposizioni potrebbero, a seconda delle circostanze concrete e del danno cagionato, integrare fattispecie di reato già previste dall’ordinamento italiano.

I reati colposi contro la persona rappresentano forse il rischio più concreto, particolarmente in contesti sanitari o di trasporto dove sistemi di IA non conformi potrebbero causare danni fisici. Altrettanto realistici sono i rischi legati a reati di frode, qualora l’intelligenza artificiale venisse impiegata per manipolare dati o processi decisionali in modo da trarre ingiusto profitto, o a reati informatici, quando la violazione dell’AI Act comporti accessi abusivi a sistemi informatici o intercettazioni illecite di comunicazioni.

Particolare attenzione merita la

responsabilità amministrativa degli enti secondo il Decreto Legislativo 231/2001, dove l’utilizzo inadeguato di sistemi di intelligenza artificiale potrebbe configurarsi come modalità di commissione di reati.

La commissione di delitti informatici, reati societari o contro la Pubblica Amministrazione attraverso l’uso improprio dell’IA potrebbe evidenziare carenze significative nell’organizzazione aziendale, con ricadute dirette sulla valutazione della diligenza dell’Amministratore Delegato.

STRATEGIE DI GOVERNANCE PER L’ERA DELL’IA

Navigare efficacemente questo nuovo panorama normativo richiede un approccio strategico olistico che trasformi la compliance da obbligo subito a vantaggio competitivo.

Il primo imperativo è l’istituzione di una governance dell’intelligenza artificiale che vada oltre la mera conformità tecnica per abbracciare una visione strategica integrata. Questa governance deve definire chiaramente ruoli e responsabilità, stabilire processi decisionali trasparenti per lo sviluppo e l’implementazione di sistemi IA, e garantire l’allineamento tra strategia aziendale, obiettivi di business e requisiti legali.

L’alfabetizzazione sui rischi rappresenta un altro pilastro fondamen-

Dossier IBE 2025

di un processo continuo e iterativo che deve accompagnare l’intero ciclo di vita dei sistemi di intelligenza artificiale. Per i sistemi ad alto rischio, questo significa implementare processi robusti e documentati per censire e classificare tutti i sistemi IA utilizzati, condurre valutazioni del rischio approfondite e regolarmente aggiornate, e implementare misure tecniche e organizzative specifiche per la mitigazione dei rischi identificati.

tale di questa nuova governance. Il CEO deve acquisire una comprensione adeguata non solo dei principi di funzionamento dell’intelligenza artificiale, ma anche dei rischi associati e dei requisiti fondamentali dell’AI Act. L’obbligo di agire in modo informato assume qui importanza cruciale, richiedendo investimenti significativi in formazione e aggiornamento professionale per dirigenti, manager e personale coinvolto nello sviluppo o utilizzo di sistemi IA.

La gestione del rischio diventa quin-

2025 dossier

LA LEADERSHIP DEL FUTURO: TRA

INNOVAZIONE E RESPONSABILITÀ

L’analisi di scenari concreti illumina la portata pratica di questi nuovi rischi e la necessità di una leadership illuminata. Consideriamo un’azienda che implementi un sistema di social scoring per valutare i propri dipendenti: oltre alla violazione diretta del divieto previsto dall’AI Act, con sanzioni che possono raggiungere i 35 milioni di euro, il CEO si esporrebbe a responsabilità civile verso i dipendenti discriminati e potenziali azioni penali per violazione della

dignità della persona. Altrettanto significativo è il caso di un’azienda sanitaria che utilizzi un sistema di diagnosi automatica senza adeguata sorveglianza umana, dove le carenze nella valutazione e gestione del rischio non solo comporterebbero sanzioni amministrative fino a 15 milioni di euro, ma potrebbero configurare responsabilità penale qualora errori diagnostici causino danni gravi ai pazienti.

L’AI Act introduce così un nuovo paradigma di responsabilità che richiede dai leader aziendali una combinazione inedita di competenze tecniche, giuridiche e strategiche. La conformità non può più essere delegata come mero adempimento tecnico a strutture specializzate, ma rappresenta una responsabilità di governance fondamentale che richiede leadership attiva, informata e diligente da parte dei vertici aziendali. Questa trasformazione richiede investimenti significativi in consulenza legale e tecnica spe-

cializzata, una revisione profonda delle coperture assicurative D&O per garantire protezione adeguata contro i nuovi rischi, e l’implementazione di processi di due diligence rigorosi per la selezione di fornitori di sistemi IA.

L’era dell’intelligenza artificiale richiede dunque una nuova generazione di leader aziendali, capaci di coniugare l’innovazione tecnologica con la responsabilità giuridica, trasformando la compliance in un elemento distintivo della strategia aziendale. Solo attraverso questo approccio integrato i vertici aziendali potranno navigare efficacemente le complessità del nuovo panorama normativo, dimostrando l’adempimento dei propri doveri di diligenza secondo il diritto italiano e costruendo al contempo un vantaggio competitivo sostenibile nel lungo termine.

In definitiva, l’intelligenza artificiale non rappresenta solo una sfida tecnologica o normativa: è il cata-

lizzatore di una profonda evoluzione del concetto stesso di leadership aziendale. I CEO di domani non saranno giudicati solo per la loro capacità di generare profitti, ma per la loro abilità nel bilanciare innovazione e responsabilità, efficienza e etica, crescita e sostenibilità.

L’AI Act non è quindi un ostacolo da aggirare, ma una bussola che orienta verso un modello di business più consapevole, dove la tecnologia diventa strumento di progresso solo quando guidata da una governance illuminata e responsabile.

Chi saprà abbracciare questa visione non solo eviterà i rischi di oggi, ma costruirà le fondamenta del successo di domani.

AI nei luoghi di Lavoro nuovi Rischi

per il Capitale Umano

L’adozione crescente di sistemi di intelligenza artificiale nelle organizzazioni introduce forme inedite di rischio che spesso sfuggono alla valutazione convenzionale. Oltre agli aspetti tecnico-sicurezza, emergono effetti psicosociali, cognitivi e organizzativi, tra cui sovraccarico informativo, deskilling, erosione delle capacità di giudizio, introiezione di distorsioni cognitive (bias) e inadeguata gestione in caso di errori e fallimenti della macchina. Questi fenomeni, documentati nella letteratura scientifica e riconosciuti dal Regolamento Europeo sull’IA richiedono una riformulazione del ruolo del Servizio di Prevenzione e Protezione (SPP).

Una tassonomia ragionata dei rischi comprende: controllo, competenza, agency, cooperazione e loro integrazione con la valutazione dei rischi (DVR) e nella progettazione di misure preventive, formative e organizzative.

Prof. Ing.

Federico Cabitza, Università degli Studi di Milano - Bicocca

1. ANALISI DEL CONTESTO: L’IA COME FATTORE DI RISCHIO

ORGANIZZATIVO

L’introduzione dell’intelligenza artificiale nei contesti lavorativi rappresenta un cambiamento organizzativo profondo, non un semplice aggiornamento tecnologico. I sistemi di IA stanno assumendo ruoli di co-decisori in attività prima riservate all’uomo, introducendo rischi nuovi, meno visibili ma decisamente incisivi sul capitale umano. Fenomeni come la riduzione delle competenze (deskilling), il sovraffidamento, il sovraccarico informativo, l’internalizzazione di condizionamenti (bias) algoritmici e la colpevolizzazione dell’operatore umano in caso di errori sfuggono spesso alla valutazione prevista dal Documento di Valutazione dei Rischi e all’azione del Servizio di Prevenzione e Protezione (SPP). Il Regolamento Europeo sull’IA riconosce ufficialmente questi rischi, anche sul piano psicologico e decisionale. In questo contesto,

dotarsi di una tassonomia dei rischi

IA e di strumenti di valutazione specifici diventa un obbligo organizzativo: il SPP deve assumere un ruolo centrale nella gestione strategica di tali minacce.

2. UN APPROCCIO STRATEGICO E OPERATIVO

Per affrontare questa sfida in modo concreto, si propone un approccio articolato su tre direttrici operative interconnesse.

2.1. COSTRUZIONE DI UNA TASSONOMIA DEI RISCHI COGNITIVI E ORGANIZZATIVI

Il primo passo è sviluppare una tassonomia che funga da riferimento per il SPP, capace di tradurre i fenomeni osservabili, quali comportamenti anomali, dinamiche relazionali disfunzionali e alterazioni delle performance operative – in categorie di rischio definite e misurabili. L’ipotesi è considerare una classi-

19 novembre 2025 n. 11

Dossier IBE 2025

ficazione basata su quattro dimensioni fondamentali:

A. Asse del Controllo:

Questa dimensione riguarda la perdita di supervisione umana effettiva e l’opacità crescente dei sistemi algoritmici (il cosiddetto black box problem). La difficoltà nel comprendere e validare i processi logici che generano l’output dell’IA compromette la possibilità di intervento correttivo e l’attribuzione di responsabilità, aumentando il rischio di passività e perdita di controllo.

B. Asse della Competenza: Si focalizza sul rischio di deskilling, ovvero l’erosione o il mancato sviluppo di abilità critiche a causa della sistematica sostituzione dell’agente umano da parte della macchina. Questo fenomeno non solo impoverisce il singolo lavoratore, ma depaupera il patrimonio di conoscenze dell’intera organizzazione, rendendola più fragile e meno adattiva nel lungo periodo.

C. Asse dell’Agency: Riguarda la riduzione della capacità individuale di agire in modo autonomo e consapevole. La subordinazione acritica alle indicazioni dell’IA, anche in contrasto con l’esperienza dell’operatore, indebolisce il senso di responsabilità e l’autonomia decisionale, riducendo il lavoratore a un esecutore passivo.

2025 dossier

D. Asse della Cooperazione: Analizza le disfunzioni nell’interazione e integrazione tra agenti umani e sistemi di IA. Una progettazione inadeguata di tale collaborazione può generare frizioni comunicative, minare la fiducia reciproca, rendere complessa la gestione dell’errore e ostacolare l’apprendimento organizzativo che dovrebbe scaturire da un’efficace sinergia uomo-macchina.

2.2. Integrazione della Valutazione dei Rischi da IA nel DVR

Il Documento di Valutazione dei Rischi deve aggiornarsi per includere in modo sistematico i nuovi rischi legati all’IA. È necessario introdurre una valutazione ex ante che definisca i processi coinvolti, il grado di autonomia del sistema e il livello di supervisione umana previsto. Va inoltre mappato il capitale umano esposto, per evitare la deresponsabilizzazione e la perdita di competenze. Il monitoraggio deve superare gli indicatori tradizionali, includendo segnali deboli come anomalie nei tempi di risposta, errori ricorrenti, variazioni operative o assenza di escalation in situazioni ambigue. Per rilevare questi aspetti, è essenziale integrare l’analisi quantitativa con strumenti qualitativi e partecipativi, come interviste, focus group e osservazioni dirette sul campo, valorizzando l’esperienza dei lavoratori a contatto con i sistemi di IA.

2.3. Implementazione di Misure Organizzative e Formative Mirate

La mitigazione dei rischi richiede interventi concreti, a partire da percorsi formativi avanzati che non si limitino agli aspetti tecnici, ma affrontino i limiti dell’IA, la trasparenza degli algoritmi utilizzati (spiegabilità) e la responsabilità condivisa. Fondamentali sono anche simulazioni di errore e scenari critici, utili a rafforzare l’intervento umano e a promuovere una cultura del giudizio critico. Servono inoltre linee guida operative per l’interazione uomomacchina, con protocolli per gestire il disaccordo con l’IA e attivare le opportune contromisure. Infine, politiche di rotazione, upskilling e reskilling sono strategiche per prevenire l’atrofia delle competenze e mantenere la versatilità del capitale umano.

D’altro canto, Integrare i rischi legati all’IA nel mandato del SPP comporta sfide rilevanti. Culturalmente, l’IA è spesso percepita come neutra e infallibile, mentre le organizzazioni privilegiano l’efficienza a scapito della riflessione critica. Metodologicamente, mancano strumenti standardizzati per valutare i rischi psicosociali e cognitivi indotti dall’IA, e le evidenze disponibili non sono facilmente traducibili in pratiche operative. Sul piano organizzativo, il SPP può non disporre delle competenze interdisciplinari né dell’autorità per incidere sulle scelte di digitalizzazione. Inoltre, gli effetti di questi rischi emergono nel mediolungo termine, riducendo la perce-

Dossier IBE 2025

zione della loro urgenza. Sebbene l’AI Act fornisca principi guida, esso affida alle singole organizzazioni il compito di attuare misure contestuali e proattive.

3. I BENEFICI STRATEGICI DI UN APPROCCIO PROATTIVO E I COSTI DI NON PERSEGUIRLO ADEGUATAMENTE

Ripensare il ruolo del SPP in chiave cognitiva e organizzativa produce un valore strategico rilevante. Questo approccio aiuta a prevenire danni invisibili ma sistemici al capitale umano, tutelando competenze e benessere. Favorisce un’adozione più consapevole dell’IA, riducendo le resistenze e promuovendo una cultura dell’errore costruttiva e del confronto critico con la macchina. Ne derivano benefici per la qualità dei dati, dei processi e delle decisioni. Così l’IA può diventare uno strumento di potenziamento, non di sostituzione. Un’organizzazione capace di gestire questi rischi rafforza infine la propria resilienza, migliorando la risposta a crisi e anomalie.

L’inazione o un approccio attendista comportano costi occulti ma elevati, favorendo un’erosione progressiva del capitale umano. Le competenze si indeboliscono, i professionisti smettono di esercitare il pensiero critico e diventano supervisori passivi. L’agency si riduce: i lavoratori si sentono meno responsabili e meno legittimati a contestare l’IA, anche quando l’esperienza lo richiederebbe. Questo mina la fiducia organizzativa, soprattutto quando gli errori del sistema vengono attribuiti ingiustamente all’operatore. Infine, si perde la capacità di apprendere dall’esperienza, ostacolando l’evoluzione congiunta tra persone e tecnologia.

4. CONCLUSIONE E RIFLESSIONE

L’adozione diffusa dell’intelligenza artificiale è una sfida strutturale per le organizzazioni, ma anche un’occasione per valorizzare il lavoro umano e promuovere un’innovazione sostenibile. Il Servizio di Prevenzione e Protezione, se dotato di strumenti adeguati e di un chiaro mandato strategico, può assumere un ruolo centrale in questo processo, proteggendo non solo il corpo, ma anche la mente, l’autonomia e le competenze, e orientando l’uso dell’IA verso forme più consapevoli, cooperative e umane. In questo contributo abbiamo cominciato a indirizzare le tre domande che ciascuno in azienda dovrebbe porsi se interessato all’impatto dei sistemi di intelligenza artificiale in contesti lavorativi e per la precisione:

1. Quali sono i benefici strategici che posso trarre da un approccio proattivo?

2. Qual è il costo che sosterrò per l’inazione?

3. A che punto sono per una gestione proattiva e la salvaguardia del capitale umano della mia azienda?

La terza è la domanda a cui nessuno può rispondere al posto vostro, perché riguarda chi sta seguendo il tema, a quali informazioni può accedere, e qual è l’ambito decisionale previsto per quel ruolo.

In questo contributo abbiamo cercato di sensibilizzare riguardo l’importanza di queste domande e della conoscenza che è bene mobilitare per indirizzarle.

Lete e Mnemosine: riflessioni sull’impatto dell’AI nelle organizzazioni

La storia, maestra di vita, ci porta ad osservare nella mitologia greca la presenza di Mnemosine, dea della memoria, e Lete, simbolo dell’oblio.

L’attualità del mito è evidente se rapportata all’impatto degli strumenti di intelligenza artificiale (IA) nelle organizzazioni dei nostri tempi e, in particolare, nelle imprese.

Questi strumenti riducono la creatività e l’impegno delle persone? E in che modo preservare e valorizzare la memoria organizzativa e i saperi esperti che caratterizzano ogni impresa –a prescindere dalla sua grandezza e dal suo ambito d’attività?

Qui il vero manager deve decidere ed agire…

Nella Teogonia, Esiodo racconta l’origine del cosmo e la genealogia degli dèi. Tra i momenti centrali di questa narrazione vi è l’unione tra Urano, il cielo, e Gea, la terra, dalla quale nascono due gemelle: Mnemosine, dea della memoria, e Lete, simbolo dell’oblio Lungi dall’essere figure contrapposte, esse venivano concepite come inseparabili e complementari. Nel mondo greco e romano, la memoria era considerata il pilastro della civiltà: un dono prezioso, capace di custodire i valori fondativi dell’esperienza umana e di trasmetterli alle generazioni future. Tuttavia, era soltanto nel dialogo con il suo opposto – l’oblio – che si poteva raggiungere un equilibrio autentico. Non a caso, Lete era anche il nome del fiume dell’aldilà citato da Platone nella Repubblica e da Dante nel Purgatorio: immergersi nelle sue acque significava cancellare ricordi e coscienza, per aprirsi a

Luca Verzelloni, Università degli Studi di Milano - Bicocca

Associato di Sociologia

una rigenerazione, a una nuova vita.

L’attualità del mito è evidente se rapportata all’impatto degli strumenti di intelligenza artificiale (IA) nelle organizzazioni dei nostri tempi e, in particolare, nelle imprese.

Accanto ai numerosi vantaggi – incremento dell’efficienza, semplificazione dei processi, stimolo all’innovazione – emergono, infatti, alcuni interrogativi cruciali: come evitare che, in assenza di una governance consapevole, questi strumenti riducano la creatività e l’impegno delle persone? E in che modo preservare e valorizzare la memoria organizzativa e i saperi esperti che caratterizzano ogni impresa – a prescindere dalla sua grandezza e dal suo ambito d’attività?

La tesi di fondo di questa relazione è che, come insegna il mito di Mnemosine e Lete, oggi, più che mai, sia necessario ricercare un

nuovo equilibrio tra memoria e oblio

Gli strumenti di IA – soprattutto quella generativa – si fondano su una promessa allettante: generare contenuti inediti e innovativi proprio a partire dalle conoscenze che sono state accumulate in passato. La retorica associata a questi processi di innovazione tecnologica descrive l’IA come una sorta di ponte magico tra passato e presente, tra memoria e oblio.

La realtà è, invece, molto più complessa di quanto sembri a prima vista.

L’applicazione dell’IA nasconde, infatti, due possibili rischi che, se non adeguatamente governati, possono minacciare l’attività d’impresa e la sua capacità di fare business in modo responsabile e sostenibile nel medio e soprattutto nel lungo periodo.

In primo luogo, sul versante della memoria, questi strumenti potrebbero

Dossier IBE 2025

incoraggiare l’accumulo indiscriminato di dati e informazioni. Essendo sempre più facile interrogare grandi basi dati, le imprese potrebbero sviluppare una sorta di memoria ipertrofica, ossia disinvestire (in modo più o meno consapevole) sulla selezione, catalogazione e sostituzione delle informazioni superate o non più attendibili. Senza un’adeguata e continua opera di depurazione, le aziende potrebbero ottenere dall’IA delle risposte viziate, in quanto fondate su set di dati errati o antiquati. Inoltre, l’aumento della mole di dati e informazioni catalogate potrebbe, paradossalmente, accrescere l’ambiguità, ossia rendere più difficile distinguere le informazioni rilevanti da quelle marginali e confondere il management di fronte a una pluralità di possibili interpretazioni. In tal senso, l’ipertrofia della memoria organizzativa non garantisce maggiore

2025 dossier

accuratezza o affidabilità, ma rischia piuttosto di alimentare incertezze, ridondanze e diseconomie, complicando i processi decisionali e aumentando la dipendenza delle imprese dagli stessi sistemi tecnologici di ordinamento e interpretazione dei dati. Questi processi potrebbero contribuire all’emersione di fenomeni di “miopia organizzativa” – da intendersi come l’incapacità o la relativa difficoltà di riconoscere i segnali di potenziale pericolo (ma anche di possibili opportunità), che potrebbero minare la sopravvivenza stessa di un’azienda.

In secondo luogo, sul versante dell’oblio, un’applicazione non consapevole degli strumenti di intelligenza artificiale potrebbe favorire la dispersione e la perdita progressiva del patrimonio di pratiche, prassi, soluzioni operative, conoscenze tacite e competenze esperte che caratterizzano ogni conte-

sto aziendale. Tale processo rischia di erodere il capitale di esperienze accumulato nel tempo, ma anche di intaccare la cultura organizzativa e di compromettere la trasmissione dei saperi, riducendo, pertanto, la capacità di fare tesoro degli errori del passato e di mantenere viva la memoria storica di un’impresa. Queste dinamiche non solo non supporterebbero lo sviluppo di nuove innovazioni – nelle loro possibili forme (di prodotto, di processo, organizzativa, ecc.) – ma potrebbero disincentivare la creatività e l’impegno delle persone, diminuire il livello di benessere organizzativo, favorire l’aumento di stress lavorocorrelato e l’emersione di fenomeni di burnout. L’impresa corre il pericolo di trasformarsi in un contesto fragile e transitorio, incapace di valorizzare il patrimonio di esperienze e competenze accumulate dalle persone che, di conseguenza, appena possono, tenderanno a cercare altre opportunità, alimentando un circolo vizioso di turnover, perdita di conoscenze e crescente fragilità d’impresa.

Come uscire da questo labirinto?

Posto che non esistono bacchette magiche occorre, in primo luogo, occuparsi del “sistema concreto d’azione” delle imprese e non soltanto dei suoi aspetti formali, cristallizzati negli organigrammi, nei business plan e nelle regole aziendali. In questo senso, lungi dal rifiutare in modo aprioristico le tecnologie, è necessario affiancare all’introduzione degli strumenti di IA dei percorsi di accompagnamento, formazione e supporto,

per accrescere nelle imprese una consapevolezza diffusa sulle potenzialità, ma anche sui rischi associati a questi strumenti. Solo in questo modo l’IA potrà diventare un alleato delle imprese per innovare e sapersi rigenerare di continuo, anche in funzione delle pressioni e delle mutevoli esigenze del mercato, senza per questo appiattire la propria specifica cultura organizzativa.

In questa prospettiva, appare urgente dar vita a un nuovo patto organizzativo che non si limiti a regolare l’uso degli strumenti tecnologici, ma che riconosca la centralità delle persone e delle loro competenze, promuovendo una cultura dell’innovazione capace di coniugare memoria e oblio, efficienza e responsabilità, creatività e sostenibilità. Un governo responsabile e sostenibile dell’IA passa, da un lato, attraverso la capacità delle imprese di aprirsi in modo selettivo al loro ambiente di riferimento, per promuovere una contaminazione dei saperi e, dall’altro, attraverso

la promozione di think tank interprofessionali – interni o esterni al perimetro delle aziende – che, superando gli steccati disciplinari, siano capaci di fornire alle imprese (ma anche agli apparati della pubblica amministrazione e agli enti del terzo settore) un supporto continuativo, sia in termini di soluzioni operative sia di tipo metodologico. Questa è la strada maestra per far sì che le imprese trasformino l’intelligenza artificiale da un fattore di rischio a una leva strategica, orientando l’innovazione verso obiettivi di medio e soprattutto lungo periodo, che sappiano rafforzare la loro specifica identità, la loro resilienza e la loro capacità di generare valore in modo responsabile e sostenibile.

Verso le organizzazioni I2E: intelligenti - integrateefficaci, per competere nell’era dell’IA.

Nel panorama aziendale contemporaneo, caratterizzato da complessità crescente e cambiamenti rapidi, emerge con forza il concetto di “organizzazione intelligente, integrata e efficace”.

Ma cosa definisce realmente un’organizzazione come tale? La risposta va oltre la semplice adozione di tecnologie avanzate: si tratta da un lato di sviluppare una capacità sistemica e integrata di raccogliere, elaborare e analizzare dati eterogenei in tempo reale, trasformandoli in decisioni strategiche e operative con un impatto sul management, la governance e le persone. Il focus va sulle competenze, capacità di leadership e soft skill su tutta la catena di comando e in tutto il flusso operativo.

L’AI rimane un abilitatore da usare nel rispetto delle normative, ma il differenziatore è rappresentato dalle competenze e dalla capacità di mettere a regime una governance strutturata in grado di seguire le dinamiche del cambiamento. FOCUS on obiettivi e su come li si intende raggiungere! Non c’è spazio per l’improvvisazione fine a se stessa.

Andrea Rossetti, Direttore scientifico RED OPEN
Massimo V.A. Manzari, CEO co-founder RED OPEN
Massimo Fucci, COO RED OPEN

Dossier IBE 2025

ANATOMIA DELL’INTELLIGENZA ORGANIZZATIVA

Un’organizzazione intelligente, integrata e efficace (I2E) manifesta caratteristiche distintive che la differenziano da quelle tradizionali. Prima tra tutte, la padronanza sistemica dei dati: non si limita ai dati strutturati tradizionali, ma si estende a volumi massicci di informazioni non strutturate, provenienti da fonti sia interne che esterne. Questa competenza analitica avanzata si traduce nella capacità di prendere decisioni strategiche rapide e accurate, supportate da insight predittivi generati attraverso l’applicazione sofisticata di tecniche di Intelligenza Artificiale.

L’adattabilità intrinseca rappresenta un altro pilastro fondamentale. L’organizzazione deve rispondere dinamicamente a scenari complessi e in continua evoluzione, anticipando i cambiamenti di mercato e riorientando le strategie di conseguenza. Strumenti innovativi come l’IA generativa offrono la possibilità di esplorare scenari “what-if”, permettendo alle aziende di testare la resilienza delle proprie strategie e prepararsi a diverse eventualità future.

I LEADER DELLA TRASFORMAZIONE DATA-DRIVEN

Analizzando le organizzazioni all’avanguardia emerge come alcune abbiano già abbracciato pienamente questa filosofia. Microsoft ha implementato un approccio sofisticato alla gestione dei dati attraverso un’architettura “data mesh” che favorisce scalabilità e flessibilità. Il loro Data Council, con rappresentanti da diverse funzioni aziendali, coordina una strategia unificata dei dati e facilita la formazione sui temi dell’IA.

Amazon incarna l’approccio data-driven con la sua “ossessione per i clienti”, utilizzando intensivamente i dati per comprendere e anticipare le esigenze dei consumatori. L’azienda applica l’IA per l’automazione della gestione dell’inventario tramite robot avanzati e per algoritmi di raccomandazione personalizzata nel Marketplace.

Google, con oltre vent’anni di impegno nell’IA, ha dichiarato l’intenzione di investire 75 miliardi di dollari nel 2025 per espandere l’infrastruttura dei data center, testimoniando l’importanza strategica attribuita a queste tecnologie per sostenere servizi core e modelli IA avanzati come Gemini.

LA SINERGIA UOMO-IA: OLTRE L’AUTOMAZIONE

La vera intelligenza organizzativa non risiede nella sostituzione dell’elemento umano, ma nella creazione di una sinergia profonda tra intelligenza umana e artificiale. Microsoft Research ha sviluppato un approccio basato su principi come “Harmony” (fiducia e minimizzazione dei conflitti), “Synergy” (complementarità tra capacità umane e IA) e “Resilience” (adattabilità dei sistemi).

Netflix esemplifica questo approccio descrivendo il lavoro del proprio team HR come un’intersezione tra “arte” (aspetto umano) e “scienza” (tecnologia data-driven). L’azienda sta pilotando l’uso dell’IA generativa per migliorare i processi di feedback interno, mantenendo però l’utilizzo di queste funzionalità come opzionale, preservando la centralità dell’elemento umano.

Nel settore sanitario, la collaborazione tra radiologi e sistemi di imaging potenziati dall’IA dimostra come questa sinergia possa funzionare nella pratica: l’IA analizza migliaia di immagini mediche segnalando aree di potenziale interesse, mentre il radiologo umano applica esperienza clinica e giudizio per confermare diagnosi e decidere percorsi terapeutici.

LA RICONFIGURAZIONE ANTROPOLOGICA DEL LAVORO NELL’ERA

ALGORITMICA

L’introduzione dell’Intelligenza Artificiale nei processi aziendali non costituisce soltanto un cambiamento tecnologico, ma implica una riconfigurazione antropologica del lavoro. La distinzione tra ciò che è “arte” (l’umano) e ciò che è “scienza” (l’algoritmo), come nel caso emblematico di Netflix, non è un mero dualismo funzionale, ma segnala una ridefinizione delle responsabilità epistemiche all’interno delle organizzazioni.

L’elemento umano, tradizionalmente inteso come portatore di capacità intuitive, di esperienza tacita e di giudizio situato, rischia oggi di trasformarsi in un sorvegliante passivo di decisioni automatizzate.

La metafora dell’”arte” rischia, se non criticamente tematizzata, di ridurre l’intervento umano a un’estetizzazione dell’algoritmico. Ma che tipo di soggetto resta il lavoratore, se le funzioni cognitive vengono progressivamente delegate?

Questa situazione può essere interpretata in termini di dipendenza epistemica: il lavoratore moderno non “sa” in senso pieno, ma si affida a un sistema. La conoscenza non è più distribuita, ma differita, e la responsabilità individuale si dissolve nel rumore del calcolo.

Dossier IBE 2025

Nel linguaggio aziendale contemporaneo si assiste a un progressivo slittamento dalla nozione di competenza a quella di adesione procedurale. Le decisioni “data-driven” sono presentate come necessitate dai dati, ma questo elimina lo spazio della deliberazione responsabile. In termini logico-deontici, potremmo dire che si passa da una struttura prescrittiva del tipo “Devi decidere se fare A o B, assumendotene la responsabilità” a una del tipo “Devi eseguire ciò che il sistema suggerisce, perché è ottimale”. Ciò implica una normazione implicita dell’obbedienza tecnica, che si cela dietro l’apparente neutralità degli algoritmi.

Per evitare questa deriva, è necessario costruire forme di cognizione ibrida, in cui l’umano mantenga il potere di interrogare, interpretare, sospendere l’esecuzione, anche contro l’indicazione algoritmica. Serve una nuova forma di agency riflessiva, in cui il lavoratore non sia solo terminale operativo, ma agente interpretante. Questo impone alle organizzazioni di formare non solo competenze tecniche, ma anche competenze critiche, capaci di problematizzare l’automazione.

è quello di una “etica della compliance”, in cui il giusto coincide con ciò che è funzionalmente efficiente. Occorre invece una grammatica normativa del lavoro ibrido, che restituisca centralità all’uomo come soggetto di decisione, non semplice nodo in una rete neurale.

Nel contesto della filosofia del diritto, questa riconfigurazione impone un’analisi delle condizioni in cui può dirsi attribuibile una responsabilità giuridica o etica a soggetti che operano in ambienti algoritmici. Il rischio

2025 dossier

L’intelligenza organizzativa non può consistere nella sola ottimizzazione dei processi, ma deve includere la cura del soggetto che decide. La sfida antropologica posta dall’IA è quella di preservare uno spazio per l’umano non come eccezione, ma come condizione stessa di una razionalità realmente responsabile.

LA SPINA DORSALE

CULTURALE E NORMATIVA

L’intelligenza organizzativa trascende l’implementazione tecnologica, radicandosi profondamente nella cultura aziendale. Netflix ha integrato nei suoi valori fondamentali il principio “Judgment: usi i dati per informare la tua intuizione”, mentre Google ha implementato iniziative come la “Data Analytics Academy” per diffondere la data literacy a tutti i livelli organizzativi.

La governance etica dell’IA rappresenta un aspetto critico. Workday ha stabilito principi chiari di etica dell’IA, integrandoli nei framework di sviluppo prodotto attraverso un approccio “ethics-by-design”. Microsoft affronta la governance attraverso il suo Data Council, che supervisiona privacy, sicurezza, uso etico dell’IA e conformità normativa.

Tuttavia, un report di Accenture ha rilevato che solo il 2% circa delle aziende ha pienamente operazionalizzato i principi di IA responsabile, evidenziando il divario tra riconoscimento dell’importanza e implementazione effettiva.

L’IMPERATIVO DELL’OPEN

SOURCE INTELLIGENCE

Un aspetto distintivo delle organizzazioni OI2E è l’integrazione dell’Open Source Intelligence (OSINT) potenziata dall’IA. Questa capacità permette di analizzare informazioni da fonti pubblicamente accessibili - come registri societari, social media, pubblicazioni accademiche - trasformandole in conoscenza strategica.

L’IA si configura come strumento chiave per setacciare, filtrare e interpretare questa enorme mole di dati aperti, identificando pattern nascosti e connessioni non evidenti. Mentre i dati interni forniscono una visione dell’organizzazione stessa, l’OSINT offre una finestra cruciale sul mondo esterno: ecosistema competitivo, dinamiche di mercato, innovazioni tecnologiche e sentiment dei consumatori.

RIFLESSIONI SULLE

COMPETENZE E DINTORNI

Ogni azienda desidera crescere più velocemente, innovare di più e rimanere all’avanguardia. Tuttavia, c’è un ostacolo: le competenze! Secondo una serie di studi di diversa natura solo il 10% dei responsabili del personale/dello sviluppo e formazione è pienamente fiducioso che la propria forza lavoro possa raggiungere gli obiettivi aziendali nei prossimi 12-24 mesi. Inoltre il 37% degli intervistati afferma che le lacune di competenze limitano la loro capacità di perseguire nuovi mercati o opportunità.

Ma c’è un rischio ancora più profondo che le organizzazioni devono affrontare: cosa succede quando lo smettere di pensare diventa più comodo che pensare? Quando un tool di IA può generare in ore ciò che richiedeva settimane di analisi, la tentazione è ovvia: perché sforzarsi di pensare? L’IA non pensa. Elabora pattern, correla dati, estrapola tendenze attraverso complesse reti neurali. Il pensiero critico

Dossier IBE 2025

rimane esclusivamente umano. È quello che distingue correlazione da causazione, che intuisce il non detto, che immagina il non ancora esistente. Ricordiamoci che tutti i sistemi LLM disponibili lavorano su di una base dati non recente.

Se deleghiamo senza coscienza di ciò, rischiamo di atrofizzare proprio quelle capacità che ci rendono unici: il pensare, la capacità di dubitare, l’intuizione che va oltre i dati, la creatività che rompe gli schemi, l’empatia che comprende il contesto umano. Quando deleghiamo analisi strategiche, scrittura di rapporti, creazione di contenuti e definizione di scenari a queste scatole nere, stiamo davvero potenziando la nostra mente?

O stiamo diventando penitenti dissoluti che confessano la propria ignoranza ai confessori artificiali, ottenendo in cambio saperi da recitare e fare nostri, moderne preghiere ristoratrici?

Il problema principale è la mancanza di visibilità e allineamento: i manager non possono ben decidere se non sanno cosa i loro dipendenti

sono effettivamente in grado di fare. Ma più criticamente, devono chiedersi: i loro dipendenti stanno ancora pensando o stanno solo eseguendo ciò che l’IA suggerisce?

L’intelligenza artificiale (AI) accelererà i progressi se abbinata a dati di alta qualità sulle competenze e a chiari obiettivi di business, nonché di una governance efficace in grado di perseguirli. Tuttavia, la chiave non è scegliere tra essere tecnofili o luddisti. La chiave è sviluppare un rapporto critico e consapevole con questi strumenti. Le organizzazioni devono insegnare ai propri team a:

1. Interrogare criticamente i risultati dell’IA: - Perché questa risposta? - Quali assunzioni sottostanti posso identificare? - Cosa manca in questa analisi? - Chi beneficia se seguo questo consiglio? - Che responsabilità mi assumo?

2. Mantenere la sovranità del pensiero: - Verificare sempre con fonti indipendenti - Coltivare opinioni contrarie - Preservare spazi di riflessione non mediata - Confrontarsi con pari ed esperti

3. Sviluppare competenze profonde: - Non solo saper usare l’IA, ma capire come funziona - Non solo ottenere risposte, ma formulare domande migliori - Non solo efficienza, ma saggezza - Non solo risultati, ma comprensione del processo

Le organizzazioni che adottano l’intelligenza delle competenze otterranno la chiarezza, la flessibilità e la sicurezza necessarie per adattarsi

rapidamente. Ma devono anche preservare e coltivare la capacità di pensiero critico. Stiamo entrando in un’era dove non capire i principi base dell’IA sarà come non saper leggere. Ma non si tratta di diventare programmatori. Si tratta di capire come i sistemi di IA prendono decisioni, sapere quali dati alimentano quale conclusione, comprendere incertezza e confidenza e soprattutto riconoscere le implicazioni morali delle scelte tecniche.

La strada da seguire è una strategia unificata per le competenze che misuri le capacità, indirizzi gli investimenti e colleghi l’apprendimento alle prestazioni. Ma deve includere anche lo sviluppo di quella che potremmo chiamare “saggezza digitale”: la capacità di sapere non solo come usare l’IA, ma quando non usarla; non solo come delegare, ma cosa preservare come esclusivamente umano.

Questo indica che la maggior parte dei leader punta a risultati che la propria forza lavoro non è pronta a fornire. Le lacune di competenze stanno rallentando i progressi, i programmi di sviluppo non sono allineati con le esigenze aziendali e i leader non hanno la visibilità necessaria per prendere decisioni intelligenti.

Ironicamente, proprio quando abbiamo strumenti che potrebbero sostituire il pensiero, abbiamo più che mai bisogno di pensare. L’IA amplifica tutto: genialità e stupidità, saggezza e follia, verità e menzogna. In questo nuovo ecosistema, sopravvive non chi sa di più,

ma chi sa pensare meglio. Non chi ha le risposte più veloci, ma chi fa le domande più profonde.

Tuttavia, i risultati degli studi indicano anche un’opportunità: le organizzazioni che passeranno da una formazione frammentata all’intelligenza delle competenze (una visione accurata e in tempo reale delle capacità della forza lavoro direttamente collegata alle esigenze aziendali) otterranno un vantaggio in termini di velocità, agilità e resilienza.

Ma solo se contemporaneamente preservano e potenziano la capacità umana di pensiero critico, di dubbio costruttivo, di creatività non algoritmica. La vera domanda non è cosa l’IA può fare per noi. È cosa noi scegliamo di rimanere capaci di fare per noi stessi e gli altri.

LE COMPETENZE SONO ORA IL LIMITE ALLA CRESCITA

Le “lacune di competenze” sono diventate un problema centrale nel 2025, influenzando la capacità delle aziende di raggiungere i propri obiettivi. Il 32% dei professionisti delle risorse umane e dello sviluppo e formazione afferma che le lacune di competenze limitano la loro capacità di espandersi in nuovi mercati o opportunità. Quasi 1 su 3 riferisce che il 54% dei nuovi assunti arriva con lacune critiche. Il 37% teme di perdere i propri migliori dipendenti a favore di concorrenti che offrono migliori opportunità di sviluppo. Quando i dipendenti non hanno le competenze giuste, i progetti si

Dossier IBE 2025

bloccano, i team si frustrano e le aziende perdono slancio. Le lacune non riguardano solo aree di nicchia, ma anche la leadership, l’AI e le competenze tecniche fondamentali, aree cruciali per prosperare in un’economia in rapida evoluzione.

LA VISIBILITÀ SULLE COMPETENZE RIMANE UN PUNTO CIECO

Una delle maggiori sorprese del sondaggio di quest’anno è la scarsa visibilità che i leader hanno sulle competenze effettive dei propri dipendenti. Il 91% dei professionisti delle risorse umane ritiene che i dipendenti sovrastimino la propria competenza, in particolare nei settori della leadership, dell’AI e delle competenze tecniche. Solo il 18% misura regolarmente le competenze durante il percorso di sviluppo dei talenti. Ciò significa che la maggior parte delle organizzazioni procede per tentativi quando si tratta di capacità, scoprendo solo a metà progetto che i le persone delegate non sono in grado di eseguire il compito assegnato in modalità efficace, con conseguenti sprechi di budget e ritardi nelle tempistiche. L’intelligenza delle competenze, ovvero una misurazione coerente e affidabile collegata agli obiettivi strategici, è la base per allineare le capacità della forza lavoro con i risultati aziendali.

L’AI COME SFIDA E CATALIZZATORE

L’AI sta trasformando il modo in cui il lavoro viene svolto e creando nuove

categorie di posti di lavoro. Ha anche un enorme potenziale per rimodellare il modo in cui pensiamo alle competenze, facilitando l’identificazione delle lacune, la personalizzazione dell’apprendimento e fornendo ai leader informazioni in tempo reale. Tuttavia, il 41% dei professionisti delle risorse umane afferma che la resistenza al cambiamento è la principale barriera all’adozione dell’AI, il 28% cita la mancanza di competenze tecniche sull’AI e quasi il 50% desidera che l’AI sia integrata negli strumenti di intelligenza delle competenze per migliorare accuratezza e pertinenza. L’AI accelererà le strategie di governance delle competenze laddove le organizzazioni la abbinano a dati affidabili e obiettivi chiari, ma avrà prestazioni inferiori se applicata a sistemi frammentati o priorità vaghe.

PROGRAMMI FRAMMENTATI

MINANO L’IMPATTO

La maggior parte delle organizzazioni non ignora le competenze, ma i programmi di sviluppo esistenti non stanno producendo i risultati desiderati. L’85% delle aziende dichiara di avere programmi di sviluppo, ma solo il 20% ritiene che tali programmi siano allineati con gli obiettivi aziendali e solo il 6% considera i propri sistemi “eccezionali”. Le barriere più comuni sono il basso coinvolgimento dei dipendenti (42%) e la mancanza di tempo per la formazione (41%). I dipendenti desiderano un apprendimento pertinente e utile, ma troppo spesso ricevono contenuti generici e standardizzati. I programmi da soli

non risolveranno la sfida delle competenze; è necessario passare da uno sviluppo frammentato e basato su programmi a strategie unificate che integrino la misurazione delle competenze, l’apprendimento pertinente e chiari collegamenti con i risultati aziendali.

LA STRADA DA SEGUIRE

Le competenze sono il fondamento delle prestazioni, la differenza tra raggiungere o mancare gli obiettivi di crescita, tra trattenere o perdere i migliori talenti, tra muoversi velocemente o rimanere indietro. Le aziende I2E cambiano il modo di pensare alla pianificazione della forza lavoro: iniziare dalle competenze, non dai titoli; misurare i progressi continuamente, non una volta all’anno; usare l’AI come abilitatore, non come stampella; e collegare l’upskilling e il reskilling direttamente ai risultati aziendali. Le aziende che passeranno all’intelligenza delle competenze avranno la visibilità, l’agilità e la fiducia necessarie per adattarsi rapidamente, mentre quelle che non lo faranno continueranno a procedere per tentativi.

Il successo non dipende dal possedere le tecnologie IA più avanzate, ma dalla capacità di orchestrarle efficacemente, integrandole armoniosamente con il capitale umano e la cultura aziendale. L’intelligenza organizzativa si configura come una proprietà emergente del sistema nel suo complesso, che trascende la somma delle capacità tecnologiche individuali.

L’AI NEI BOARD D’IMPRESA: DALL’ANALISI DEI BILANCI ALL’INDIPENDENZA DIGITALE

Mentre le organizzazioni si trasformano per diventare intelligenti, emerge una questione cruciale: chi governa questa trasformazione?

Amministratori d’impresa e investitori padroneggiano i bilanci, ne interpretano ogni voce, ne colgono i segnali nascosti. Ma quanti possono dire lo stesso quando si tratta di AI, algoritmi e dipendenze cloud?

LA NUOVA ALFABETIZZAZIONE DEL MANAGEMENT

Immaginiamo un board meeting dove si discute di EBITDA, cash flow, debt-to-equity. Tutti parlano la stessa lingua, tutti comprendono le implicazioni. Ora immaginiamo lo stesso board di fronte a decisioni su AI, algoritmi, dipendenze cloud. Quanti possono davvero dire di avere il controllo?

Mentre l’AI ridefinisce interi settori con forza dirompente, troppi CdA continuano a trattarla come “roba da tecnici”. Ma delegare oggi significa cedere il controllo del proprio futuro. Se un algoritmo può determinare il successo del modello di business, se un’interruzione cloud può paralizzare l’operatività, se un cambio normativo sull’AI può rendere obsoleti investimenti milionari, l’organizzazione può permettersi di non comprendere?

ROI, EBITDA, NPV – per decenni questo vocabolario ha definito il buon amministratore. Competenze

Dossier IBE 2025

che restano fondamentali, ma che oggi raccontano solo metà della storia. L’altra metà si chiama indipendenza digitale: non un concetto astratto, ma una strategia misurabile.

L’INDIPENDENZA DIGITALE COME IMPERATIVO STRATEGICO

L’indipendenza digitale è la capacità dell’organizzazione di:

Controllare ciò che è proprio

» I dati sono davvero dell’azienda? O vivono su piattaforme che domani potrebbero cambiare regole, prezzi, disponibilità?

» È possibile cambiare fornitore tecnologico senza paralizzare l’azienda?

» Quanto tempo serve per riprendersi se un servizio esterno si interrompe?

Costruire competenze che restano

» Quanti progetti digitali vengono gestiti internamente versus quanti delegati a consulenti che poi se ne vanno?

» Il team comprende davvero cosa fa l’AI o si limita a usarla?

» Si stanno formando le persone o comprando soluzioni chiavi in mano che nessuno capisce?

Innovare con autonomia

» Si stanno sviluppando tecnologie proprietarie o solo assemblando quelle di altri?

» La cultura aziendale abbraccia il cambiamento o lo subisce?

» Esiste una governance dell’AI o si naviga a vista?

LE METRICHE

DELL’INDIPENDENZA DIGITALE

Ogni board dovrebbe tenere sotto controllo indicatori concreti:

» Autonomia dei dati: che percentuale dei dati critici è gestita internamente?

» Competenze interne: quanti progetti digitali si riescono a gestire senza consulenti esterni?

» Flessibilità tecnologica: quanto tempo serve per cambiare un fornitore tecnologico critico?

» Resilienza operativa: in quanto tempo ci si riprende da un’interruzione di servizi esterni?

Sono numeri che parlano. Come l’EBITDA, come il ROI. Solo che questi numeri determinano se domani l’organizzazione esisterà ancora.

AI RESPONSABILITY BY DESIGN™: OLTRE LA COMPLIANCE

L’AI Act è qui. Le responsabilità sono definite. Ignorarle non è un’opzione. Ma conformarsi non basta. Il metodo AI ResponsAbility By Design™ va oltre: coniuga produttività con responsabilità sociale, efficienza con etica. Non è un comitato in più, è un nuovo modo di pensare che permea l’organizzazione.

Un’AI mal governata non è solo un rischio legale. È un rischio esistenziale.

LE DOMANDE CRITICHE PER OGNI BOARD

Ogni consiglio di amministrazione dovrebbe porsi queste domande:

» Abbiamo una vera governance dell’AI o solo un Chief Digital Officer che fa da parafulmine?

» Conosciamo i nostri vincoli tecnologici o scopriamo le dipendenze solo quando è troppo tardi?

» L’AI sta migliorando le nostre decisioni o stiamo solo automatizzando vecchi processi?

» Stiamo costruendo competenze interne o accumulando contratti di consulenza?

» Abbiamo metriche per misurare la nostra autonomia digitale o navighiamo al buio?

Se non ci sono risposte chiare, non è una consolazione: è un campanello d’allarme.

IL MANAGEMENT DEL FUTURO È GIÀ QUI

L’AI non sostituirà i manager. Ma i manager che sanno usare l’AI sostituiranno quelli che non lo sanno fare.

I nuovi manager non sono solo interpreti di bilanci. Sono architetti di sistemi dove tecnologia, persone e strategia danzano insieme. Leggono pattern nei dati come leggono il cash flow. Valutano rischi algoritmici

Dossier IBE 2025

come valutano quelli finanziari.

La trasformazione verso l’indipendenza digitale non è un progetto IT. È una strategia di sopravvivenza che richiede:

» Assessment onesto del livello attuale di dipendenza tecnologica

» Roadmap concreta con milestone misurabili, non solo buone intenzioni

» Investimento in formazione del board e del management, non solo dei tecnici

» Partner strategico che guidi senza creare nuove dipendenze

Il tempo delle deleghe è finito. L’indipendenza digitale non è un nice-tohave. È il nuovo requisito minimo per la continuità del business.

VERSO UN NUOVO PARADIGMA ORGANIZZATIVO

L’organizzazione I2E rappresenta più di un’entità tecnologicamente avanzata: è un organismo sociotecnico in continua evoluzione dove la tecnologia è solo una componente di un sistema più ampio. La vera intelligenza risiede nella capacità dell’intero sistema di apprendere, evolvere e adattarsi in maniera coesa e finalizzata.

Le organizzazioni che sapranno navigare questa complessità con visione strategica e determinazione, abbracciando la trasformazione culturale necessaria e investendo nella sinergia uomo-IA, saranno quelle meglio posizionate per prosperare nell’era dell’Intelligenza Artificiale. Il viaggio

verso l’organizzazione intelligente non è una destinazione finale, ma un processo continuo di evoluzione e adattamento in un mondo in costante cambiamento.

CONCLUSIONI

Nel tessuto complesso dell’economia contemporanea, la transizione verso l’organizzazione intelligente non rappresenta più un’opzione strategica, ma una necessità esistenziale per la sopravvivenza e la competitività aziendale. Come emerge dall’analisi condotta, questa trasformazione richiede un cambio di paradigma profondo che trascende la mera acquisizione tecnologica.

Le organizzazioni che saranno capaci di competere con successo nel prossimo decennio saranno quelle capaci di orchestrare tre dimensioni fondamentali in modo sinergico:

» L’eccellenza tecnologica nell’IA e nell’analisi dei dati - dalla padronanza sistemica dei dati strutturati e non strutturati all’implementazione di architetture “data mesh” come quella di Microsoft, fino all’integrazione strategica dell’OSINT per la conoscenza del mondo esterno

» La valorizzazione strategica del capitale umano - attraverso lo sviluppo continuo delle competenze, superando quel preoccupante 10% di leader HR fiduciosi nel raggiungimento degli obiettivi e colmando le lacune che limitano il 37% delle aziende nell’espansione verso nuovi mercati

» Una cultura organizzativa orientata all’apprendimento dall’integrazione dei principi “Judgment” di Netflix alla Data Analytics Academy di Google, costruendo quella “agency riflessiva” necessaria per evitare la deriva della dipendenza epistemica

» Una GOVERNANCE efficace in grado di seguire la dinamica del cambiamento. Un ecosistema in cui siano chiari (e gli stessi) gli obiettivi da perseguire mediante una linea di comando che opera su DOMINI e RESPONSABILITA’ precise e non sovrapposte; in cui si sviluppino best practice di collaborazione orientata ai risultati intra ed extra singolo dipartimento/unità. In cui il sistema di valutazione oggettivo sia legato al sistema premiante.

Il divario crescente tra aspirazioni strategiche e capacità operative rappresenta sia la sfida più pressante che l’opportunità più significativa del nostro tempo.

Come evidenziato:

» Le competenze sono diventate il vero fattore limitante della crescita, con il 54% dei nuovi assunti che arriva con lacune critiche

» L’intelligenza delle competenze emerge come ponte critico tra potenziale tecnologico e risultati concreti, ma solo il 18% delle organizzazioni misura regolarmente le competenze

» La governance dell’AI a livello di Board richiede una nuova alfabetizzazione manageriale che vada oltre EBITDA e ROI per abbracciare metriche di indipendenza digitale

La sinergia uomo-IA, piuttosto che la sostituzione, si configura come il principio cardine di questo nuovo paradigma:

» Le esperienze di Microsoft, Netflix e Google dimostrano che l’IA raggiunge il massimo potenziale quando amplifica le capacità umane di giudizio, creatività e intuizione strategica

» Il caso dei radiologi e sistemi di imaging esemplifica come la collaborazione uomo-macchina possa funzionare nella pratica

» La necessità di preservare l’elemento umano come soggetto di decisione, non semplice nodo in una rete neurale, diventa condizione per una razionalità realmente responsabile

Dossier IBE 2025

Tuttavia, il percorso verso l’intelligenza organizzativa richiede anche rigore etico e responsabilità:

» Solo il 2% delle aziende ha operazionalizzato i principi di IA responsabile, evidenziando un urgente bisogno di colmare il divario tra retorica e pratica

» L’AI ResponsAbility By Design™ emerge come metodo per coniugare produttività con responsabilità sociale

» La governance etica deve permeare l’organizzazione, non limitarsi a un comitato isolato

In ultima analisi, l’organizzazione intelligente del futuro sarà caratterizzata non dalla quantità di tecnologia adottata, ma dalla qualità dell’integrazione tra sistemi tecnologici, persone e processi. Sarà un ecosistema dinamico dove:

» Dati interni ed esterni convergono per generare insight predittivi

» L’apprendimento continuo è incorporato nei flussi di lavoro quotidiani

» La capacità di adattamento rapido diventa vantaggio competitivo sostenibile

» L’indipendenza digitale garantisce controllo sul proprio destino

Il tempo dell’attesa è scaduto. Le organizzazioni devono agire ora, con visione strategica e determinazione, per costruire le fondamenta dell’intelligenza organizzativa:

» Investire nell’infrastruttura dei dati e dell’IA

» Colmare sistematicamente le lacune di competenze

» Coltivare una cultura data-driven a tutti i livelli

» Stabilire framework robusti di governance etica ed efficace

» Misurare costantemente l’autonomia digitale attraverso metriche concrete

Il viaggio verso l’organizzazione intelligente, integrata, efficace è già iniziato, e i pionieri di oggi saranno i leader indiscussi di domani. A noi scegliere se salire sul giusto treno e prenderne il comando o aspettare. Il rischio è che non ce ne sia un altro in cui , se si sale, ce lo lasciano guidare.

AI e vulnerabilità aziendale: rischi o opportunità?

La storia recente insegna che qualsiasi organizzazione aziendale o sistema anche complesso ha una propria vulnerabilità che ne ostacola – talvolta fino al vero e proprio default – la sopravvivenza e la continuità durevole nel tempo.

Il tema della vulnerabilità sostituisce il tradizionale approccio alla gestione del rischio evidenziando l’importanza di politiche e strategie non più orientate alla mera mitigazione del rischio e/o alla predizione dello stesso, ma volte soprattutto alla costruzione e al rafforzamento del “sistema immunitario aziendale”.

Prof. Alessandro Capocchi, Università degli Studi di Milano - Bicocca Professore ordinario di economia aziendale

Il rischio assume centralità nella gestione aziendale negli anni Settanta, quando le aziende a seguito di alcuni eventi iniziano a riconoscere l’importanza dell’attività di risk management attraverso lo sviluppo di modelli volti a consentire la costruzione interna di una struttura preposta alla gestione dei rischi. L’evoluzione del risk management segue il verificarsi di eventi significativi a livello internazionale e si concretizza nel tempo in un approccio unitario e sistemico in grado di coinvolgere anche il livello organizzativo dell’azienda e non solo la singola gestione di una specifica fonte di rischio. Il passaggio ad un approccio integrato in grado di esprimere un’impostazione unitaria e sistemica alla gestione del rischio avviene con l’implementazione dell’Enterprise Risk Management (ERM).

In questo contesto di riferimento si inserisce oggi la dimensione della vulnerabilità come evoluzione della dimensione del rischio. Il termine vulnerabilità può essere definito as “the exposure of an economy to

exogenous shocks, arising out of economic openness” (Briguglio et al., 2008: 1).

L’esperienza del Covid19 e il successivo conflitto bellico in Ucraina hanno fatto comprendere come in poco tempo a livello globale uno scenario apparentemente stabile può mutare con profonde ripercussioni a livello strategico e gestionale a carico delle aziende. Ciò che colpisce di queste due esperienze non è tanto la sorpresa, ma piuttosto la velocità con cui si sono diffuse su scala globale con un effetto che potremmo definire a “raggiera” rappresentabile come la ruota di una bicicletta.

Il rischio è determinabile come funzione fra una specifica fonte di pericolo α , l’esposizione β e la vulnerabilità del sistema γ, intesa quest’ultima come caratteristica intrinseca dello stesso di subire gli effetti di tali eventi:

Risk = ƒ (α, β γ)

La vulnerabilità è une determinante del rischio, maggiore è la vul-

Dossier IBE 2025

nerabilità aziendale e maggiore è l’esposizione dell’azienda al rischio mentre minore è la vulnerabilità aziendale e minore è l’esposizione al rischio. Per questo è necessario oggi approcciare la gestione del rischio in modo innovativo andando ad agire internamente al sistema aziendale aumentando il sistema immunitario dello stesso al fine di rendere il sistema pronto a fronteggiare gli effetti imprevedibili di eventi ostili.

IL SISTEMA IMMUNITARIO AZIENDALE

Quanto sin qui sinteticamente riportato induce a cambiare l’approccio alla gestione del rischio passando dal tradizionale sistema

di risk management all’analisi e alla costruzione di un vero e proprio sistema immunitario aziendale.

“L’azienda appare una cellula del tessuto economico-sociale, un organismo minore componente del sistema economico complessivo. Il campo di studio della nostra disciplina appare così segnato dal sistema economico istituito e retto in vista del fine che si propone il soggetto aziendale; sistema che è parte del sistema economico-sociale, al fine del quale informerà in ogni caso il fine suo proprio. L’azienda si presenta quasi come un sistema, con un insieme di parti componenti avvinte tra loro da vincoli e da sollecitazioni. Le componenti del sistema sono forze economiche e cioè energie personali, mezzi economici materiali, fattori economici

immateriali. Il sistema va considerato nel suo moto (...).” (Amaduzzi, 1948: 11 e 12)1

La responsabilità del management, dunque, non è “indovinare il futuro”, ma coltivare condizioni strutturali di salute organizzativa. È in questo quadro che si propone il concetto di sistema immunitario aziendale: un insieme coerente di difese preventive e reattive che si attivano quando l’ambiente diventa ostile, attenuandone l’impatto.

Per essere effettivo, il sistema immunitario aziendale poggia su due pilastri economico-finanziari, che non vanno trattati come routine amministrative ma come scelte strategiche di resilienza:

1. La dimensione patrimoniale direttamente correla te al grado di capitalizzazione aziendale

2. La dimensione finanziaria direttamente correlate alla capacità in ogni istante di fronteggiare potenziali crisi di liquidità attraverso il proprio working capital le obbligazioni assunte.

Il monitoraggio costante di questi due pilastri, integrato nelle decisioni quotidiane e non confinato al reporting mensile, è la leva più concreta per la longevità economica dell’impresa. Ma non basta. Un sistema immunitario non vive di soli indicatori: richiede governo dell’informazione, coerenza dei processi e qualità delle decisioni: una governance efficace

Qui l’intelligenza artificiale offre un contributo decisivo, a tre livelli complementari:

» Diagnostica e previsione. Modelli di early warning, rilevazione di anomalie su transazioni e scostamenti operativi, previsione dei fabbisogni di cassa e dei colli di bottiglia nella supply chain.

» Integrazione dei controlli. Molte aziende dispongono già di strumenti informatici gestionali che non “dialogano” tra loro. L’AI può unificare flussi e data lineage, creando una single source of truth utilizzabile da finanza, operation e risk.

» Governance e difendibilità. Tracciabilità delle decisioni, generazione automatica di evidenze, continuous controls monitoring e reportistica standardizzata rafforzano il presidio di Risk & Compliance e migliorano la posizione dell’organo amministrativo anche in chiave giuridica.

La domanda, allora, è inevitabile: l’AI sta cambiando il ruolo della funzione Risk & Compliance in meglio? Sì, ma a precise condizioni.

Dossier IBE 2025

La trasformazione dalla verifica ex post al presidio proattivo dei rischi emergenti, proprietà intellettuale, sicurezza dei dati, frodi, continuità operativa, è oggi praticabile; lo dimostrano i guadagni di efficienza nella automazione delle attività ripetitive, nella produzione di report e nel monitoraggio transazionale. Tuttavia, i benefici non sono automatici. Senza una governance forte dei modelli, l’AI può amplificare vulnerabilità invece di ridurle.

Le condizioni abilitanti sono chiare e non negoziabili:

» Governance dei modelli (Model Risk Management). Registro dei modelli, validazione indipendente.

» Qualità e sicurezza dei dati.

» Competenze. Data literacy dif-

fusa, capacità di leggere indicatori e limiti dei modelli, nuove skill in data science e analytics all’interno di Risk & Compliance e nelle funzioni di business.

» Allineamento organizzativo. Integrazione delle linee di difesa.

Il punto finale è semplice e impegnativo: non basta introdurre l’AI, occorre costruire un sistema di governo che l’AI possa potenziare. Questo significa mettere a sistema i controlli interni ed esterni, orchestrare le informazioni aziendali, coniugare diagnostica e predizione con responsabilità decisionale e disciplina esecutiva. Solo così il sistema immunitario aziendale supera il necessario e fondamentale insieme di indicatori diventando una capacità organizzativa: finanziariamente solida, informativamente integrata, cul-

turalmente pronta a decidere e ad agire di conseguenza. L’AI può, e deve, essere un moltiplicatore di Sistema Immunitario Aziendale, se il capitale è robusto, la finanza è agile, i dati sono governati e le persone sono in grado di usare gli strumenti con giudizio. È questa la promessa realistica: trasformare la gestione del rischio da costo di conformità a vantaggio competitivo, facendo della resilienza un tratto distintivo e, soprattutto, duraturo.

Organizzazione Management Operatività Efficace

INNOVAZIONE E CAMBIAMENTO

Una serie di percorsi personalizzabili rivolti al management:

Seminari Innovazione e Cambiamento

Analisi Dominio di applicabilità Innovazione

Piano Monitoraggio Innovazioni

Impatto e variazioni Organizzative

49 novembre 2025 n. 11

Piazza Caiazzo, 2 - Milano - Tel. 02 39523808 pentaconsulting@pentaconsulting.it - mindup-pentaconsulting.it

L’AI nei board d’impresa: dall’analisi dei bilanci all’indipendenza digitale

Amministratori d’impresa e investitori padroneggiano i bilanci, ne interpretano ogni voce, ne colgono i segnali nascosti. Ecco la roadmap per navigare l’intelligenza artificiale con la stessa maestria:

dalle metriche di indipendenza digitale alle strategie di governance integrata.

LA NUOVA

ALFABETIZZAZIONE CHE NON PUÒ PIÙ ATTENDERE

Immaginate di entrare in un board meeting dove si discute di EBITDA, cash flow, debt-to-equity. Tutti parlano la stessa lingua, tutti comprendono le implicazioni. Ora immaginate lo stesso board di fronte a decisioni su AI, algoritmi, dipendenze cloud. Quanti possono davvero dire di avere il controllo?

Mentre l’AI ridefinisce interi settori con forza dirompente, troppi CdA continuano a trattarla come “roba da tecnici”. Ma delegare oggi significa cedere il controllo del proprio futuro. Pensateci: se un algoritmo può determinare il successo del vostro modello di business, se un’interruzione cloud può paralizzare l’operatività, se un cambio normativo sull’AI può rendere obsoleti investimenti milionari... potete davvero permettervi di non capire?

DALL’UMILTÀ DI DOVER

(RI)IMPARARE NASCE IL VANTAGGIO COMPETITIVO

ROI, EBITDA, NPV - per decenni questo vocabolario ha definito il buon amministratore. Competenze

che restano fondamentali, certo, ma che oggi raccontano solo metà della storia.

L’altra metà? Si chiama indipendenza digitale. Non un concetto astratto, ma una strategia misurabile che in RED OPEN abbiamo aiutato decine di aziende a costruire.

COS’È DAVVERO

L’INDIPENDENZA DIGITALE (e perché vi serve ora)

Dimentichiamo per un attimo le definizioni teoriche. L’indipendenza digitale è la vostra capacità di:

Controllare ciò che è vostro

» I vostri dati sono davvero vostri? O vivono su piattaforme che domani potrebbero cambiare regole, prezzi, disponibilità?

» Potete cambiare fornitore tecnologico senza paralizzare l’azienda?

» Quanto tempo vi serve per riprendervi se un servizio esterno si interrompe?

Costruire competenze che restano

» Quanti progetti digitali gestite internamente versus quanti delegate a consulenti che poi se ne vanno?

Dossier IBE 2025

» Il vostro team comprende davvero cosa fa l’AI o si limita a usarla?

» State formando le persone o comprando soluzioni chiavi in mano che nessuno capisce? Innovare con autonomia

» State sviluppando tecnologie proprietarie o solo assemblando quelle di altri?

» La vostra cultura aziendale abbraccia il cambiamento o lo subisce?

» Avete una governance dell’AI o navigate a vista?

LE METRICHE CHE CONTANO (QUELLE CHE DOVRESTE MONITORARE GIÀ DA DOMANI)

Nei nostri progetti con RED OPEN, abbiamo identificato indicatori concreti che ogni board dovrebbe tenere sotto controllo:

• Autonomia dei dati: che percentuale dei vostri dati critici è gestita internamente?

• Competenze interne: quanti progetti digitali riuscite a gestire senza consulenti esterni?

• Flessibilità tecnologica: quanto tempo vi serve per cambiare un fornitore tecnologico critico?

• Resilienza operativa: in quanto tempo vi riprendete da un’interruzione di servizi esterni?

Sono numeri che parlano. Come l’EBITDA, come il ROI. Solo che questi numeri determinano se domani esisterete ancora.

AI RESPONSABILITY BY DESIGN™: OLTRE LA COMPLIANCE

L’AI Act è qui. Le responsabilità sono definite. Ignorarle non è un’opzione. Ma conformarsi non basta.

Il metodo AI ResponsAbility By Design™ che abbiamo sviluppato in RED OPEN va oltre: coniuga produttività con responsabilità sociale, efficienza con etica. Non è un comitato in più, è un nuovo modo di pensare che permea l’organizzazione.

Perché un’AI mal governata non è solo un rischio legale. È un rischio esistenziale.

LE DOMANDE CHE IL VOSTRO BOARD DOVREBBE PORSI (STASERA)

Sedetevi con i vostri consiglieri. Guardate negli occhi il vostro CEO. E chiedetevi:

• Abbiamo una vera governance dell’AI o solo un Chief Digital Officer che fa da parafulmine?

• Conosciamo i nostri vincoli tecnologici o scopriamo le dipendenze solo quando è troppo tardi?

• L’AI sta migliorando le nostre decisioni o stiamo solo automatizzando vecchi processi?

• Stiamo costruendo competenze interne o accumulando contratti di consulenza?

• Abbiamo metriche per misurare la nostra autonomia digitale o navighiamo al buio?

IBE 2025 dossier

Se non avete risposte chiare, non siete soli. Ma non è una consolazione: è un campanello d’allarme.

IL MANAGEMENT DEL FUTURO È GIÀ QUI

L’AI non sostituirà i manager. Ma i manager che sanno usare l’AI sostituiranno quelli che non lo sanno fare. È brutale? Sì. È vero? Assolutamente.

I nuovi leader non sono solo interpreti di bilanci. Sono architetti di sistemi dove tecnologia, persone e strategia danzano insieme. Leggono pattern nei dati come leggono il cash flow. Valutano rischi algoritmici come valutano quelli finanziari.

DA DOVE COMINCIARE (davvero)

La trasformazione verso l’indipendenza digitale non è un progetto IT. È una strategia di sopravvivenza che richiede:

1. Assessment onesto del vostro livello attuale di dipendenza tecnologica

2. Roadmap concreta con milestone misurabili, non solo buone intenzioni

3. Investimento in formazione del board e del management, non solo dei tecnici

4. Partner strategico che vi guidi senza creare nuove dipendenze

IL TEMPO DELLE DELEGHE È FINITO

L’indipendenza digitale non è un nice-to-have. È il nuovo requisito minimo per la continuità del business.

In RED OPEN abbiamo accompagnato decine di aziende in questo percorso. Non vendendo soluzioni preconfezionate, ma costruendo insieme la loro autonomia digitale. Perché crediamo che ogni azienda debba essere padrona del proprio destino digitale.

La domanda non è se dovete iniziare questo percorso. È se potete permettervi di aspettare ancora.

Il vostro prossimo board meeting potrebbe essere quello giusto per iniziare a fare le domande che contano. E se vi serve una guida per trovare le risposte, all’edizione IBE 2025 questi temi saranno centrali.

L’Era dell’AI Acceleration: scenari, soluzioni verticali e vantaggi concreti

per le imprese

Sareste in grado di distinguere se questo articolo sia stato scritto da un programma oppure da un essere umano?

Se l’immagine vista recentemente all’interno di un social network fosse stata effettivamente scattata da qualcuno oppure elaborata completamente in digitale?

INTELLIGENZA ARTIFICIALE:

un termine che fino a poco tempo fa evocava immagini di datacenter remoti, algoritmi complessi e promesse futuristiche. Un concetto etereo, quasi inafferrabile, relegato a specialisti e addetti ai lavori. Ma i tempi stanno cambiando, e con essi anche la percezione dell’IA e le tematiche correlate al concetto di “IA Acceleration”. Non si tratta solo di una moda passeggera, ma di una vera e propria rivoluzione che sta trasformando il modo in cui le imprese operano, competono e creano valore. L’intelligenza artificiale è già da tempo una realtà consolidata, ma la vera svolta è rappresentata dalla recente capacità di accelerarne l’implementazione e l’adozione su larga scala, e in locale. Questo paradigma si traduce nel superamento delle barriere tradizionali, come la complessità tecnologica, i costi elevati e le preoccupazioni legate alla sicurezza dei dati. Infatti, procedendo di pari passo con l’evoluzione tecnologica, la nozione stessa di Intelligenza Artificiale sta progressivamente diventando un fenomeno sempre più tangibile, un’opportunità concreta che si manifesta in potenti datacenter, avveniristici

AI PC in grado di gestire in locale operatività sempre più complesse e infrastrutture di rete capaci di trasformare radicalmente il modo in cui le aziende operano.

Da anni, ASUS, ha saputo riconoscere le innumerevoli opportunità che avrebbe offerto in un futuro prossimo l’Intelligenza Artificiale, ed in concreto, i suoi sviluppi per le aziende. Investendo strategicamente nello sviluppo di competenze e soluzioni hardware innovative, ASUS accompagna le aziende nell’implementazione in locale dell’IA, superando la tradizionale necessità di costosi investimenti infrastrutturali. Immaginate per un attimo di poter toccare l’IA … Non più un’entità remota, ma un motore propulsivo a portata di mano, pronto a rimodellare i vostri flussi di lavoro, a dare vita a progetti innovativi e a rivelare opportunità di crescita inesplorate. Questo è ciò che ASUS sta rendendo possibile, portando l’IA dai data center all’automazione nel mondo reale, attraverso un’infrastruttura scalabile ed intelligente, che abbraccia simulazione, addestramento dei modelli ed implementazione sul campo.

Dossier IBE 2025

Ricordate gli albori di Internet, all’inizio degli anni ‘90? Un mondo dominato da modem rumorosi, pagine web rudimentali ed una per-

cezione diffusa che fosse un’esclusiva per pochissimi appassionati, spesso sommariamente descritti come “nerd”. Eppure, in pochi anni, Internet ha rivoluzionato il mondo, trasformandosi in un bene di consumo quotidiano, un’infrastruttura invisibile ma indispensabile, come l’aria che respiriamo.

L’IA sta seguendo un percorso analogo. In pochissimi anni è passata dall’essere uno strumento esoterico, distante e poco comprensibile a rappresentare una risorsa quasi imprescindibile della nostra contemporaneità; l’Intelligenza Artificiale è sempre più destinata a permeare ogni aspetto della nostra vita professionale. In un futuro sempre più

prossimo, l’IA diventerà un elemento fondamentale per rimanere competitivi, per ottimizzare i processi, per anticipare le tendenze e per creare valore in modo innovativo.

Ma per sfruttare appieno il potenziale dell’IA e cogliere tutte le opportunità di questo nuovo paradigma tecnologico, non basta affidarsi ciecamente a soluzioni cloud generiche. È inevitabile saper sviluppare agenti e strumenti IA in locale, all’interno della propria azienda, per avere un controllo completo sui dati, per garantire la sicurezza e la privacy, e per personalizzare algoritmi specifici così che rispondano appieno ad esigenze tanto più specializzate quanto più uniche.

Attraverso un portafoglio prodotti completo e all’avanguardia, ASUS è costantemente impegnata nel supportare aziende di ogni dimensione nel loro percorso evolutivo in questa nuova era dell’informatica. Trasformare i dati in informazioni utili, così che le idee possano tradursi in applicazioni reali, sfruttando l’esperienza maturata in anni di sviluppo per impegnarsi nel costruire un futuro intelligente e sostenibile attraverso il design thinking, integrando l’AI in ogni aspetto della propria attività ed assicurando che chiunque possa beneficiare delle possibilità garantite dall’Intelligenza Artificiale.

Il concetto di AI Acceleration si traduce quindi in sviluppo concreto dipanandosi attraverso tre principali direttrici. La prima è rappresentata dalla continua implementazione di hardware specializzato che

consenta di sviluppare ed eseguire algoritmi complessi in modo più efficiente e veloce. Il secondo pilastro è rappresentato dalle soluzioni verticali, ovvero la progettazione di piattaforme ed applicazioni AI preconfigurate per specifici settori industriali, così da ridurre i tempi di sviluppo e di personalizzazione. La terza direttiva si focalizza, infine, sul concetto di approccio “onpremise” ovvero l’elaborazione dei dati in locale, anziché nel cloud, per garantirne una maggiore sicurezza e controllo.

Nel concreto, tutti queste teorie hanno innumerevoli ricadute in termini di benefici per le imprese. Basti ricordare, in primis, una maggiore efficienza operativa: l’automazione dei processi, l’ottimizzazione delle risorse e la riduzione degli errori consentono di migliorare la produttività e ridurre i costi. Ad essa si affianca poi la possibilità di migliorare il processo decisionale tramite l’analisi dei dati in tempo reale, l’identificazione di pattern impliciti e la previsione di scenari futuri, così da integrare e supportare decisioni più informate e strategiche. Non è da trascurare, infine, la possibilità di creare esperienze cliente personalizzate, comprendendo meglio le esigenze dei committenti e dei partner, offrendo di conseguenza prodotti e servizi su misura, così da incidere anche sulla customer satisfaction. Tutto quanto appena premesso si traduce quindi in una più generale, ma imprescindibile, capacità di innovare e di aumentare la propria competitività, attraverso la sperimentazione,

lo sviluppo e l’implementazione in house di soluzioni AI rapide e flessibili che permettono di differenziarsi dalla concorrenza e creare nuovi modelli di business.

E parlando di innovazione, il nuovissimo ASUS Ascent GX10 rappresenta sicuramente l’avanguardia nel processo di trasformazione in atto, essendo un sistema progettato per essere il cuore pulsante dell’addestramento e della ricerca dei modelli AI in locale. Immaginate di poter elaborare enormi quantità di dati in tempo reale, di realizzare algoritmi ed addestrare modelli AI complessi in tempi record, di simulare scenari futuri con una precisione senza precedenti. Con Ascent GX10, tutto questo diventa realtà tramite un investimento alla portata di tutti.

Ascent GX10 non è solo uno strumento: è un partner strategico, un alleato affidabile che vi accompagnerà nel vostro percorso di creazione di strumenti basati sull’Intelligenza Artificiale progettati specificatamente per le necessità della vostra azienda. Grazie alla sua architettura scalabile, alla sua potenza di calcolo senza compromessi ed alla sua efficienza energetica ottimizzata, Ascent GX10 vi permette-

rà di sfruttare appieno il potenziale dell’IA, senza dovervi preoccupare di investimenti onerosi oppure di complessità tecniche infrastrutturali.

UN IMPERATIVO PER I LEADER DEL FUTURO

In questo scenario in rapida evoluzione, diventa cruciale per manager, system architect, responsabili della cybersicurezza e professionisti di ogni settore informatico e tecnologico, acquisire una profonda conoscenza delle tematiche inerenti all’IA. Comprendere le sue implicazioni, le sue problematiche, le sue minacce e le responsabilità legali che ne derivano è fondamentale per prendere decisioni informate e per guidare le rispettive aziende verso un futuro di successo. Che siate riusciti o meno a capire chi (oppure cosa) abbia scritto questo testo, sappiate che l’Intelligenza Artificiale avrà ripercussioni sempre più frequenti nella nostra quotidianità aziendale e privata: il futuro è già qui, e ASUS è pronta ad accompagnarvi in questo entusiasmante viaggio.

IA. L’Intelligenza delle Api, riflessioni e insegnamenti

L’ AI, di fatto, si presenta come disciplina sfaccettata e si occupa di rappresentazione della conoscenza, di processi decisionali, di riconoscimento di immagini, di apprendimento, di elaborazione di dati statistici, di modelli linguistici, di attuazioni in tempo reale, e di tante altre cose ancora, offrendoci scenari futuri di macchine autonome, se non addirittura “pensanti”.

Una panacea generale quindi tutto a posto? No niente a posto e niente in ordine: l’AI si nutre guardando al passato, e, per inventare il futuro, ci serve la discontinuità, la creatività, l’intuito.

Marco Maiocchi, socio e fondatore di Opdipo

LE API, L’INTELLIGENZA, LA MEMORIA

Le api, con appena seicentomila neuroni, riescono a distinguere un Monet da un Van Gogh. Che ce ne facciamo noi degli oltre ottanta miliardi di neuroni in più? in più? Forse — come qualcuno sostiene — quella massa neurale serve soprattutto a memorizzare1: la raccolta di informazioni e la capacità di metterle in relazione starebbe alla base delle prestazioni più evolute.

Oggi, la memoria è altrove: è nel web, nelle reti neurali artificiali, nei modelli di AI. Il punto, allora, non è accumulare sapere, ma saperlo interrogare. E l’AI ci aiuta.

Ma si fa presto a dire “AI”: in realtà con questa infelice locuzione sottintendiamo tante cose, anche se il nostro immaginario, spinto dai media, ci fa pensare solo all’AI generativa.

Di fatto questa disciplina è sfaccettata e si occupa di rappresentazione della conoscenza, di processi decisionali, di riconoscimento di immagini, di apprendimento, di elaborazione di dati statistici, di modelli linguistici, di attuazioni in tempo reale, e di tante altre cose ancora, offrendoci scenari futuri di macchine autonome, se non addirittura “pensanti”2.

Ma l’AI si nutre guardando al passato, e, per inventare il futuro, ci

serve la discontinuità, e qui non mi sembra che ci siamo ancora.

PRODUZIONE, LAVORO, CONSUMO

L’IA imita, ma in modo estremamente veloce! Tanto da essere competitiva sulle prestazioni umane, anche non ripetitive. Si pensi ad esempio all’attività di programmazione del tecnico informatico: nel 2024, negli Stati Uniti, si sono persi circa 200.000 posti di lavoro del settore informatico, di cui la metà a causa della sostituzione con strumenti di AI. E lo stesso fenomeno sta succedendo in molti altri settori!

Se l’uomo non è più utile alla produzione, e, senza lavoro, non guadagnerà abbastanza da poter consumare quello che viene prodotto dall’AI, quale società ci apprestiamo a costruire?

Da sempre l’uomo ha descritto utopie, da Sant’Agostino a Raymond Kurzweil, positive o negative, e anche in questo caso c’è chi ipotizza un mondo in cui le macchine producono e tutti, per diritto naturale, consumiamo senza lavorare.

Ma il mondo non va così: l’uomo di oggi non è diverso da quello di ieri, simile alla comunità di babbuini, che basa la sopravvivenza del gruppo attraverso la violenza e il privilegio. Quindi, ancora, quale mondo stiamo costruendo?

I VALORI DELLA CIVILTÀ OCCIDENTALE

Quando l’uomo aveva tempo di pensare, filosofi, scienziati e artisti collaboravano in un unico rinascimento, che ci ha consegnato principi di eguaglianza, di libertà, di cooperazione, di protezione, descritti in numerosi manifesti dei diritti universali dell’uomo.

Oggi sembra che il tempo di pensare scarseggi, tanto siamo coinvolti da smartphone che conducono a social media, che sono i veri costruttori dell’etica moderna, riportandoci alla consapevolezza di condividere il 98% del DNA con i babbuini.

E chi governa, che dovrebbe indirizzare il nostro futuro, cosa fa? Senza arrivare alle affermazioni di Platone3, che sosteneva che il governo di una popolazione dev’essere affidato solo ai filosofi, non posso fare a meno di ricordare con rimpianto ai politici degli anni ’50, colti e coraggiosi, rispetto a quelli che trovo sui quotidiani oggi, spesso rozzi e ignoranti, ma capaci di guidare popoli di babbuini… Un’ulteriore spinta allo scrollarsi di

dosso la parte di homo sapiens viene dalla scuola, in continuo degrado (se i valori sono SSS: Soldi, Successo, Subito, perché mai una persona capace dovrebbe andare a insegnare per quattro soldi, e con scarso riconoscimento sociale?). L’ultima trovata è il potenziamento dello STEM (Science, Technology, Engineering, Mathematics), per una classe dirigente che faccia aumentare il PIL (e in genere anche la sperequazione), invece di far crescere la capacità critica delle persone, attraverso una fusione delle culture scientifica e umanistica.

L’IA IBRIDA

Nessuno fermerà la diffusione e l’aumento di capacità e potenza dell’IA, e dobbiamo farci i conti.

Quello di cui abbiamo bisogno è la consapevolezza che l’AI è strumento, e che il suo uso dev’essere affidato all’Intelligenza Naturale, cioè alla capacità critica che proviene da una cultura ampia e profonda, che includa una visione del mondo vicina a quella delle Dichiarazioni dei Diritti dell’Uomo, e che guardi a lungo termine.

L’AI è una tecnologia meravigliosa, potente, che potrebbe migliorare la nostra vita in ogni settore: tutti saremo costretti a impiegarla, perché chi non lo farà sarà “fuori dal mercato”. Ma bisognerà usar-

la in modo consapevole e con una visione ampia: come diceva un mio maestro, “l’intelligenza è la capacità di risolvere conflitti senza vittime”4. Oggi vedo solo una cultura che investe sulle tecnologie e sul lungo termine: la Cina.

Allora, o impariamo il cinese o aiutiamoci a costruire un futuro ricco di cultura e di capacità critica: non STEM, ma FAST e SLIM (Filosofia, Arte, Scienza, Matematica, Storia, Letteratura, Ingegneria, Matematica).

Anche con l’inevitabile IA.

Nota 1. Il grafico sull’andamento della disoccupazione informatica in USA è stato generato dal sistema di AI generativa Claude, © e in quanto tale da affrontare con la necessaria capacità critica e cultura di un essere umano (anche sui dati storici. Mai fidarsi!).

Nota 2. L’affresco di Raffaello ha completamente ricoperto il precedente lavoro del Sodoma, presumibilmente raffigurante scene della storia e della mitologia di Roma. Secondo Designer© (Microsoft© AI) è quello riportato a fianco. Probabilmente verrà nuovamente ricoperto da un affresco generato da qualche AI inneggiante alle tecnologie. Convocate Banksy!

1 G. Vallortigara, Pensieri della mosca con la testa storta, Adelphi, 2021

2 Interessante su questo tema V. Breitenberg, Veicoli pensanti, Mimesis, 2008

3 Platone, La repubblica, Libro VI

4 G. Degli Antoni

Parbleau, dell’AI Molière aveva già capito tutto!

L’arte, nella sua essenza, è un veicolo potente che non solo insegna ma soprattutto evoca emozioni e riflessioni profonde, facendoci scoprire la realtà, senza usare parole o modelli scientifici.

In questo vasto panorama, il teatro racconta, andando più oltre del detto. Il teatro si distingue come una delle forme d’espressione più dirette e incisive, in grado di “raccontare” storie che vanno ben oltre la semplice narrazione verbale, superando i limiti del “detto”. Questa capacità narrativa del teatro si manifesta in diversi contesti, come gli spettacoli incentrati sulle storie di atleti e atlete che “raccontano lo sport”, o nelle serate che mettono in scena un “paragone tra le arti” mescolando pittura, danza e musica per riscoprire la potenza espressiva di figure come Caravaggio. In questo senso, il teatro agisce come mediatore culturale, simile al ruolo svolto da figure che si muovono “tra le arti” per osservare i cambiamenti sociali. Beh! L’intelligenza Artificiale nella sua pervasività è un po’ tutto questo.

I grandi maestri ne hanno parlato, senza conoscerla, attraverso i comportamenti delle persone. A noi rimane il meditare e l’agire…

Marco Maiocchi, socio e fondatore di Opdipo

Il percorso per sviluppare la rappresentazione teatrale rappresenta una vera e propria best practice di approccio e utilizzo dell’Intelligenza Artificiale.

Per coerenza con il soggetto definito, abbiamo chiesto a vari chatbot di AI, mettendoli in competizione, di suggerirci un’opera teatrale famosa da parafrasare sul tema, fornendo una chiave interpretativa: la tecnologia dell’Intelligenza Artificiale è potente, ma, senza una visione chiara di come e perché inserirla nei processi aziendali, il suo impiego non potrà che risultare di scarso successo. Viene in mente Alice nel Paese delle Meraviglie di Lewis Carrol: il Gatto del Cheshire, che, alla domanda di Alice che si è persa nel bosco, su che strada prendere per uscire di lì, chiede dove lei volesse andare; alla sua risposta “Non importa, basta uscire di qui!” risponde “Se non importa dove andare, non importa che strada prendere!”.

Le proposte ottenute dai vari chatbot sono state molte e diversificate, caratterizzate in gran parte dall’afferire alla letteratura per l’infanzia, di essere di autori statunitensi, a noi utenti italiani totalmente sconosciuti. E anche con qualche qui pro quo: in genere la richiesta era interpretata come necessità di imbastire una rappresentazione in ambito scolastico! Evidentemente, l’inserimento di una pièce teatrale in un contesto come un evento rivolto ai manager

è troppo fuori dagli schemi per uno strumento che impara frugando nel passato!

Una delle applicazioni ha tuttavia fatto una proposta non solo anomala rispetto alle altre, ma anche piuttosto convincente: ha suggerito Il borghese gentiluomo di Molière. Si tratta di una comédie-ballet con le musiche di JeanBaptiste Lulli, rappresentata nel 1670 al castello di Chambord, sulla Loira. Molière l’aveva scritta su richiesta del fratello del re Luigi XIV, che gli chiedeva una satira della vita di corte, ricca di falsi sapienti e di scrocconi inveterati.

Il tema si presta al nostro discorso: nel periodo dello splendore dell’aristocrazia francese, un borghese arricchito non vuole essere da meno e si circonda di una corte di maestri di musica, di scherma, di ballo, e di altri personaggi che, promettendogli uno status superiore (come quello degli aristocratici), gli “vendono” a caro prezzo servizi à la page, senza reali contenuti. Nella vicenda s’innesta un matrimonio tra due giovani, ostacolato per la differenza di status sociale, che però il buon senso di un servo faciliterà, attraverso osservazione della realtà, semplicità e capacità di gestione delle relazioni.

La parafrasi è facile: il manager di oggi, bombardato dai media (e anche dalla pubblicità) sul fatto che l’AI è il futuro, che tutti promuovono

L’associazione Mai Sentiti nasce nel 1999 con l’obiettivo di dar vita a un ibrido tra una scuola e una compagnia e di proporre un teatro accessibile a tutti, sotto la guida del direttore artistico Leonardo Gazzola. 25 anni e 200 allievi dopo, l’atelier resta fedele alla stessa formula, anche se nel frattem-

i loro prodotti che sono integrati con l’AI, che senza l’AI non c’è possibilità di crescita e di competizione, rischia di circondarsi di consulenti e tecnici che gli vendono “tecnologie intelligenti”, senza capirne ruolo e utilità, ma solo per potersi fregiare della locuzione “Intelligenza Artificiale”. Solo il buon senso e la comprensione reale di cosa, come e perché adottare quelle tecnologie può realmente migliorare i processi dell’azienda, e magari quel buon senso non è reperibile nei grandi esperti della tecnologia, ma è insita in chi sa guardare le cose “dall’alto”, governando le tecnologie invece di esserne governato, collaborando con l’AI e non delegando ad essa decisioni importanti. Inoltre, abbiamo richiesto ai vari chatbot un copione, con tanto di personaggi, dialoghi e ambientazione. Questi hanno eseguito il compito, spesso un po’ scolasticamente, ma qualcuno ha fornito interessanti spunti brillanti nei dialoghi dell’opera teatrale1; tuttavia, solo il buon senso e la competenza di una compagnia di teatro ha potuto mettere in piedi un testo definitivo, portandolo in scena.

In fondo, la storia di questa piccola operazione che accompagna l’evento IBE è ancora una parafrasi del contenuto dell’evento: AI sì, ma attraverso una cooperazione con un’adeguata HI (Human Intelligence) associata a un’adeguata HC (Human Culture).

A noi tutti rimane solo il meditare e l’agire… così è se vi pare!

Nota 1. Una nota curiosa: Nel testo di Molière è presente un importante personaggio turco: per creare un suo linguaggio esoterico, un po’ comprensibile ma non troppo, l’autore lo fa parlare in italiano. Il chatbox che ha proposto Molière come modello introduce i vari personaggi “esperti” che parlano praticamente solo con termini inglesi gergali: blockchain, IoT, monitoring real-time, KPI, dashboard, reporting, people, performance, sentiment analysis, wellness monitoring, gamification, reward system dinamico, team building esperienziale, weekly hackathon, brainstorming sessions, innovation lab, e così via. Insomma, le nuove applicazioni di AI sono anche in grado di esprimere umorismo!

po sono presenti 60 attori, che ogni stagione allestiscono 7 spettacoli per due dozzine di date – tra repliche e iniziative culturali – nel corso dell’anno. Dal 2024 collabora con IBE con una breve rappresentazione che ripropone suggestivamente e in modo immediato le tesi su cui l’evento stesso s’incentra.

I Mai Sentiti in una scena da “Il Mago di AIOz”, rappresentato in occasione dell’evento IBE 2024, con l’elaborazione del testo teatrale originale e la regia di Davide Moussa.

Da tale anno IBE ha inserito nei suoi incontri quest’innovativa modalità di compendiare il tema oggetto di dibattito, con immediatezza comunicativa e grande capacità di sintesi.

Usi l’AI per correre più veloce, chi garantisce che corri

nella direzione giusta? AI RESPONSABILITY BY DESIGN™

Tra innovazione e responsabilità c’è la continuità della tua organizzazione. Tracciamo insieme nel presente la rotta del futuro.

Ti aiutiamo a trasformare l’IA in vantaggio competitivo sostenibile e responsabile.

» Anticipiamo le normative invece di rincorrerle.

» Trasformiamo la compliance in differenziazione di mercato.

» Costruiamo governance che protegge valore e reputazione e crea fiducia.

Affronta con successo l’AI ACT costruendo oggi il vantaggio competitivo della consapevolezza.

RED OPEN è SPIN-OFF dell’Università degli Studi di Milano-Bicocca, è l’HUB di competenze multidisciplinari che trasforma il sapere accademico in valore aziendale tangibile.

RED OPEN toward a conscious present. L’AI responsabile è l’investimento che moltiplica il valore di tutti gli altri. Innovazione responsabile. Progettiamo il presente, INSIEME.

RED OPEN S.r.l.
P.zza della Trivulziana 4/A 20126 MILANO (MI)

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.