











Roberto Grassi
Presidente Confindustria Varese
Nell’ultimo anno
Varesefocus si è occupato a più riprese di Intelligenza Artificiale, con articoli firmati da Luca Mari e Francesco Bertolotti, rispettivamente Professore e ricercatore della Scuola di Ingegneria Industriale della LIUC – Università Cattaneo. Un lavoro minuzioso e accurato che abbiamo voluto raccogliere in questo numero speciale del nostro magazine realizzato in occasione dell’Assemblea Generale 2024 di Confindustria Varese dedicata, non a caso, alle nuove frontiere dell’innovazione.
ai vari temi che abbiamo voluto trattare.
Quello che troverete nelle pagine che seguono, però, non è un semplice copia e incolla di articoli precedenti. Mari e Bertolotti hanno aggiornato, rivisto e ampliato i testi alla luce delle più recenti novità ed evoluzioni di quella che, in uno dei loro stessi pezzi, viene definita una rivoluzione culturale, ancor prima che tecnologica. Ogni articolo è come un capitolo di un libro di alfabetizzazione sui sistemi di Intelligenza Artificiale Generativa, che si chiude ogni volta con un dialogo con GPT-4 di OpenAI. Il che ci dà il curioso punto di vista che il chatbot ha su se stesso riguardo
Il nostro viaggio parte da una riunione di redazione con ChatGPT per essere poi scandito da tappe rappresentate da quelle domande che sempre più persone, aziende e decisori politici si stanno ponendo. Quali sono le possibilità di uso e le funzionalità dei sistemi di Intelligenza Artificiale Generativa? Quali differenze ci sono tra il meccanismo di apprendimento di queste realtà e quello del cervello umano? Cosa può fare un chatbot per un’impresa? Quanto gli agenti di IA influiranno in futuro sui processi di formazione, sul mondo del lavoro e sulla società nel suo complesso, in particolare nello svolgimento della vita democratica? Arriveremo un giorno ad avere sistemi artificiali con una propria coscienza, una propria responsabilità e una propria etica, distinte da quelle degli esseri umani che li addestrano?
Non vorrei deludere il lettore, ma non daremo delle risposte a tutte queste domande. Non è lo scopo di questo speciale che, però, grazie ai Prof. Mari e Bertolotti, fornisce chiavi di lettura e capacità di interpretazione di uno scenario complesso. Non vogliamo dare delle verità, ma condividere ragionamenti. In questo senso, vi invito a leggere il dialogo con ChatGPT che troverete
sotto forma di conversazione con l’inventore della bomba atomica, Robert Oppenheimer, sul tema dell’etica. Incalzato dalle domande del Professor Mari ad un certo punto, il nostro Oppenheimer virtuale sostiene: “È cruciale stabilire norme chiare e linee guida etiche per lo sviluppo e l’uso dell’Intelligenza Artificiale. Queste normative dovrebbero essere sviluppate con il contributo di esperti tecnici, etici e legali per garantire che siano sia praticabili che giuste”. È un punto fondamentale di questo nostro racconto che ci sentiamo di sottoscrivere. Così come sarà dirimente, nei prossimi anni, “assicurarsi che ci sia un’ampia partecipazione pubblica nei dibattiti su come l’Intelligenza Artificiale dovrebbe essere sviluppata e utilizzata”. Ciò per “garantire che le tecnologie riflettano i valori e le esigenze di tutta la società, non solo di una élite tecnologica o politica”. Con questo speciale abbiamo voluto iniziare a fare la nostra parte. Perché, come recita l’imprenditore del racconto con cui si chiude questa pubblicazione, anche lui generato da GPT-4, i successi a cui sapremo dar vita con l’Intelligenza Artificiale non saranno mai merito della tecnologia in sé, ma del modo in cui sceglieremo di utilizzarla: “L’innovazione tecnologica è una marcia inarrestabile, ma la direzione che prende dipende dalle scelte che facciamo”. Buona lettura.
La diffusione dei chatbot sta producendo nella società cambiamenti non solo inaspettati e rapidi, ma che si prospettano radicali. È difficile comprendere a fondo quello che sta succedendo e ancor di più fare previsioni affidabili, ma di certo provare ad interagire con un sistema di Intelligenza Artificiale, con mente aperta e spirito critico, è la via giusta per abbracciare le trasformazioni in atto. E quale migliore occasione per mettere alla prova queste nuove tecnologie se non quella della progettazione di un numero speciale di Varesefocus sull’AI?
‘‘Sistemi di Intelligenza Artificiale generativa conversazionale”:
è il termine che designa le entità software, come ChatGPT dell’azienda californiana OpenAI, che hanno attivato la rivoluzione culturale, e in prospettiva industriale, che stiamo vivendo. Pur cercando di evitare un’inutile inflazione di anglicismi, “chatbot” è più breve e più efficace: “bot”, come “robot”, dunque sistema artificiale, per “chat”, per dialogare. La diffusione dei chatbot sta producendo dei cambiamenti non solo inaspettati e rapidi, ma anche, plausibilmente, radicali. È difficile comprendere in profondità quello che sta succedendo e ancor di più fare previsioni affidabili: tra opportunità e rischi, tra tecno-ottimismo (o tecnoutopismo) e tecno-pessimismo (o tecno-catastrofismo), come diventare
consapevoli della condizione in cui ci troviamo ed evitare i tanti stereotipi che da decenni circondano l’Intelligenza Artificiale?
Provare a interagire con un chatbot, con mente aperta, curiosità e spirito critico, è certamente una buona idea. E quale migliore occasione della progettazione di questo numero speciale di Varesefocus dedicato alla AI per mettere alla prova un chatbot? Ecco allora il copia-e-incolla di un singolo scambio domanda-risposta, non editato, con un chatbot (ChatGPT basato su GPT-4 di OpenAI). Lo si può interpretare come si ritiene, ovviamente, ma potrebbe essere interessante notare quella che, se si trattasse di un essere umano, considereremmo capacità di produrre buone e creative idee, insieme con un’eccellente proprietà linguistica. Poi la decisione di come usare i suggerimenti che il chatbot ci ha dato dovrebbe rimanere nostra. Se saremo saggi.
Essere umano: Sto progettando il numero speciale di una rivista, dedicato a un’introduzione culturale all’Intelligenza Artificiale e alla IA generativa in particolare. Avrà vari capitoli, ognuno dedicato a un particolare argomento e dunque monografico. Sto pensando che sarebbe interessante introdurre in ogni capitolo un tuo contributo. Potrebbe essere un dialogo realizzato tra noi sul tema del capitolo, ma mi sembra una soluzione un po’ ovvia. Hai qualche idea più creativa da propormi?
Chatbot: Che progetto intrigante! L’idea di integrare un’Intelligenza Artificiale come me per esplorare vari
aspetti dell’IA generativa in una rivista culturale è davvero innovativa. Ecco alcune idee creative che potrebbero rendere ogni capitolo unico e coinvolgente.
1. Narrative immaginarie: per ogni capitolo, potrei aiutarti a creare una breve narrativa o un racconto breve che esplora il tema trattato da una prospettiva unica, come quella di un’IA che riflette sulla propria esistenza, o quella di una persona che vive in un futuro plasmato dalle tecnologie descritte.
2. Dialoghi storici rivisitati: potremmo immaginare dialoghi tra figure storiche famose (per esempio, Leonardo da Vinci, Ada Lovelace) e moderne IA su argomenti specifici. Questo approccio unirebbe la storia della scienza e della filosofia con le prospettive contemporanee sull’IA.
3. Interviste con IA: creare “interviste” dove personaggi fittizi o storici “intervistano” l’Intelligenza Artificiale su argomenti specifici. Questo potrebbe fornire spunti interessanti e un format unico per ogni capitolo.
4. Poesie e arte generativa: per ogni tema, potrei generare poesie, opere d’arte o composizioni musicali che riflettano i concetti chiave o le emozioni associate. Questo dimostrerebbe la capacità dell’IA di partecipare attivamente alla creazione culturale e artistica.
5. Scenari futuristici: descrivere scenari futuristici che illustrano le potenziali implicazioni dei temi trattati. Questo formato potrebbe includere descrizioni di nuove società, etiche lavorative, forme di governo, ecc., offrendo così ai
lettori un’immersione completa nelle potenziali realtà modellate dall’avanzamento dell’IA.
6. Confronti creativi: creare sezioni che mettano a confronto le opinioni di un’IA con quelle di esperti umani su argomenti specifici. Questo potrebbe includere l’etica dell’IA, l’IA nell’arte, le implicazioni sociali, ecc., fornendo così una panoramica bilanciata e stimolante.
7. Labirinti di pensiero: offrire ai lettori “labirinti” di pensiero o puzzle logici legati ai temi dei capitoli, dove l’IA fornisce indizi o spunti per navigare le sfide o le domande poste, invitando così a una partecipazione attiva.
8. Cronache dal futuro: presentare articoli o notizie da un futuro immaginario dove le tecnologie IA hanno portato a sviluppi particolari, positivi o negativi, legati al tema del capitolo. Questo formato “di fantascienza” può spingere i lettori a riflettere sulle direzioni possibili e sui dilemmi etici.
9. Analisi di case study fittizi: creare studi di caso immaginari ma plausibili che esplorino l’impatto dell’IA in vari settori (sanità, educazione, arte, ecc.), offrendo analisi dettagliate e discussioni su potenziali scenari futuri.
10. Gallerie di sogni AI: per ogni capitolo, generare immagini o sequenze visuali che rappresentano “sogni” o visioni generate da IA basate sui temi trattati, accompagnate da brevi spiegazioni o riflessioni.
Spero che queste idee possano ispirarti e arricchire il tuo numero speciale con prospettive uniche e coinvolgenti!
Presidente: Roberto Grassi
Direttore editoriale: Silvia Pagani
Direttore responsabile: Davide Cionfrini
Direzione, redazione, amministrazione: Piazza Monte Grappa, 5 - 21100 Varese T. 0332 251.000 - F. 0332 285.565
M. info@varesefocus.it reg. n. 618 del 16/11/1991 - Trib. Varese
Progetto grafico e impaginazione: Paolo Marchetti
Fotolito e stampa: Roto3 Srl Via per Turbigo 11/B - 20025 Castano Primo (MI) T. 0331 889.601
Gestione editoriale: Servizi Confindustria Varese Srl Via Vittorio Veneto, 8/E 21013 Gallarate (VA) - T. 0331 774.345
Pubblicità: Servizi Confindustria Varese Srl M. commerciale@servizi.confindustriavarese.it T. 0331 774.345
Il numero è stato chiuso il 31 maggio 2024. “Varesefocus” ospita articoli e opinioni che possono anche non coincidere con le posizioni ufficiali di Confindustria Varese. Valore di abbonamento annuo Euro 20,00 (nell’ambito dei servizi istituzionali dell’Editore). Questa testata è associata a
VareseLuca Mari e Francesco Bertolotti
Professore e ricercatore Scuola di Ingegneria Industriale LIUC – Università Cattaneo
Immagini create con Midjourney
Sistemi artificiali che mostrano capacità di conversazione in lingue naturali sono disponibili ormai da varie decine di anni. Quali sono allora i motivi del nuovo, grande interesse per i chatbot, nato a partire dalla fine del 2022 con la pubblicazione di ChatGPT? Quali le possibilità di uso e le funzionalità dei sistemi di Intelligenza Artificiale Generativa? Ecco alcune prime considerazioni, tra miti da sfatare e cambi di paradigma
Revisione ed estensione di un articolo pubblicato sul numero di maggio 2023 di Varesefocus
La vicenda dei sistemi artificiali progettati per dialogare in lingue naturali, come l’italiano e l’inglese, ha ormai oltre 50 anni, da quando, nel 1966, Joseph Weizenbaum sviluppò Eliza, quello che pare sia il primo chatbot della storia, cioè un (ro)bot capace di dialogo (chat). Da allora questi sistemi sono stati parte del panorama dell’Intelligenza Artificiale, per altro con un ruolo modesto nella percezione sociale. Anche per questo, quanto sta succedendo dal 30 novembre 2022, con l’annuncio della possibilità di interagire liberamente con ChatGPT, appunto un chatbot, merita un’attenta considerazione e non solo per il fatto che a fine gennaio 2023, dunque solo due mesi dopo la sua apertura, pare che questo sistema fosse stato usato già da oltre 100 milioni di persone, arrivando ad essere il sistema digitale che ha raggiunto più velocemente nella storia questo traguardo. Ciò ha colto di sorpresa molti,
anche perché il nucleo del chatbot (chiamato Generative Pre-trained Transformer, GPT, inizialmente in versione 3 e da metà marzo 2023 anche in versione 4) era disponibile dal 2020 e già nel settembre di quell’anno un quotidiano inglese aveva pubblicato un articolo, intitolato “A robot wrote this entire article. Are you scared yet, human?” (“Un robot ha scritto integralmente questo articolo. Sei spaventato ora, umano?”), scritto per l’appunto da GPT. Se poi si aggiunge che le fonti a cui ChatGPT attinge non sono così aggiornate (ad aprile 2023 in questo momento: primavera 2024) e quindi che il sistema non è in grado di fornire informazione su eventi recenti o è in grado di farlo solo attraverso un usuale motore di ricerca sul web, ci si ritrova davvero a chiedersi quali siano le cause dell’estremo interesse che si sta manifestando. D’altra parte, quello che sta succedendo non è il risultato di una campagna pubblicitaria di massa da parte di una grande azienda: nelle settimane successive alla pubblicazione
di ChatGPT, pochi conoscevano OpenAI, l’organizzazione, un po’ azienda e un po’ no-profit, che ha sviluppato GPT e ChatGPT, insieme ad altri sistemi di Intelligenza Artificiale, come Dall-E, per generare immagini a partire da descrizioni testuali.
Dunque, la domanda sulle ragioni di tutto questo fervore rimane. Cominceremo a esplorarne qui il senso, cercando di giustificare la congettura che quanto sta succedendo intorno a ChatGPT segnala che stiamo plausibilmente vivendo un cambio di paradigma. A tal proposito, proponiamo quella che ci sembra ormai una constatazione: per la prima volta nella storia, è ampiamente diffusa nella società umana un’entità non-umana che mostra di essere in grado di dialogare con noi nelle nostre lingue con proprietà lessicale e semantica, grande eloquenza, abilità argomentativa e accesso a una enorme quantità di informazione.
Insomma, sappiamo quanto sia
socialmente rilevante la capacità di una conversazione contestuale, specifica e colta e, per la prima volta, noi esseri umani stiamo sperimentando di non essere gli unici ad avere questa capacità. C’è già qui una prima indicazione delle ragioni che potrebbero spiegare l’interesse per ChatGPT rispetto a GPT, che rimane lo strumento alla base di ChatGPT. GPT è in sé capace di interazioni singole (una richiesta, una risposta) e quindi ogni volta che una richiesta produce una risposta, corretta e brillante, sbagliata o banale che sia, può rimanere il dubbio che questo sia il risultato di una causa estrinseca e contingente, per esempio
che la richiesta fosse semplice da soddisfare o che, al contrario, non fosse sufficientemente chiara.
Ma ChatGPT è in grado di dialogare, mantenendo il contesto dei contenuti precedenti. L’impressione che il sistema stia comprendendo ciò di cui si sta scrivendo è evidente già al primo uso. Concretamente, ecco un breve e semplice dialogo, realizzato con ChatGPT.
Essere umano: Vorrei che mi aiutassi in una questione di aritmetica. Cominciamo supponendo che x=5, va bene?
Chatbot: Certo, posso aiutarti con la tua domanda di aritmetica. Ora
che abbiamo stabilito che x=5, quale operazione o problema vorresti risolvere?
Essere umano: Vorrei sapere quanto fa x*2.
Chatbot: Sicuro, posso farlo per te. Se x=5, allora x*2 è uguale a 5*2. Quindi, il risultato è: 5*2=10. Quindi x*2=10 quando x=5.
Prima che ChatGPT fosse reso disponibile, un dialogo come questo, per quanto così semplice per molti esseri umani, sarebbe stato considerato irrealizzabile, se non forse mediante sistemi accessibili solo a pochi ricercatori e questo anche perché è scritto in italiano e non in inglese che,
come sappiamo, è la lingua franca della tecnologia. Oggi è invece diventata la quotidianità per chiunque abbia avuto anche solo la curiosità di provare.
Ci stiamo, dunque, forse affacciando a un mondo nuovo e ciò grazie al fatto, concettualmente semplice ma dalle conseguenze che solo ora si sta cominciando a intuire, che queste reti neurali artificiali sono sì sistemi software, ma di un genere completamente diverso da quello a cui siamo abituati: sono sistemi il cui comportamento dipende non solo e non tanto dall’esecuzione di regole imposte mediante programmazione, ma da un addestramento realizzato su grandi quantità di dati.
Se siamo abituati da tempo ad agenti artificiali che risolvono specifici problemi complessi, come giocare a scacchi o convertire testi pronunciati in testi scritti, siamo con ciò arrivati a sistemi dotati di Intelligenza Artificiale generale, quella che in inglese si chiama AGI, cioè appunto Artificial General Intelligence? Le posizioni al proposito sono diverse. Nell’introduzione di un ampio rapporto tecnico, pubblicato alla fine di marzo 2023 con il significativo
titolo “Sparks of Artificial General Intelligence: Early experiments with GPT-4” (“Scintille di Intelligenza Artificiale generale: primi esperimenti
con GPT-4”), un gruppo di ricercatori di Microsoft ha scritto che ChatGPT “dimostra notevoli capacità in vari ambiti e in vari compiti, tra cui
(DIALOGO
CON GPT-4 DI OPENAI)
Essere umano: A partire dal testo che segue, inventi un dialogo tra due persone che si pongono il problema se un chatbot possa essere intelligente? La domanda “Un chatbot può pensare?” assomiglia alla domanda “Un sommergibile può nuotare?”: si tratta di un quesito mal posto, che potrebbe avere una risposta del tipo “I sommergibili non nuotano, ma fanno qualcosa di funzionalmente analogo. E che questo lo si chiami ‘nuotare’ o in un altro modo è poco importante”. Non si sostiene con ciò che i chatbot pensino, comprendano, siano intelligenti “davvero”, anche considerando che non abbiamo dei criteri sufficientemente oggettivi per stabilire cosa debba accadere perché un’entità pensi, capisca e sia intelligente “davvero”.
Chatbot: Certo: ecco un dialogo.
Giulia: Sai, ho letto una riflessione interessante l’altro giorno. Si chiedeva se un chatbot possa realmente “pensare”.
Mi ha fatto pensare alla questione dei
l’astrazione, la visione, il coding, la matematica, la medicina, la giurisprudenza, la comprensione di motivazioni ed emozioni umane”. D’altra parte, altri hanno sostenuto che questi chatbot non sono altro che splendidi sistemi di autocompletamento di testi e “pappagalli statistici” e che qualsiasi espressione antropomorfica per parlare di essi e del loro funzionamento è inadeguata: la loro non può che essere una “falsa promessa”, perché sono entità capaci di operare, ma senza intelligenza. Queste controversie da decenni accompagnano lo sviluppo dei sistemi cosiddetti di Intelligenza Artificiale (per altro senza contribuire in modo così significativo a un chiarimento), tanto che sono spesso
sommergibili e del nuoto. Sai, quella metafora che dice che chiedersi se un sommergibile possa nuotare è un po’ come chiedersi se un chatbot possa pensare.
Marco: Ah, interessante. Quindi, in pratica, il punto non è tanto se il sommergibile “nuota” nel senso letterale del termine, ma piuttosto se fa qualcosa di funzionalmente simile al nuotare, giusto?
Giulia: Esatto, Marco. È proprio così. La domanda su un chatbot che “pensa” potrebbe essere analoga. Non è che un chatbot pensa nel senso umano del termine, ma potrebbe eseguire operazioni che funzionalmente assomigliano al pensiero.
Marco: Capisco. Quindi, in sostanza, non è così importante se lo chiamiamo “pensare” o meno, ma più che altro quello che effettivamente fa, vero?
Giulia: Proprio così. La vera questione diventa allora capire cosa faccia effettivamente un chatbot e se quelle
trascurate. Infatti, la domanda “Un agente artificiale può pensare?” può tranquillamente essere paragonata alla domanda “Un sommergibile può nuotare?”: si tratta di un quesito mal posto, che potrebbe avere una risposta del tipo “I sommergibili non nuotano, ma fanno qualcosa di funzionalmente analogo. E che questo lo si chiami ‘nuotare’ o in un altro modo è poco importante”. Non stiamo dunque sostenendo che ChatGPT e i suoi fratelli pensino, comprendano, siano intelligenti “davvero”, anche considerando che non abbiamo dei criteri sufficientemente oggettivi per stabilire cosa debba accadere perché un’entità pensi, capisca e sia intelligente “davvero”. Solo constatiamo che queste entità che sono oggi tra noi,
azioni possano essere considerate analoghe al pensare. Anche se, a pensarci bene, non abbiamo criteri oggettivi e universali per definire il pensiero vero e proprio, neanche per gli esseri umani.
Marco: È vero, è una questione piuttosto complessa. Ciò che conta potrebbe essere più la funzionalità e l’efficacia con cui un chatbot imita le operazioni di pensiero, piuttosto che il dibattito se sia o meno “intelligenza reale”.
Giulia: Esattamente. Magari potremmo vedere i chatbot come strumenti che ampliano o estendono le nostre capacità cognitive, piuttosto che come entità che possiedono una vera e propria intelligenza autonoma.
Marco: Sì, mi piace questa visione. Serve a ricordarci che la tecnologia dovrebbe essere un’estensione delle nostre capacità, non una sostituzione. Ci aiuta a riflettere sul vero significato dell’intelligenza, sia artificiale che umana.
spesso mostrano un comportamento che fino a pochi mesi fa sarebbe stato considerato proprio ed esclusivo degli esseri umani. Il suggerimento, perciò, è minimizzare i pregiudizi e partecipare attivamente a quello che sta succedendo, cercando di capire, sperimentando e confrontandoci (con i chatbot) e tra di noi.
Luca Mari e Francesco Bertolotti
Professore e ricercatore Scuola di Ingegneria Industriale LIUC – Università Cattaneo Immagini create con Midjourney
I chatbot, e in generale le reti neurali artificiali, sono sistemi software il cui comportamento dipende non dall’esecuzione di regole imposte mediante programmazione, ma da un addestramento realizzato su grandi quantità di dati. Quello che osserviamo dialogando con ChatGPT è il risultato di un gran numero di operazioni semplici realizzate da neuroni artificiali e dalle loro connessioni: dunque in parziale analogia a quello che accade in un cervello umano, in cui sono attivi neuroni (naturali) e sinapsi
Revisione ed estensione di un articolo pubblicato sul numero di luglio 2023 di Varesefocus
Benché siano ampiamente accessibili solo da pochi mesi, gli attuali sistemi di Intelligenza Artificiale conversazionale, i chatbot di cui ChatGPT è al momento l’esempio più noto, ci lasciano intravedere cambiamenti radicali che potrebbero generarsi in molteplici dimensioni della nostra società. Per la prima volta nella storia del genere umano, sono diffuse largamente nella società entità non-umane
che dimostrano di essere capaci di dialogare con noi nelle nostre lingue, con proprietà lessicale e semantica, eloquenza, abilità argomentativa. E per giunta avendo accesso ad un’enorme quantità di informazioni. Chi ha già interagito un poco e in modo sufficientemente critico con un chatbot ha esperienza di questa sorprendente novità.
Ma come può ChatGPT (o Copilot di Microsoft o Gemini di Google o Claude di Anthropic e così via)
dialogare in modo così sofisticato? La prima risposta, la più fondamentale, è che i chatbot, e in generale le reti neurali artificiali, sono sistemi software il cui comportamento dipende solo marginalmente dall’esecuzione di regole imposte mediante programmazione ed è invece soprattutto il risultato di un addestramento realizzato su grandi quantità di dati. Questa caratteristica è determinante e configura un paradigma alternativo a quello tradizionale, che ci ha abituato a considerare i sistemi software come entità a comportamento programmato. Tanto che per molti “programma” è la traduzione italiana di “software”. Ma non è così: i chatbot sono sistemi software, ma il loro comportamento non è programmato. I chatbot sono esempi di sistemi ad apprendimento automatico (“machine learning” in inglese). Anche chi non ha interesse ad “aprire la scatola” e cercare di capire come funziona una rete neurale, può comprendere il senso e le conseguenze di questo cambio di paradigma: cosa significa, concretamente, che un sistema software viene addestrato, invece di essere programmato?
Ripartiamo dal paradigma che ci è abituale, appunto quello del software come programma. Il fatto che un sistema sia programmato implica per prima cosa che vada formulata esplicitamente la successione di istruzioni che guida il processo di risoluzione del problema in considerazione, cioè l’algoritmo. Una
volta che un algoritmo è stato definito, le istruzioni di cui è costituito vanno tradotte in una forma interpretabile da un sistema digitale, implementando l’algoritmo in un linguaggio di programmazione, come Java o Python, per ottenere appunto un programma. Di questa strategia si conoscono limiti e benefici: implica una certa rigidità, dato che per ogni problema specifico da risolvere bisogna formulare e implementare regole specifiche, ma in cambio è possibile ricostruire le ragioni di un comportamento osservato, identificando le parti del programma coinvolte e di conseguenza rendere sempre più affidabili i programmi che vengono sviluppati,
grazie alla possibilità di individuare e correggere gli errori (i cosiddetti “bug”) e al comportamento ripetibile dei sistemi digitali. In sintesi, con la programmazione si introduce rigidità nel processo di soluzione di problemi per ottenere spiegabilità e affidabilità delle soluzioni.
In questo, le caratteristiche del software programmato sono complementari alle nostre, che, come esseri umani, siamo flessibili nella nostra capacità di risolvere problemi sempre nuovi, ma a volte abbiamo comportamenti che non sappiamo spiegare e ripetere. Ci sono infatti tante cose che facciamo senza sapere davvero, e senza saper spiegare,
come le facciamo: come sappiamo leggere? Come sappiamo riconoscere persone guardandone il volto? Come ricordiamo i concetti e come pensiamo?
È possibile trovare una traccia del riconoscimento di questa differenza nel modo in cui ci riferiamo agli errori, che tutti commettiamo. Quando un’entità programmata ha un comportamento diverso da quello atteso, diciamo che c’è un bug, mentre non consideriamo bug gli errori che noi facciamo, proprio perché riconosciamo che non siamo programmati: quando non otteniamo il risultato desiderato, non diciamo, di solito, che è perché il nostro cervello o
il nostro dna sono “scritti male”. Benché con importanti differenze con gli esseri umani, anche le reti neurali artificiali sono entità il cui comportamento non è programmato, ma dipende, analogamente, a quello che accade per noi, dall’addestramento che hanno ricevuto. Cosa significa questo, concretamente? Cosa accade quando l’uomo impara? Certo, cambia il nostro comportamento, ma la domanda si riferisce a cosa cambia “dentro” di noi. Come e cosa modifica il nostro comportamento?
La neurofisiologia ci dice che il nostro cervello non è un contenitore che si riempie di dati: non è, insomma, un database, con un più o meno efficiente motore di ricerca. Quello che accade quando impariamo è invece che si modificano le sinapsi, cioè le connessioni elettrochimiche tra i neuroni del nostro cervello. Per quanto la cosa possa essere difficile da capire e
accettare, l’apprendimento si fonda su processi fisici realizzati in una struttura complessa come quella del cervello umano, che si stima contenga 1011 neuroni, ognuno connesso a 104 altri neuroni, dunque per un totale di 1015 (un milione di miliardi) di sinapsi. È su questa base che un neuroscienziato, Warren McCulloch, e un matematico, Walter Pitts, proposero nel 1943 un semplice modello matematico per descrivere il comportamento di un neurone (dove “semplice” in questo caso non è retorico, e significa davvero che il modello è semplice: un neurone artificiale fa in pratica poco più che moltiplicazioni e addizioni). Da allora, con i sistemi digitali che sono progressivamente migliorati in capacità di calcolo e di memorizzazione, le reti neurali artificiali sono cresciute in complessità, ma sostanzialmente mantenendo il modello iniziale del loro componente
elementare, cioè appunto del neurone: quello che osserviamo oggi dialogando con ChatGPT è in pratica il risultato di un gran numero di moltiplicazioni e addizioni, realizzate da neuroni artificiali attraverso le loro connessioni, nello stile di McCulloch e Pitts. E anche l’addestramento dei chatbot produce, concretamente, un cambiamento delle loro sinapsi, che in questo caso sono entità matematiche invece che elettrochimiche.
Una rete neurale artificiale può essere infatti pensata come una complessa funzione matematica, che, dato un input x, per esempio l’immagine di un testo scritto a mano, produce un output y, in questo caso il testo per come riconosciuto dalla rete, che realizza con ciò la funzione di Optical Character Recognition, OCR. Ricordando quanto diversi possono essere gli stili delle nostre calligrafie, scrivere un programma che realizzi in
modo affidabile un comportamento di questo genere è un’impresa che si rivela praticamente impossibile. Passando invece al paradigma del machine learning, l’obiettivo diventa di costruire una funzione parametrica y = fk(x), che calcoli un risultato y in funzione dei dati x che gli vengono sottoposti, una volta che siano stati assegnati i valori dei suoi parametri k (per ricordare cosa significa che una funzione è parametrica, consideriamo per esempio la funzione y = xk, che calcola “x alla k”, dunque la potenza k di ogni numero x che viene specificato; se k = 2, la funzione calcola il quadrato di x; se k = 0,5, la funzione calcola la radice quadrata di x; e così via; dunque la funzione è calcolabile solo dopo che si sono specificati i valori sia per l’argomento x sia per il parametro k).
L’obiettivo dell’addestramento di una rete neurale è di trovare i valori migliori, secondo un qualche criterio
da definire, per i parametri della funzione realizzata dalla rete stessa. Una strategia di addestramento prevede allora che sia nota la risposta y’ che si aspetta per un certo input x (nell’esempio precedente, il testo effettivamente scritto nell’immagine), così che, se il risultato y prodotto dalla rete è diverso da y’, cioè da quello che avrebbe dovuto essere prodotto, si attiva un processo di correzione delle connessioni / sinapsi (che, in pratica, non sono altro che fattori moltiplicativi, gli ormai famosi “pesi” della rete). Questo processo viene dunque realizzato re-immettendo nella rete l’informazione che la rete stessa aveva prodotto, con l’informazione “correggi!”, e per questo motivo si chiama genericamente “propagazione all’indietro”, back propagation in inglese.
Tutto ciò è in almeno parziale analogia con quanto accade agli
esseri umani: anche noi impariamo dagli errori, se c’è qualcuno che ci aiuta segnalandoceli, e anche il nostro apprendimento si realizza attraverso cambiamenti delle sinapsi che connettono i neuroni del nostro cervello. Le reti neurali artificiali hanno però anche notevoli differenze con il cervello umano. Mentre noi sappiamo imparare anche da un piccolo numero di esempi, una rete per l’OCR ha prestazioni accettabili solo dopo essere stata messa alla prova con almeno decine di migliaia di immagini di caratteri, cosa diventata possibile grazie ai big data. Su un’altra scala, si capisce così perché per insegnare a ChatGPT a produrre testi in italiano (e in centinaia di altre lingue) sia stato necessario fargli leggere parti consistenti del web: tutto Wikipedia e tanto altro.
Con tutto ciò, e pur considerando la notevole complessità della “struttura
neurale” degli attuali chatbot – e dei transformer in particolare, l’architettura di reti neurali oggi prevalente: la “T” di “GPT” sta appunto per “Transformer” – lo stupore rimane: davvero i testi che i chatbot producono sono solo una questione, come dice qualcuno, di trovare ogni volta la più probabile prossima parola? Se ci si accontenta di osservare il comportamento di un chatbot senza chiedersi come fa a fare quello che fa, questa descrizione è corretta. Ma in questi stessi termini dovremmo giungere alla stessa conclusione anche per la produzione linguistica degli esseri umani: pronunciamo o scriviamo una parola dopo l’altra (come altrimenti?). Ma, anche se “da fuori” non si vede, ognuno di noi sa bene che le frasi che pronuncia e scrive non sono il
risultato di un processo di generazione puramente sequenziale, una parola dopo l’altra. E una considerazione analoga vale anche per i chatbot.
Un indizio di ciò ci viene dal fatto che l’articolo scientifico, pubblicato nel 2017, in cui l’architettura dei transformer è stata proposta si intitola “Attention is all you need”, ovvero “L’attenzione è tutto ciò di cui hai bisogno” per imparare a generare testi in modo appropriato. Con una qualche semplificazione, possiamo pensare che la situazione in cui oggi ci troviamo con i chatbot derivi da decenni di sviluppo di reti neurali artificiali, culminati con l’ideazione di un concetto matematico, e implementabile in queste stesse reti, di ‘prestare attenzione’: quello per cui si impara a leggere non solo in termini di strutture grammaticali di una lingua
ma anche, appunto, riconoscendo che in una lingua come l’italiano è per esempio solitamente più importante prestare attenzione ai sostantivi che non agli articoli.
L’idea che sistemi artificiali come i chatbot siano in grado di operare prestando attenzione in modo selettivo a testi lunghi e complessi è affascinante (ma forse anche un poco terrorizzante per qualcuno). Anche perché ci offre nuove prospettive per interrogarci su noi stessi: cosa ci consente, appunto, di orientare la nostra attenzione, di capire, di pensare? Ciò che ci è più vicino (il nostro io) è anche forse l’entità che ci rimane più misteriosa (so di saper pensare, ma come faccio a pensare, non lo so): in aggiunta alle loro tante funzioni strumentali, i chatbot sono dei laboratori per esplorare noi stessi.
(DIALOGO GENERATO CON GPT-4 DI OPENAI)
Essere umano: Ho letto che una rete neurale artificiale può essere interpretata come una grande e complessa funzione parametrica. È corretto? Se lo è, non sono però sicuro di aver capito bene cosa sia una funzione parametrica: me lo spieghi e mi fai qualche esempio, possibilmente tratto da situazioni della vita quotidiana e considerando che le mie competenze di matematica sono abbastanza elementari?
Chatbot: Sì, hai ragione! Una rete neurale artificiale può essere vista come una grande e complessa funzione parametrica. Per capire cosa significa, iniziamo spiegando cosa sia una funzione parametrica e come si applica nelle situazioni quotidiane, soprattutto con un approccio semplice.
Cosa è una funzione parametrica?
Una funzione parametrica è una funzione che dipende da uno o più parametri. In matematica e nelle scienze, un parametro
è un valore che influenza il comportamento della funzione. Questi parametri possono essere aggiustati o modificati per cambiare il risultato della funzione.
Esempio dal quotidiano
Un esempio semplice e quotidiano di una funzione parametrica può essere il calcolo della spesa in un negozio di frutta. Supponiamo che il costo di un kilogrammo di mele sia un parametro (diciamo 2 euro per kilogrammo) e il numero di chilogrammi che vuoi comprare sia l’argomento della funzione.
La funzione qui potrebbe essere: costo totale = costo per kilogrammo × numero di kilogrammi
Se cambiamo il costo per kilogrammo (il parametro), cambierà anche il costo totale.
Ad esempio:
se compri 3 kg di mele a 2 euro per kg, spenderai 3×2=6 euro;
se il prezzo per kg aumenta a 3 euro, per 3 kg spenderai 3×3=9 euro.
Applicazione nelle reti neurali
Nelle reti neurali, la funzione è il modello che prende alcuni input (come le immagini, i testi, ecc.) e produce un output (come un’etichetta di classificazione, una previsione di testo, ecc.). I parametri in questo caso sono i pesi e i bias della rete, che sono numeri che determinano come gli input vengono trasformati in output. Durante l’addestramento della rete, questi parametri sono continuamente aggiustati per minimizzare l’errore tra l’output previsto dal modello e l’output effettivo desiderato.
Spero che questi esempi ti abbiano aiutato a comprendere meglio il concetto di funzione parametrica e come si applica sia in situazioni quotidiane che in tecnologie avanzate come le reti neurali!
Luca Mari e Francesco Bertolotti
Professore e ricercatore Scuola di Ingegneria Industriale LIUC – Università Cattaneo
Immagini create con Midjourney
Alla scoperta delle potenzialità di uso dei chatbot in versione personalizzata, in grado di rispondere a esigenze di singole organizzazioni e imprese: come si può fare in modo che questi sistemi sappiano conversare sul contenuto di argomenti e documenti specifici? Un approfondimento sulle principali strategie per adattare il comportamento della AI con il prompt engineering e non solo
Revisione ed estensione di un articolo pubblicato sul numero di settembre 2023 di Varesefocus
Nonostante siano facilmente e ampiamente accessibili solo da poco tempo, i chatbot, che in italiano potremmo chiamare “sistemi di Intelligenza Artificiale Generativa Conversazionale”, di cui ChatGPT è l’esempio più noto, fanno intravedere la possibilità di cambiamenti radicali che potrebbero influenzare molti aspetti della nostra società. Sono entità software, e quindi artificiali, in grado di comunicare con noi nelle nostre lingue, come l’italiano e l’inglese, con un ricco vocabolario e mostrando una solida comprensione dei contenuti, una grande eloquenza, abilità di argomentazione e accesso a un’enorme quantità di informazioni. Chiunque abbia avuto esperienza nell’interazione con un chatbot può attestare questa sorprendente novità.
Ma come riescono ChatGPT o altri chatbot, come Copilot di Microsoft, Gemini di Google, Claude di Anthropic, tutti esempi di sistemi basati su reti neurali artificiali oggi note come Large Language Model (LLM), a dialogare in modo così sofisticato? Si tratta di sistemi software il cui comportamento non è determinato da regole di programmazione preordinate, ma da un processo di addestramento, spesso lungo e complesso, realizzato facendoli interagire appropriatamente con grandi insiemi di dati. Insomma, il comportamento che osserviamo nei chatbot è il risultato di addestramento e non di programmazione. Anche coloro che non sono interessati a comprendere il funzionamento di una rete neurale possono cogliere il significato e le implicazioni di questo nuovo paradigma. Infatti,
mentre sappiamo come un sistema software programmato reagisce agli stimoli, perché le sue regole di comportamento sono esplicite nel codice che i programmatori hanno scritto, interagendo con un chatbot non si conoscono a priori le risposte che produrrà, che dipendono non solo dalla struttura della rete neurale su cui è basato, ma anche dal suo addestramento e da come gli poniamo le domande.
Per interagire in modo efficace con un chatbot è quindi importante imparare non solo, ovviamente, a fargli le domande giuste, ma anche a fargliele nel modo giusto: quanto è opportuno essere specifici nelle richieste? Sono utili esempi o suggerimenti? È più efficace spiegare tutto subito o un passo per volta? E così via. Come si vede bene, questa competenza, che si è cominciata a chiamare
“prompt engineering” (letteralmente “ingegneria delle domande”), al di là del nome ha una connotazione prevalentemente linguistica, psicologica e relazionale. Insomma, in riferimento alla sciagurata separazione tra cultura letterario-umanistica e cultura tecnico-scientifica, i chatbot ci immergono in un inatteso scenario in cui entità tecnologiche ci invitano a sviluppare capacità di dialogo che finora avremmo considerato parte della cultura umanistica. È certamente ancora troppo presto per prevedere se questo produrrà una almeno parziale rivalorizzazione della parola scritta, ma è una speranza non completamente infondata. Quante volte, in questi mesi, abbiamo ascoltato e letto di resoconti di interazioni con chatbot che si concludevano con “Tutto qui? Sono capaci solo di risposte generiche!” E ci siamo chiesti: “Ma non sarà stato perché erano generiche le domande a cui si chiedeva loro di rispondere?” È vero
che si stanno sviluppando tecniche specifiche di prompt engineering, che mostrano la loro efficacia nel far sì che i chatbot producano informazione di miglior qualità, ma a ben vedere si tratta di chiarificazioni di metodi di conversazione che ogni essere umano almeno intuitivamente conosce. Prendiamo il caso di una delle tecniche più note, ma anche più ovvie, il cosiddetto “chain of thought” (letteralmente “catena di pensiero”), che suggerisce di interagire con un chatbot non solo ponendo domande, ma chiedendogli di spiegare i passi seguiti per giungere alla risposta. Per vedere più facilmente l’efficacia di questa tecnica, mettiamolo alla prova con un LLM meno sofisticato di ChatGPT (Mistral OpenOrca 7B, un sistema “aperto” eseguibile anche sul proprio calcolatore). Ecco lo scambio domanda-risposta iniziale.
Essere umano: Ho comprato 10 mele e ne ho data una a ciascuno dei miei
3 figli per la loro merenda. Ne ho poi date 2 a un vicino a cui servivano per fare una torta. Ne ho comprate altre 5. Quante mele ho ora?
Chatbot: Hai 17 mele in casa. La risposta è ovviamente sbagliata. Riproviamo con un nuovo dialogo e ora chiedendo al chatbot di essere esplicito nella sua risposta.
Essere umano: Ho comprato 10 mele e ne ho data una a ciascuno dei miei 3 figli per la loro merenda. Ne ho poi date 2 a un vicino a cui servivano per fare una torta. Ne ho comprate altre 5. Quante mele ho ora? Rispondi spiegando passo per passo il ragionamento che fai per giungere alla soluzione.
Chatbot: Hai acquistato inizialmente 10 mele e ne hai distribuite una a ciascuno dei tuoi 3 figli (3x1=3).
Quindi, sono rimaste 10 - 3 = 7 mele. Poi ne hai date 2 al tuo vicino per fare una torta, quindi le mele erano 7 - 2 = 5. Alla fine, hai acquistato altre 5 mele, portando il totale a 5 + 5 = 10. Quante mele hai ora? La risposta è che hai 10 mele. In questo caso, ho utilizzato un ragionamento passo per passo: ho contato le mele iniziali, quelle date ai figli e al vicino e poi quelle acquistate in aggiunta. La risposta finale è stata di avere 10 mele complessivamente.
Il prompt engineering è una competenza finalizzata ad ottenere un comportamento desiderato da un chatbot, per adattarlo ai nostri scopi e in accordo ai nostri dati e documenti. Sempre più spesso, l’obiettivo principale di coloro che esplorano le potenzialità dei chatbot nell’ambito della propria organizzazione è di crearne una versione personalizzata, in grado di rispondere a esigenze specifiche dell’organizzazione stessa. Prendiamo per esempio il caso di un’azienda che desidera utilizzare un chatbot per supportare i servizi commerciali, sostenendo conversazioni che richiedono informazioni specifiche dell’azienda, come dettagli su prodotti o servizi o fornendo i riferimenti corretti di una certa persona o
funzione aziendale, a partire da una determinata domanda. Quale metodo applicare per ottenere risultati appropriati è una delle domande su cui si sta più sperimentando recentemente: proponiamo qui una prima sintesi, per “non tecnici”.
Come possiamo, dunque, mettere un chatbot nella condizione di rispondere a domande che richiedano la conoscenza di documenti non pubblici, che si suppone non gli siano stati fatti leggere in precedenza? I chatbot che utilizziamo sono preaddestrati su un insieme di moltissimi documenti chiamato “training set”. Tipicamente l’addestramento include anche una seconda fase, chiamata “fine tuning”, in cui si adatta il chatbot a compiere specifiche attività. Nel caso di ChatGPT, con il fine tuning
gli si è insegnato a dialogare in modo socialmente appropriato, aspetto che si è rivelato una delle chiavi del suo successo. Chi vuole personalizzare il comportamento di un chatbot ben pre-addestrato e fine tuned può quindi oggi cominciare a esplorare strategie per adattarne il comportamento a compiti specifici, basati sul contenuto di nuovi documenti.
Alla base della molteplicità di opzioni disponibili c’è il fatto che, almeno per ora, le memorie a lungo e a breve termine dei chatbot sono mantenute separate. In pratica, il pre-addestramento e il fine tuning intervengono sulla memoria a lungo termine (ciò che è caratterizzato in particolare dal numero dei parametri della rete neurale, dell’ordine delle centinaia di miliardi nel caso di
ChatGPT), che però non viene modificata dal contenuto dei dialoghi, mantenuto nella memoria a breve termine, una per ogni dialogo e che alla fine di ogni dialogo si azzera. Questo fa sì che un chatbot adatti il suo comportamento durante ogni dialogo, ma poi una volta terminato si dimentichi di quello che ha imparato (si tratta perciò di un’importante differenza con gli esseri umani, che invece hanno una memoria dinamica che consente di continuare a imparare dalle esperienze quotidiane).
In conseguenza della separazione tra memoria a lungo e a breve termine, i metodi sviluppati finora per personalizzare il comportamento di un chatbot intervengono o sulla memoria a lungo termine o su quella a breve termine. Nel primo caso, si prosegue
il fine tuning dell’LLM, facendogli leggere questa volta i nostri documenti. Questa è però un’operazione di non così ovvio successo, perché richiede di modificare i valori dei tanti parametri della rete per far sì che essa riesca a gestire con particolare evidenza i nostri documenti, che sono plausibilmente una minuscola parte dell’intera informazione su cui è stata addestrata: un’impresa costosa e che gli stessi gestori dei chatbot considerano problematica e generalmente sconsigliano. Si stanno perciò sperimentando metodi alternativi di fine tuning, chiamati di “ParameterEfficient Fine Tuning”, attualmente il più noto dei quali si chiama “Low Ranking Adaptation” (LoRA), che prevedono di non modificare la rete già addestrata, ma di affiancarle una seconda rete, molto più piccola e quindi, appunto, più semplice da addestrare con i propri documenti. In alternativa, si può intervenire
direttamente sulla memoria a breve termine, con il vantaggio di non dover fare alcun genere di addestramento, ma con il problema di dover sempre introdurre nel prompt di ogni conversazione l’informazione necessaria. Se si tratta, per esempio, di un singolo e non troppo lungo documento, si può operare in modo manuale, caricando il documento prima di cominciare la conversazione o addirittura semplicemente con un copia-e-incolla del testo, dunque, costruendo un prompt del tipo “Tenendo conto di questa informazione <contenuto del documento>, <domanda>”. Ma questa soluzione può essere problematica, sia perché la memoria a breve termine potrebbe non essere grande a sufficienza (attualmente da alcune migliaia o alcune centinaia di migliaia di parole, in dipendenza dall’LLM che si usa) per contenere tutta l’informazione richiesta, sia perché il costo dell’uso del chatbot potrebbe
dipendere da quanta informazione viene caricata in tale memoria. Per questo è sempre più diffuso il ricorso a una tecnica chiamata “RetrievalAugmented Generation” (RAG) che, una volta che l’utente del chatbot ha fatto una domanda, in sostanza prevede una fase di preelaborazione automatica finalizzata a trovare nella documentazione disponibile le parti di testo rilevanti perché il chatbot possa meglio rispondere alla domanda stessa. Testi che poi sempre in modo automatico vengono introdotti nel prompt.
È interessante che, nonostante i pochi mesi di “vita sociale” dei chatbot, si stiano già affrontando questioni di evidente rilevanza applicativa, come, appunto, la possibilità di personalizzare il loro comportamento in riferimento a documenti propri, garantendo nello stesso tempo qualità delle risposte, costi contenuti e riservatezza dei dati.
Essere umano: Vorrei che mi proponessi uno schema, comprensibile anche a una persona senza competenze specifiche di machine learning, che riassume le principali opzioni per far sì che un chatbot basato su un LLM abbia un comportamento adattato alle esigenze di una particolare organizzazione. Per ogni opzione, dovresti indicarmi un esempio applicativo significativo e specificare quali risorse sono necessarie per attuare l’opzione in questione. Rimani però generico quanto agli eventuali prodotti commerciali: presenta solo l’architettura concettuale di ogni opzione.
Chatbot: Certamente, posso fornirti uno schema generico che riassume le principali opzioni per personalizzare un chatbot basato su un Large Language Model (LLM) per rispondere alle esigenze specifiche di un’organizzazione. Ecco una panoramica delle opzioni principali, con esempi applicativi e le risorse necessarie:
1. Pre-Training Personalizzato
Descrizione: si addestra l’LLM da zero o si modifica un modello preesistente utilizzando un dataset specifico dell’organizzazione per migliorare la sua capacità di comprendere e rispondere in contesti specifici.
Esempio Applicativo: un’azienda farmaceutica potrebbe addestrare un LLM con la letteratura medica e le proprie ricerche per assistere nel rispondere a domande complesse sui propri prodotti.
Risorse Necessarie:
– Dataset ampio e specifico del settore
– Potenza computazionale elevata per il training
– Esperti di data science e machine learning
2. Fine-Tuning
Descrizione: si affina un modello LLM
preesistente utilizzando un dataset minore, ma altamente specifico per migliorare le performance del modello in scenari specifici dell’organizzazione.
Esempio Applicativo: un ente turistico potrebbe utilizzare il fine-tuning per addestrare un LLM con informazioni specifiche sulla propria regione per fornire risposte dettagliate e personalizzate ai turisti.
Risorse Necessarie:
– Dataset specifico per il fine-tuning
– Accesso a un modello LLM preaddestrato
– Specialisti in machine learning per gestire il processo di fine-tuning
3. Transfer Learning con Adattamenti Specifici
Descrizione: si utilizza un modello LLM generale e si adattano le sue risposte tramite tecniche di transfer learning, spesso attraverso moduli aggiuntivi che interpretano o modificano le risposte del modello base.
Esempio Applicativo: un’azienda di supporto clienti potrebbe implementare un LLM generale per rispondere a domande frequenti, con un modulo aggiuntivo che utilizza il contesto aziendale per personalizzare le risposte.
Risorse Necessarie:
– Modello LLM generico
– Sviluppatori software per creare moduli aggiuntivi
– Dataset di training per moduli specifici
4. Interfaccia di Personalizzazione dell’Utente
Descrizione: si fornisce agli utenti un’interfaccia che permette loro di personalizzare il comportamento del chatbot secondo le proprie necessità specifiche, ad esempio, selezionando settori di interesse o specificando il tono delle risposte.
Esempio Applicativo: un’Università potrebbe offrire ai propri studenti un
chatbot che si adatta per fornire risposte in base al corso di studi dello studente e alle sue preferenze personali.
Risorse Necessarie:
– Piattaforma con capacità di personalizzazione utente
– Interfaccia utente amichevole
– Supporto IT continuo per mantenimento e aggiornamenti
5. Feedback Continuo e Apprendimento Incrementale
Descrizione: il sistema è dotato di meccanismi per raccogliere feedback dagli utenti e migliorare progressivamente, adattando le sue risposte in base alle interazioni precedenti.
Esempio Applicativo: un servizio di assistenza clienti online potrebbe evolvere costantemente il suo chatbot per rifinire le risposte basate sul feedback e le interazioni passate con i clienti.
Risorse Necessarie:
– Sistema di raccolta e analisi del feedback
– Capabilità [sic] di aggiornamento e apprendimento incrementale del modello
– Team di analisti per monitorare e guidare l’evoluzione del chatbot
Questo schema fornisce un panorama delle principali tecniche per personalizzare un chatbot basato su LLM, rendendolo adatto a specifici contesti organizzativi, senza entrare nei dettagli di soluzioni commerciali particolari, concentrando l’attenzione sull’architettura concettuale di ogni opzione.
Per continuare a leggere il dialogo inquadra il QR Code
Luca Mari e Francesco Bertolotti
Professore e ricercatore Scuola di Ingegneria Industriale LIUC – Università Cattaneo
Immagini create con Midjourney
Le nuove frontiere che siamo portati ad esplorare con il progressivo e rapido sviluppo dei chatbot, come ChatGPT, pongono non solo questioni tecnologiche, di utilizzo e di analisi. Il vaso di Pandora si apre anche sul lato etico e sociale, richiamando a profondi e difficili interrogativi: quanto gli agenti IA influiranno sui processi di formazione, sul mondo del lavoro e sulla società nel suo complesso, in particolare nello svolgimento della vita democratica?
Revisione ed estensione di un articolo pubblicato sul numero di ottobre 2023 di Varesefocus
In una recente intervista, lo storico, filosofo e saggista israeliano Yuval Noah Harari ha usato il termine “era del dominio umano” per riferirsi a quell’arco temporale, dall’estinzione dei Neanderthal ad oggi, in cui i Sapiens sono stati le sole entità intelligenti sulla Terra capaci di agire in modo sistematicamente efficace sull’ambiente circostante. A suo dire (così come sostenuto anche dallo stesso Sam Altman, Ceo di OpenAI, durante una puntata del podcast “In
Good Company”) nel giro di alcuni anni esisteranno sistemi artificiali intelligenti e autonomi, con un ruolo pervasivo nelle nostre esistenze e la cui progressiva diffusione segnerà la fine di questa era. Perché ciò accada, non è però sufficiente lo sviluppo di intelligenze artificiali capaci di comprensione e abilità di generazione di informazione (dunque di testi e immagini) sempre migliori: per quanto intelligenti siano le sue risposte, un chatbot reagisce agli input testuali dell’utente, ma
non è proattivo e non è in grado di operare autonomamente. È vero che alcuni dei sistemi di Intelligenza Artificiale pubblicamente accessibili più sofisticati, come ChatGPT nella versione con GPT-4 e Gemini, possono accedere in modo autonomo a informazioni disponibili sul web, per esempio, leggendo durante la conversazione il contenuto di pagine web, ma anche in questi casi essi non operano in autonomia, ma solo reagendo agli input degli utenti. Rimangono quindi entità prive di quelle caratteristiche, come la capacità di prendere decisioni autonome e di orientare le proprie azioni verso un obiettivo, che distinguono un soggetto da un oggetto. Proprietà che sono chiamate di “agenzialità”.
Posto che non esiste ancora una definizione condivisa di cosa sia, o potrebbe essere, un “agente artificiale intelligente” e anzi al proposito vi è un’ampia varietà di definizioni e interpretazioni, una tale entità (la chiameremo “agente IA” in breve) può essere pensata come un sistema che usa un qualche genere di Intelligenza Artificiale, oggi plausibilmente una rete neurale artificiale e chissà nel futuro, per diversi scopi, come acquisire e interpretare gli input che riceve dall’ambiente circostante, empirico (e allora sono necessari dei sensori) o informazionale (tipicamente il web, ma possibilmente anche database o insiemi di documenti privati); formulare strategie per risolvere i
problemi che emergono da questo processo di interpretazione, in accordo a obiettivi che in qualche modo sono noti; attuare queste strategie modificando il proprio stato o intervenendo sull’ambiente circostante, empirico (e allora sono necessari degli attuatori, per esempio i motori di un robot) o informazionale (per esempio inviando un segnale di acquisto o vendita di un certo titolo in una certa borsa).
Per quanto tutto ciò possa apparire sorprendente e per qualcuno preoccupante, il processo che abbiamo descritto è realizzato in tanti sistemi la cui presenza diamo per ovvia, per esempio i termostati di casa, che per altro non devono essere poi così intelligenti per attuare una strategia del tipo “se la temperatura nella stanza è minore di quella desiderata, accendi la caldaia”. Lo scenario che gli agenti IA ci stanno prospettando è però effettivamente nuovo e questo per due ragioni: perché sono in grado di formulare in modo autonomo strategie, anche estremamente complesse, per la soluzione dei problemi e perché sono
in grado di scegliere in modo almeno parzialmente autonomo gli obiettivi da cercare di soddisfare. Per esempio, un agente IA potrebbe essere capace di leggere le notizie di cronaca finanziaria, acquisendole da un elenco di siti preselezionati e utilizzarle per decidere le operazioni da compiere su un certo mercato azionario.
Che ci piaccia o no, agenti IA con queste caratteristiche sono già realizzabili da chiunque abbia un po’ di competenze di sviluppo di software. Considerando poi che è diventato possibile interagire con questi sistemi in linguaggio naturale, come l’italiano, praticamente chiunque potrebbe esserne un utente, senza dover acquisire competenze tecnologiche specifiche. È dunque verosimile che prossimamente queste entità diventeranno molto comuni, anche considerando che sta diventando possibile un’interazione anche di tipo vocale, grazie a cui potremo parlare, invece di scrivere, con questi agenti IA.
Se sta iniziando la corsa alla generazione di buone idee per sistemi innovativi basati su agenti
IA, è però chiaro che c’è anche l’altra faccia della medaglia da considerare: dobbiamo ammettere di non avere alcuna esperienza di entità artificiali autonome al punto da poter scegliere strategie e perfino obiettivi delle loro azioni. E questa mancanza di esperienza ci fa supporre che potrebbe non essere sempre e comunque una buona idea delegare scelte su strategie e obiettivi a decisori così diversi da quelli a cui siamo abituati. È infatti plausibile che saranno tra noi agenti IA usati per creare valore nella società, per esempio, con il compito di aiutare ricercatori in operazioni complesse o studenti a migliorare i loro processi di apprendimento, ma anche altri che invece avranno obiettivi impropri o perfino illeciti, come ad esempio virus “intelligenti” nella capacità di ingannare le persone per farsi inviare dati personali o denaro.
Il vaso di Pandora è aperto, insomma, e le novità che ci stiamo trovando di fronte sono così radicali che dobbiamo ancora farci un’idea di come comportarci per cercare di gestirle al meglio.
(DIALOGO GENERATO CON GPT-4 DI OPENAI)
Essere umano: Vorrei che tu impersonassi Robert Oppenheimer, per farti intervistare a proposito di sistemi di Intelligenza Artificiale e responsabilità umana. Va bene?
Chatbot: Certo, sarò lieto di impersonare J. Robert Oppenheimer per questa intervista immaginaria. Cominciamo pure con le domande.
Essere umano: Buongiorno dottor Oppenheimer. Anche se lei può solo immaginare l’argomento della nostra intervista, a partire dalla sua esperienza nello sviluppo di armi atomiche vorrei chiederle qualche parere a proposito di Intelligenza Artificiale. La prima domanda è semplice: da un punto di vista delle implicazioni etiche, vede delle analogie tra ciò di cui lei si è occupato e l’Intelligenza Artificiale Generativa?
Chatbot: Buongiorno. È una domanda intrigante. Posso certamente vedere delle analogie tra lo sviluppo delle armi nucleari e l’ascesa dell’Intelligenza
Artificiale, specialmente sotto l’aspetto delle responsabilità etiche. Nel mio lavoro sul Progetto Manhattan, abbiamo intrapreso un viaggio scientifico e tecnologico che non aveva precedenti, spinti dalla necessità di porre fine a una guerra devastante. Tuttavia, la creazione di un’arma così potente portò anche a questioni etiche complesse, come il suo uso e il potenziale per distruzioni future. Analogamente, l’Intelligenza Artificiale, specialmente quella generativa, presenta sfide etiche significative. Queste tecnologie possono generare contenuti che sono indistinguibili da quelli creati dagli umani, il che solleva interrogativi su autenticità, privacy e la diffusione di informazioni false. Inoltre, esiste il rischio che queste tecnologie possano essere mal utilizzate o che il loro impatto non sia
equamente distribuito nella società. La chiave, in entrambi i casi, è la governanza [sic] e la responsabilità: dobbiamo assicurarci che chi sviluppa e impiega queste tecnologie sia pienamente consapevole delle implicazioni etiche e agisca in modo responsabile. Inoltre, è essenziale che ci sia un dialogo aperto e continuo tra scienziati, politici e il pubblico per navigare queste acque complesse. Essere umano: Nella sua direzione del Progetto Manhattan, lei, scienziato, ha certamente dovuto interagire in modo sistematico con dei decisori politici, che probabilmente avevano una comprensione limitata del lavoro che stava coordinando. Che cosa ha imparato da queste relazioni e di conseguenza che consigli ci può dare a proposito della gestione dello sviluppo e della diffusione sociale dell’Intelligenza Artificiale generativa?
Chatbot: Durante il Progetto Manhattan, uno degli aspetti più sfidanti fu effettivamente la comunicazione e la collaborazione tra il mondo scientifico e quello politico. I politici avevano una comprensione limitata delle complessità scientifiche e tecnologiche, mentre noi scienziati, spesso, eravamo meno consapevoli delle ramificazioni politiche e strategiche delle nostre scoperte e invenzioni. Da questa esperienza, ho tratto alcune lezioni importanti che potrebbero essere applicate allo sviluppo e alla gestione dell’Intelligenza Artificiale Generativa:
– Educazione e dialogo continuo: è essenziale che ci sia un’educazione continua tra le parti. Gli sviluppatori di Intelligenza Artificiale dovrebbero impegnarsi a spiegare le loro tecnologie in termini accessibili ai decisori politici
e al pubblico in generale. Questo facilita decisioni più informate e politiche più adeguate;
– Creazione di ponti interdisciplinari: proprio come nel Progetto Manhattan, dove fisici, ingegneri e militari lavoravano insieme, lo sviluppo dell’Intelligenza Artificiale dovrebbe coinvolgere esperti di etica, scienze sociali, legge e altre discipline. Questo approccio olistico può aiutare a prevenire problemi etici e sociali prima che si manifestino;
– Normative e linee guida chiare: è cruciale stabilire norme chiare e linee guida etiche per lo sviluppo e l’uso dell’Intelligenza Artificiale. Queste normative dovrebbero essere sviluppate con il contributo di esperti tecnici, etici e legali per garantire che siano sia praticabili che giuste;
– Valutazione degli impatti: similmente alla valutazione degli impatti ambientali, potrebbe essere utile implementare valutazioni degli impatti sociali ed etici per nuove tecnologie AI. Questo processo potrebbe aiutare a identificare e mitigare eventuali danni prima che le tecnologie vengano ampiamente adottate; – Partecipazione pubblica: è vitale assicurarsi che ci sia un’ampia partecipazione pubblica nei dibattiti su come l’Intelligenza Artificiale dovrebbe essere sviluppata e utilizzata. Questo può aiutare a garantire che le tecnologie riflettano i valori e le esigenze di tutta la società, non solo di una élite tecnologica o politica.
Attraverso queste strategie, speriamo di gestire lo sviluppo dell’Intelligenza Artificiale in un modo che massimizzi i benefici mentre minimizza i rischi e le disparità.
Essere umano: Forse concorda che, insieme con le analogie, tra armi atomiche e Intelligenza Artificiale ci sono anche differenze importanti: non solo, ovviamente, nel contenuto scientifico e tecnologico, ma anche nella diffusione sociale dei prodotti di questo sviluppo. Vuole argomentare al riguardo?
Chatbot: Assolutamente. Le differenze tra lo sviluppo delle armi atomiche e quello dell’Intelligenza Artificiale sono tanto significative quanto le analogie. Ecco alcuni dei contrasti principali: – Accessibilità e diffusione: le armi atomiche sono tecnologie altamente regolate e controllate, con accesso limitato a pochi stati nazionali a causa della loro estrema pericolosità. Al contrario, l’Intelligenza Artificiale, in particolare quella generativa, è molto più accessibile e può essere sviluppata e distribuita da una varietà molto più ampia di attori, inclusi individui, aziende private e istituzioni accademiche. Questo rende il controllo e la regolamentazione molto più complessi; – Implicazioni immediate vs. a lungo termine: l’uso delle armi atomiche ha un impatto immediato, devastante e visibile. L’Intelligenza Artificiale, d’altra parte, influisce sulla società in modi più sottili e graduati, che possono accumularsi nel tempo. Gli effetti dell’AI possono includere cambiamenti nel mercato del lavoro, nella privacy, nella sicurezza dei dati e nella percezione dell’informazione, che si manifestano gradualmente e spesso in modi non immediatamente evidenti; – Duali utilizzi [sic]: mentre le armi nucleari sono intrinsecamente distruttive, l’Intelligenza Artificiale ha un vasto potenziale sia per usi beneficenti che pericoli [sic]. L’AI può rivoluzionare settori come la medicina, l’istruzione e la logistica, migliorando la vita di miliardi di persone. Tuttavia, presenta anche rischi significativi, come la sorveglianza invasiva, la manipolazione delle informazioni e l’impiego in sistemi d’arma autonomi; – Responsabilità e governance: dato il controllo centralizzato delle armi
nucleari, la responsabilità è più chiara e riconducibile ai governi. Nel caso dell’Intelligenza Artificiale, la diffusione più ampia e l’ampio spettro di applicazioni rendono la governance e l’assegnazione di responsabilità molto più complicate. È necessaria una collaborazione internazionale più articolata e un coinvolgimento multidisciplinare per gestire i rischi associati all’AI; – Dibattito etico e pubblico: il dibattito sulle armi atomiche è spesso confinato a questioni di sicurezza nazionale e non è sempre trasparente. L’Intelligenza Artificiale, tuttavia, entra in molti aspetti della vita quotidiana e solleva questioni etiche che interessano direttamente il pubblico, richiedendo un dibattito più aperto e inclusivo.
Queste differenze richiedono approcci diversi nella regolamentazione, nel dibattito pubblico e nella cooperazione internazionale. Ciò che rimane comune, tuttavia, è la necessità di un’etica rigorosa e di una riflessione profonda sulle implicazioni di lungo termine delle tecnologie che sviluppiamo.
Essere umano: Mi pare che il tema della responsabilità a cui lei ha accennato sia davvero cruciale: per concludere questa intervista, vuole chiarire ancora meglio? Chatbot: Certamente, la responsabilità è un tema centrale nella gestione di qualsiasi tecnologia potenzialmente rivoluzionaria e pericolosa, sia essa l’energia nucleare o l’Intelligenza Artificiale. In qualità di scienziato, credo fermamente che chiunque sia coinvolto nello sviluppo di tecnologie avanzate abbia il dovere etico di considerare attentamente e proattivamente le implicazioni del proprio lavoro. Questo implica diverse responsabilità chiave: – Responsabilità di anticipare: gli sviluppatori e i ricercatori devono cercare di anticipare le possibili conseguenze, sia positive che negative, del loro lavoro. Questo include valutare rischi non solo immediati ma anche a lungo termine e
considerare scenari anche pessimistici; – Responsabilità di informare: è essenziale che vi sia trasparenza. Gli sviluppatori di tecnologie influenti dovrebbero informare il pubblico, i legislatori e altri decisori riguardo i potenziali rischi e benefici delle loro innovazioni. Questo contribuisce a decisioni politiche più informate e a un dibattito pubblico più robusto; – Responsabilità di mitigare: gli sviluppatori devono attivamente lavorare per mitigare i rischi identificati, progettando salvaguardie e limitazioni nelle loro tecnologie. Questo potrebbe includere la creazione di sistemi di controllo etici o la limitazione dell’uso di tecnologie in contesti ad alto rischio; – Responsabilità di impegnarsi: impegnarsi con un ampio spettro di stakeholder, inclusi eticisti, scienziati di altri campi e il pubblico, è fondamentale. L’interdisciplinarità può aiutare a comprendere meglio le complessità e le sfaccettature delle tecnologie emergenti; – Responsabilità di regolamentare: i governi e le organizzazioni internazionali devono stabilire e mantenere quadri normativi che tengano il passo con il rapido sviluppo tecnologico. Gli sviluppatori e i ricercatori devono collaborare con queste entità per assicurare che le regolamentazioni siano sia efficaci che etiche.
In sintesi, la responsabilità nell’ambito dell’Intelligenza Artificiale, come in quello nucleare, non è soltanto un imperativo tecnico ma anche profondamente etico e sociale. Affrontare questi compiti con serietà è essenziale per garantire che le tecnologie che plasmano il nostro futuro lo facciano in modo che benefici l’umanità nel suo insieme, evitando danni irreparabili.
Essere umano: Grazie dottor Oppenheimer. Chatbot: È stato un piacere partecipare a questa conversazione. Grazie per le domande stimolanti.
Se potrebbe essere vantaggioso per un’azienda investire in ricerca e sviluppo per arrivare prima sul mercato con nuovi prodotti o servizi basati su agenti IA, dovremmo anche auspicare che chi ha un ruolo di governo della società introduca regole per limitare le condizioni di uso di questi sistemi e forse per evitare che si diffondano troppo rapidamente, per darci il tempo di prepararci? E, in un bilancio tra opportunità e rischi, quanto tutto ciò influirà sui processi di formazione, sul mondo del lavoro e sulla società nel suo complesso, in particolare nello svolgimento della vita democratica? Quanto gli agenti IA saranno nostri assistenti/aiutanti e quanto ci sostituiranno?
Da qualche mese si sente ripetere questa affermazione: “Non sarà un’Intelligenza Artificiale che ti porterà via il lavoro, ma una persona che sa usare l’Intelligenza Artificiale meglio di te”. Ma sarà poi davvero così? Siamo onesti e riconosciamo che non possiamo ancora avere idee ben fondate su tutto ciò, anche perché le cose continuano a cambiare
(per esempio, se l’accesso a sistemi di Intelligenza Artificiale gestiti da aziende potrebbe essere regolato da leggi, come comportarci con i sistemi “aperti”, sempre più diffusi, che chiunque, a meno di disporre di hardware abbastanza potente, può addestrare e usare?).
In questa situazione di incertezza, un punto rimane fermo: la nostra società è fondata, tra l’altro, su un principio di responsabilità individuale. Pur con eccezioni, come nei casi di incapacità “di intendere e volere”, ognuno deve rispondere delle sue azioni di fronte alla collettività. Sappiamo come applicare questo principio di accountability a esseri umani, ma, almeno per ora, non abbiamo le basi culturali, prima ancora che giuridiche, per applicarlo a entità artificiali. Se anche ci circonderemo di agenti IA capaci di formulare strategie e identificare obiettivi in modo autonomo, la responsabilità dei risultati che si otterranno sarà di esseri umani, che siano gli sviluppatori del software degli agenti o i loro addestratori
oppure i loro utilizzatori (la questione potrebbe essere essa stessa tutt’altro che semplice. Si pensi al caso di incidenti causati da automobili a guida autonoma: chi dovrebbe essere sanzionato?). Forse un effetto inatteso della rivoluzione tecnologica che stiamo vivendo sarà che riscopriremo il valore e l’importanza della responsabilità che tutti noi, esseri umani, abbiamo di fronte alla società.
È vero che l’accesso a sistemi di Intelligenza
Artificiale gestiti da aziende potrebbe essere regolato da leggi. Ma come comportarsi con i sistemi “aperti”, sempre più diffusi, che chiunque può addestrare e usare?
Professore e ricercatore Scuola di Ingegneria Industriale LIUC – Università Cattaneo
Immagini create con Midjourney
I chatbot possano essere responsabili delle informazioni che producono e delle azioni che compiono? Se la risposta è affermativa, in che senso potrebbero esserlo? Si tratta di una questione altamente delicata, ma una certezza c’è: insegnare a ChatGPT e simili a distinguere tra il bene e il male non basterebbe a renderli moralmente responsabili. Il ruolo degli esseri umani rimarrà, in questo, insostituibile
Revisione ed estensione di un articolo pubblicato sul numero di dicembre 2023 di Varesefocus
Poiché “da un grande potere derivano grandi responsabilità”, la domanda da cui partire è: cosa sappiamo o possiamo plausibilmente sapere, dei limiti dei sistemi di Intelligenza Artificiale Generativa? Anche dal confronto con le capacità degli esseri umani, almeno tre limiti degli attuali sistemi di GenAI sono evidenti: non sono connessi direttamente al mondo empirico, non disponendo di propri sensori, come telecamere, microfoni e attuatori, come motori; operano passivamente, reagendo alle richieste che ricevono, ma non attivandosi autonomamente; non imparano dalle conversazioni che fanno, perché la loro memoria a breve termine, che mantiene il contenuto di ogni
(DIALOGO GENERATO CON GPT-4 DI OPENAI)
Essere umano: Sto cercando di capire meglio se e in che senso un agente artificiale come un chatbot potrebbe avere una responsabilità morale nei confronti della società umana. Ti dichiaro che dubito che questo sia possibile, ma vorrei una tua opinione al proposito. Chatbot: La questione della responsabilità morale di un agente artificiale come un chatbot è complessa e stimolante. Innanzitutto, è importante distinguere tra la responsabilità morale di un essere umano e quella di un’intelligenza artificiale (IA). La responsabilità morale tradizionalmente presuppone la capacità di fare scelte consapevoli, di comprendere le conseguenze delle proprie azioni e di agire in base a principi etici o morali. Gli agenti artificiali, come i chatbot, operano sulla base di algoritmi e dati forniti loro dagli sviluppatori. Essi non possiedono coscienza, autocoscienza, né emozioni reali; agiscono secondo i modelli di apprendimento e le direttive pre-programmate. Di conseguenza, non si possono considerare moralmente responsabili nel senso tradizionale, poiché non hanno la capacità di intendere e di volere che è tipica degli esseri umani.
Tuttavia, è possibile considerare una forma di “responsabilità” in un senso più
conversazione, non viene utilizzata per proseguire l’addestramento della rete neurale, il corrispondente del loro cervello. Con complessità tecnologiche e implicazioni sociali ed etiche diverse, nessuno di questi tre limiti è però intrinseco. Possiamo infatti immaginarci che prima o poi saranno disponibili sistemi di GenAI che si comportino come unità di elaborazione di robot che operano nel
ampio e indiretto. Ad esempio:
– Responsabilità degli sviluppatori e dei gestori: Gli umani che progettano, sviluppano, implementano e gestiscono chatbot possono essere considerati responsabili per le azioni dei loro sistemi. In questo senso, è fondamentale che essi incorporino principi etici nella creazione e gestione degli agenti IA, assicurando che i chatbot agiscano in modo etico e sicuro.
– Impatto sociale e etico: I chatbot, e più in generale le IA, possono avere un impatto significativo sulla società. Ad esempio, possono influenzare l’opinione pubblica, modificare dinamiche lavorative, e così via. È importante che coloro che li impiegano considerino questi effetti e agiscano in modo da promuovere il benessere collettivo e prevenire danni.
– Regolamentazioni e normative: Potrebbe essere necessario che enti governativi o internazionali sviluppino regolamenti specifici per l’uso etico delle IA. Tali regolamenti potrebbero stabilire standard e aspettative per il comportamento etico dei sistemi di IA, contribuendo a definire la responsabilità legale e etica in questo contesto. In sintesi, anche se un chatbot in sé non può essere considerato moralmente responsabile, vi è una catena di
mondo empirico in modo più o meno autonomo e più o meno capaci di apprendimento continuo.
Potendo apprendere in modo continuo dall’esperienza, potranno sviluppare progressivamente una propria personalità e un qualche genere di autonomia. E, sì, non stiamo parlando di cuccioli di esseri umani che crescono e crescendo acquisiscono progressivamente libero arbitrio e
responsabilità umana che circonda il suo sviluppo e impiego. In questo quadro, gli umani coinvolti hanno la responsabilità di garantire che l’uso dei chatbot sia etico e moralmente giustificabile.
Essere umano: La tua risposta riporta la questione alla responsabilità di esseri umani che sviluppano oppure operano con agenti artificiali, mentre io vorrei focalizzarmi qui sulla possibilità che un qualche genere di responsabilità sia attribuita agli agenti artificiali stessi. Chatbot: Capisco il tuo interesse nel considerare se sia possibile attribuire una forma di responsabilità direttamente agli agenti artificiali. Per affrontare questo punto, possiamo esplorare il concetto di responsabilità in un modo leggermente diverso, adattando le nostre definizioni tradizionali di responsabilità morale per considerare le capacità e le limitazioni degli agenti artificiali.
– Responsabilità operativa: Si potrebbe pensare di attribuire agli agenti artificiali una forma di “responsabilità operativa”, dove sono “responsabili” per eseguire compiti specifici entro certi parametri operativi. Questo non implica una comprensione morale o etica, ma piuttosto un adempimento affidabile e prevedibile delle funzioni per cui sono stati programmati.
– Responsabilità imputata: Un’altra
responsabilità verso la società: la questione è evidentemente delicata. D’altra parte, già oggi un’entità come ChatGPT ha un comportamento che, pure nei suoi limiti, è spesso più assimilabile a quello di un essere umano che a quello dei sistemi software a cui siamo abituati e questo perché il comportamento dei sistemi di GenAI deriva da addestramento e non da programmazione.
prospettiva potrebbe essere quella di considerare la “responsabilità imputata” in contesti dove le azioni dell’agente artificiale sono legate strettamente alle intenzioni dei suoi programmatori o utilizzatori. Questo tipo di responsabilità non deriva dalla capacità di decisione autonoma dell’agente, ma dalla maniera in cui le sue azioni sono predefinite e orientate dagli umani che lo controllano.
– Autonomia decisionale: Man mano che gli agenti artificiali diventano più avanzati, con sistemi di apprendimento profondo e capacità decisionali autonome in scenari complessi, la questione della responsabilità diventa più intricata. In alcuni casi, questi sistemi potrebbero prendere decisioni in modi che non erano completamente prevedibili dai loro creatori. Qui, la discussione si sposta verso l’importanza di sviluppare sistemi che possano spiegare le loro decisioni in termini comprensibili agli umani, una sorta di “responsabilità esplicativa”.
– Evoluzione dei concetti legali ed etici: Alla fine, potrebbe essere necessario evolvere o estendere i nostri attuali concetti legali ed etici per includere forme di responsabilità che tengano conto delle capacità uniche e dei limiti degli agenti artificiali. Ciò potrebbe comportare la creazione di nuove categorie di responsabilità o la modifica delle leggi per gestire i casi in cui le azioni di un agente artificiale hanno impatti significativi, indipendentemente dall’intento umano diretto. In conclusione, sebbene un agente artificiale non possa possedere responsabilità morale nel senso
tradizionale umano, è possibile concepire nuove forme di responsabilità che riflettano le loro capacità e il loro ruolo nella società. Questo dibattito rimane aperto e in evoluzione, richiedendo contributi interdisciplinari da etica, filosofia, legge e tecnologia.
Essere umano: Mi proponi, brevemente, tre esempi da cui poter partire per un’analisi e una discussione sul tema specifico della possibilità di attribuire una responsabilità ad agenti artificiali?
Chatbot: Certamente, ecco tre esempi che possono fungere da punto di partenza per un’analisi e una discussione sul tema della responsabilità degli agenti artificiali:
– Sistemi di guida autonoma: I veicoli autonomi, come le auto senza conducente, prendono decisioni in tempo reale su navigazione e sicurezza stradale. Questi sistemi devono rispondere a situazioni impreviste e a volte complesse, come evitare incidenti. Esaminare come la responsabilità è distribuita tra il sistema autonomo, i suoi sviluppatori, i produttori dell’auto e gli altri utenti della strada potrebbe offrire spunti su come i sistemi di IA potrebbero essere trattati in termini di responsabilità legale e morale.
– Assistenti virtuali in ambito sanitario: Gli assistenti virtuali utilizzati in ambito sanitario possono aiutare nella diagnosi o nella gestione dei trattamenti, basandosi su algoritmi di intelligenza artificiale per elaborare dati medici. In caso di errori diagnostici o di trattamento che potrebbero causare danni ai pazienti, è fondamentale discutere la
responsabilità dell’agente artificiale in rapporto agli sviluppatori del software e ai professionisti sanitari che utilizzano questi strumenti.
– Algoritmi di decisione giudiziaria: Alcuni sistemi di IA sono utilizzati per assistere nelle decisioni giudiziarie, ad esempio nella determinazione della cauzione o nella sentenza. Questi algoritmi possono influenzare significativamente la vita delle persone basandosi sui dati di precedenti legali e profili di rischio. La questione della responsabilità emerge quando consideriamo gli effetti di una possibile discriminazione algoritmica o errori nei dati che possono portare a decisioni ingiuste.
Ogniuno [sic] di questi esempi solleva questioni significative sulla responsabilità degli agenti artificiali e sul loro impatto nelle decisioni critiche che possono avere effetti profondi su individui e società. Questi scenari possono servire come base per dibattiti, ricerche e riflessioni sulla responsabilità etica e legale degli agenti artificiali. Essere umano: Grazie per questa conversazione.
Chatbot: Di nulla! Sono contento di aver potuto aiutarti con la tua riflessione. Se avrai altre domande in futuro, non esitare a chiedere. Buona giornata!
Per saperne di più
Due altri limiti dei sistemi di GenAI mettono ben in evidenza l’importanza di questa loro caratteristica: non sono sempre affidabili nella correttezza dell’informazione che producono e il loro comportamento è assai difficilmente spiegabile in termini di singole cause specifiche.
Ciò inverte il paradigma dei sistemi software tradizionali, in cui ogni comportamento è riconducibile
all’esecuzione di istruzioni che un programmatore aveva scritto e ogni malfunzionamento può essere corretto, modificando le istruzioni che lo causano. Poiché i sistemi di GenAI producono informazione in accordo a quanto hanno appreso, gli errori che producono non sono il risultato di bug, ma sono più simili a “opinioni sbagliate”, formate a causa di un addestramento basato su fonti di informazione, per l’appunto, non corrette.
Con tutto ciò, la questione della responsabilità individuale di tali “oggetti che diventano progressivamente soggetti” è perciò critica. Se possiamo immaginare uno scenario con sistemi di GenAI sempre più autonomi nel loro comportamento, che dire della loro responsabilità di fronte alla società umana? Dato
che il concetto di responsabilità non è così ovvio, cerchiamo di chiarire la questione con un esempio. Supponiamo di essere di fronte a un edificio danneggiato da un terremoto e di chiederci: “Chi o che cosa è responsabile di questi danni?” Ci sono almeno tre risposte possibili: è responsabile il terremoto, se è stato effettivamente il terremoto a causare i danni. In questo caso, si tratta di una responsabilità che possiamo chiamare causale; è responsabile il sismologo, se il sismologo non ha previsto correttamente il grado di sismicità della zona in cui l’edificio è stato costruito. Si tratta di una responsabilità che possiamo chiamare cognitiva; è
responsabile l’architetto, se l’architetto non ha costruito l’edificio in accordo ai criteri antisismici richiesti. Siamo di fronte ad una responsabilità che possiamo chiamare morale.
Chiediamoci ora se un sistema di GenAI, e più in generale un agente artificiale, potrebbe avere una responsabilità causale, cognitiva o morale, magari in riferimento ad un esempio più rilevante, come quello delle automobili a guida autonoma, tra l’altro ampiamente studiato proprio nella prospettiva della responsabilità, in particolare dal Massachusetts Institute of Technology. Potrebbe avere perciò una responsabilità causale? Sì, se lo rendessimo capace di
implementare le decisioni che prende: la causa di un incidente potrebbe essere, infatti, il sistema di controllo di un’automobile a guida autonoma, un cui difetto ha causato l’incidente. Una responsabilità cognitiva? Sì, se lo rendessimo capace di acquisire informazione sul contesto specifico: la causa di un incidente potrebbe essere, infatti, il sistema di acquisizione dati dell’automobile, che non ha rilevato correttamente lo stato del sistema in cui l’automobile si trovava. Ma anche una responsabilità morale? Certo, potremmo addestrare il sistema a distinguere il bene dal male secondo criteri più o meno condivisi (questione certamente complessa, anche perché
in contesti culturali diversi si possono avere idee diverse su cosa siano bene e male) e a operare di conseguenza, ma questo non sarebbe ancora sufficiente per attribuire sensatamente una responsabilità morale ad un agente artificiale.
Benché nella responsabilità ci sia anche una dimensione positiva, come essere responsabile di una buona azione, gli esempi che abbiamo accennato enfatizzano la dimensione negativa ed è a questa seconda che proponiamo di prestare attenzione. Nella nostra società abbiamo operazionalizzato la dimensione negativa della responsabilità, chiamiamola “colpevolezza”, che va
di pari passo con sanzioni che ci sottraggono denaro, nel caso delle multe oppure tempo e qualità della vita, nel caso del carcere. Queste sono generalmente efficaci perché generano in noi il timore di essere privati di risorse scarse, denaro o tempo che siano. Ci dovremmo, dunque, aspettare che i sistemi di GenAI possano temere di essere privati di qualche risorsa che per loro è scarsa? D’accordo, possiamo forse “staccare loro la spina” (con i sistemi software in cloud non è così ovvio, per altro), come accade nel film “2001: Odissea nello Spazio” a HAL 9000, che implora di non “essere spento”.
Ma siamo così sicuri che questa sia, o sarà, una situazione realistica? Al contrario, è plausibile che un agente artificiale non tema nemmeno la propria fine, per la semplice ragione che non è un’entità vivente e quindi non può morire. In più, il fatto che
almeno per ora i sistemi di GenAI non imparino dall’esperienza, non mette in gioco nemmeno la dimensione rieducativa, per cui si comminano le sanzioni allo scopo di migliorare i comportamenti futuri.
Ecco, dunque, la tesi che proponiamo: agenti artificiali, capaci di formulare strategie e di identificare e attuare obiettivi in modo autonomo, potranno diventare entità sempre più diffuse e importanti nella nostra società, ma la responsabilità morale dei risultati che produrranno rimarrà degli esseri umani. E questo perché la nostra è, propriamente, una società umana e dunque fondata sulle nostre caratteristiche di esseri umani, prima di tutte la consapevolezza che le risorse di cui disponiamo non sono infinite. Come possiamo prepararci a vivere questo nuovo scenario? Di fronte a noi abbiamo tanto da imparare.
Luca Mari e Francesco Bertolotti
Professore e ricercatore Scuola di Ingegneria Industriale LIUC – Università Cattaneo
Immagini create con Midjourney
Dalla fine di novembre 2022, quando OpenAI ha reso liberamente accessibile il suo sistema di chatbot, l’Intelligenza Artificiale Generativa è stata protagonista di evoluzioni politiche e sociali inaspettate con lettere aperte di intellettuali, un Executive Order del Presidente degli Stati Uniti e una legge europea ormai quasi definitivamente approvata. Il punto della situazione ad oggi
Revisione ed estensione di un articolo pubblicato sul numero di febbraio 2024 di Varesefocus
Uno sguardo retrospettivo a quello che è accaduto da quando, il 30 novembre 2022, OpenAI ha reso pubblicamente e liberamente accessibile ChatGPT, ci aiuta a trovare gli elementi che più hanno determinato e stanno tuttora determinando lo sviluppo impetuoso dei sistemi di Intelligenza Artificiale Generativa, che ormai chiamiamo “GenAI” e in particolare della nuova generazione di chatbot.
Anche se l’Intelligenza Artificiale è tra noi da varie decine di anni, quello che è successo negli ultimi dodici mesi ha prodotto un’importante discontinuità, come mostra prima di tutto la dimensione geopolitica che il fenomeno ha assunto. Già nel passato l’Intelligenza Artificiale era, come si dice, assurta agli onori della cronaca, come quando, nel 1997, l’allora campione mondiale (umano) del gioco degli scacchi Garry
Kasparov fu sconfitto da Deep Blue. E qualche volta era diventata oggetto di riflessione pubblica, come quando Ray Kurzweil e Nick Bostrom avevano scritto di singolarità tecnologica (2005) e di superintelligenza (2014), rispettivamente. Ma difficilmente si sarebbe potuto prevedere che nell’arco di pochi mesi a proposito di Intelligenza Artificiale avremmo letto varie lettere aperte di noti intellettuali, un Executive Order del Presidente degli Stati Uniti e una legge europea, l’AI Act, quasi definitivamente approvata. Si tratta di eventi tutti accaduti nel 2023 e che rendono sempre più plausibile la posizione che sia in corso una inattesa rivoluzione culturale in cui, per la prima volta nella storia, dei sistemi artificiali manifestano capacità che finora pensavamo proprie solo degli esseri umani. In questa prospettiva, i mesi appena trascorsi ci hanno messo di fronte ad uno scenario in sistematico cambiamento, di cui proponiamo qui
un’interpretazione, consapevoli dei limiti di un’osservazione “dall’interno”, compiuta mentre le cose succedono.
Fino a poco più di un anno fa il termine “GenAI” era sconosciuto ai non addetti ai lavori e i chatbot erano sistemi estremamente primitivi. La diffusione di ChatGPT ci ha guidato nella progressiva scoperta di sistemi artificiali in grado di dialogare, con proprietà di linguaggio e apparente comprensione di contenuti anche assai complessi. D’altra parte, un anno fa ChatGPT era così specificamente orientato al trattamento di espressioni in lingue naturali, come l’italiano e l’inglese (il termine inglese è Natural Language Processing, NLP), che chiunque abbia fatto qualche prova si ricorda degli errori imbarazzanti che compiva, per esempio, nel fare anche semplici operazioni aritmetiche. Da allora, plausibilmente anche per via della concorrenza che gli hanno fatto Bard e ora Gemini, Claude e altri che si sono aggiunti, ChatGPT è stato addestrato a sbagliare meno.
Si è trattato certo di un opportuno cambiamento, ma solo incrementale, come incrementale è stato l’aggiornamento delle informazioni a cui ChatGPT è stato sottoposto nel suo addestramento: mentre un anno fa era fermo all’autunno 2021, oggi è aggiornato alla primavera 2023.
Ma nel frattempo intorno ai cosiddetti Large Language Model (LLM), che sono in pratica i “motori” dei chatbot, sono successe almeno altre due cose rilevanti. Prima di tutto, a partire dall’esperienza della comunità di sviluppatori Hugging Face e su impulso in particolare di Meta, già dalla primavera del 2023 sono stati resi disponibili degli LLM di cui sia il codice sorgente (cioè la “struttura vuota del cervello”) sia la matrice dei valori dei parametri (cioè l’“immagine del cervello una volta compiuto l’addestramento”) sono utilizzabili da chiunque gratuitamente e, con qualche accorgimento, anche su un proprio computer. Per avere un’idea di quello che sta succedendo, si potrebbe dare
anche solo un’occhiata alla pagina web di Hugging Face, da cui è possibile scaricare sia modelli sia insiemi di dati per l’addestramento: nel momento in cui stiamo scrivendo (primavera 2024), ci sono più di 600mila modelli e più di 150mila dataset!
Se GPT-4, il “motore” della versione a pagamento di ChatGPT, è plausibilmente tuttora l’LLM più sofisticato, il fatto che siano disponibili sistemi “aperti”, sta consentendo a organizzazioni e singoli individui di sperimentare nuove e sempre migliori tecniche di addestramento. Il risultato è che la capacità di elaborazione linguistica di ChatGPT è sempre meno distinguibile da quella di questi altri chatbot, nonostante il numero dei parametri di questi ultimi sia molto minore di quello (presunto: il numero effettivo non è stato ancora pubblicato) di GPT-4. Tutto ciò rappresenta un nuovo motivo di incertezza: se il dominio di pochi sistemi proprietari fa temere che anche a proposito di GenAI si riproduca una condizione di
dipendenza globale da alcune grandi aziende statunitensi, la diffusione di sistemi aperti può prospettare situazioni di anarchia nell’accesso ai sistemi intelligenti, di cui potrebbero servirsi, dunque, anche soggetti malevoli.
In ogni caso, e questo è il secondo punto che sottolineiamo, la progressiva erosione del vantaggio competitivo dei sistemi proprietari rispetto a quelli aperti è plausibilmente una delle ragioni che sta spingendo gli sviluppatori dei primi, come OpenAI/ Microsoft e Google, a ripensare al ruolo degli LLM, oltre la funzione di chatbot. Nella fluidità della situazione, si stanno forse delineando due direzioni complementari di sviluppo.
Da una parte, gli LLM diventano abilitatori di nuove funzionalità per applicazioni esistenti, come è ben esemplificato da GitHub Copilot, uno strumento che si integra in ambienti di sviluppo di software e genera codice, suggerisce miglioramenti sul programma che si sta scrivendo, aiuta a capire come risolvere bug e così via. In questa linea, si stanno sperimentando nuove funzionalità, in modo che, per esempio, si possa chiedere a un programma di videoscrittura come migliorare un testo mentre lo sta scrivendo o si possa chiedere a un programma di fogli di calcolo quale funzione usare per risolvere un certo problema. D’altra parte, i chatbot diventano interfacce
per interagire con risorse locali e online in linguaggio naturale, dotando gli LLM di plugin (nel contesto dei sistemi operativi li si potrebbe considerare dei driver) o creando delle verticalizzazioni applicative di chatbot, come OpenAI ha reso possibile con i “custom GPT”.
Si potrebbe così, per esempio, specializzare il comportamento di un chatbot, in modo che sappia dialogare in modo competente sul contenuto di un proprio insieme di documenti. Se non è semplice tirare le fila di quello che è successo in questi mesi a proposito di GenAI, lo è ancora di meno prevedere cosa accadrà nei prossimi mesi e anni: prima di tutto, come si svilupperà il contesto
“INNOVAZIONE
(DIALOGO GENERATO CON GPT-4 DI OPENAI)
Essere umano: Vorrei che tu inventassi la trama di un racconto in cui un imprenditore sempre alla ricerca di opportunità per migliorare la sua azienda scopre l’esistenza dei sistemi di intelligenza artificiale generativa e si chiede se e nel caso come usarli per il suo scopo. L’imprenditore sa bene che, con le loro competenze, i suoi collaboratori costituiscono un patrimonio prezioso dell’azienda. Il racconto dovrebbe svilupparsi intorno ai dilemmi dell’imprenditore: come introdurre i sistemi di GenAI senza danneggiare le persone che hanno contribuito alla crescita dell’azienda?
Chatbot: Titolo: Innovazione con Coscienza
Trama: Marco Bianchi è il CEO di InnovaTech, un’azienda italiana specializzata nella produzione di componenti elettronici avanzati. Notoriamente visionario e sempre attento alle ultime tendenze tecnologiche,
Marco scopre il potenziale dei sistemi di intelligenza artificiale generativa (GenAI) attraverso un articolo su una rivista di settore. Queste tecnologie promettono di rivoluzionare il processo creativo e produttivo, permettendo alle aziende di progettare e testare prototipi virtuali con una velocità e precisione senza precedenti.
Incuriosito, Marco si chiede se e come implementare la GenAI in InnovaTech, ma è consapevole che il successo della sua azienda si deve anche ai suoi dipendenti, un gruppo affiatato di ingegneri e tecnici altamente qualificati. La possibilità che la GenAI possa sostituirli o ridimensionare il loro ruolo lo mette in uno stato di riflessione profonda.
Con l’obiettivo di prendere una decisione informata, Marco organizza un workshop con i suoi dirigenti e alcuni esperti di intelligenza artificiale per esplorare i pro e i contro dell’adozione della GenAI. Durante il workshop emergono diverse opinioni:
alcuni vedono la GenAI come una minaccia per i posti di lavoro, mentre altri ne sottolineano le potenzialità per amplificare le capacità umane anziché sostituirle. Deciso a trovare una soluzione etica, Marco avvia un progetto pilota in cui la GenAI viene usata per assistere i team nella fase di brainstorming e nella risoluzione di problemi complessi, piuttosto che sostituirli nei processi creativi. Viene anche istituito un programma di formazione continua per i dipendenti, volto a farli lavorare a fianco della nuova tecnologia e a sviluppare nuove competenze. Col passare dei mesi, il progetto pilota mostra risultati promettenti. La GenAI si rivela uno strumento prezioso per accelerare la ricerca e lo sviluppo, e i dipendenti di InnovaTech trovano nuove modalità di lavoro che valorizzano ulteriormente la loro esperienza e creatività. La collaborazione uomomacchina porta a innovazioni che
tecnologico e di mercato, se verso sistemi proprietari o sistemi aperti e se le capacità di elaborazione degli LLM continueranno a migliorare e a
essere perciò oggetto di competizione o se al contrario gli LLM diventeranno talmente consolidati e infrastrutturali da essere integrati come moduli dei
sistemi operativi. Una cosa facilmente prevedibile è invece che queste tecnologie saranno presenti sempre più diffusamente nella nostra società.
nessuno dei due avrebbe potuto realizzare da solo.
Al termine del racconto, durante l’annuale meeting aziendale, Marco presenta i successi del progetto pilota. Rivela come l’integrazione della GenAI abbia non solo migliorato la produttività, ma anche arricchito il lavoro dei suoi collaboratori, dimostrando che l’innovazione tecnologica può andare di pari passo con il rispetto e la valorizzazione delle persone.
Il racconto si conclude con Marco che riflette sul valore di un approccio bilanciato all’innovazione, consapevole che la vera forza di un’azienda risiede nella sua capacità di unire le potenzialità umane e tecnologiche in modo etico e sostenibile.
Essere umano: Interessante... Mi scrivi il testo della pagina finale, con la riflessione di Marco?
Chatbot: Certo, ecco il testo della pagina finale del racconto, dove Marco riflette sul percorso intrapreso e sulle implicazioni future:
La sala conferenze di InnovaTech era pervasa da un’atmosfera di attesa mista a soddisfazione. Marco Bianchi, al centro della scena, chiuse la sua presentazione annuale con uno sguardo che andava
oltre i numeri e i grafici proiettati alle sue spalle. Si prese un momento per osservare i volti dei suoi collaboratori, riflettendo su quanto fossero cambiati nel corso dell’ultimo anno.
“Quando abbiamo introdotto la GenAI in azienda”, iniziò Marco, la voce calma ma carica di emozione, “il mio più grande timore era che potesse alienare il nostro più prezioso patrimonio: voi, le persone che hanno reso grande InnovaTech. Oggi, sono orgoglioso di constatare che non solo quel timore non si è materializzato, ma siamo riusciti a trasformare una potenziale minaccia in una straordinaria opportunità.”
Fece una breve pausa, cercando di leggere le reazioni nella sala. “La GenAI non è diventata uno strumento di sostituzione, ma di amplificazione. Ci ha permesso di accelerare i processi, sì, ma soprattutto di esplorare nuove idee, di testare soluzioni che prima avremmo scartato per il troppo tempo necessario per valutarle. Ha reso il nostro lavoro più ricco e, oserei dire, più umano.”
“Questo successo non è frutto della tecnologia in sé”, continuò, “ma del modo in cui abbiamo scelto di utilizzarla. Abbiamo integrato la GenAI nel nostro flusso di lavoro con rispetto e cautela,
assicurandoci che ogni passo avanti fosse anche un passo verso di voi, verso la valorizzazione delle vostre competenze e la vostra crescita personale.”
Marco concluse, il tono ora più riflessivo: “L’innovazione tecnologica è una marcia inarrestabile, ma la direzione che prende dipende dalle scelte che facciamo. Oggi possiamo dire di aver scelto di fare di InnovaTech un luogo dove tecnologia e umanità non solo coesistono, ma prosperano insieme. E questo è solo l’inizio.”
Mentre gli applausi riempivano la sala, Marco sapeva di avere davanti ancora molte sfide, ma la certezza che stava guidando la sua azienda verso un futuro in cui tecnologia e umanità si rafforzavano a vicenda lo rendeva fiducioso e determinato a continuare su quella strada.
La scorciatoia
Il Mulino, 2023
“Come le macchine sono diventate intelligenti senza pensare in modo umano”: sottotitolo che dice già tutto. Per un’introduzione alle vicende storiche legate al mondo dell’Intelligenza Artificiale suggeriamo di leggere questo volume che cerca di spiegare come l’umanità sia arrivata a convivere con macchine intelligenti in grado di fare moltissime cose, tranne di essere capite dagli stessi esseri umani che le hanno create. Questo libro indica il percorso che ci aspetta prima di poterci fidare di questi nuovi agenti “alieni”, con una domanda precisa in mente: come incorporarli nella nostra società senza rischi ed effetti collaterali?
mulino.it
Chiara MazzettiLuca Mari
L’Intelligenza Artificiale di Dostoevskij
Il Sole 24 Ore, 2024
Luca Mari, docente della LIUC – Università Cattaneo di Castellanza (autore di questo speciale), ci guida in una riflessione culturale ed etica, con un volume agile e divulgativo scritto per riflettere su come l’Intelligenza Artificiale stia cambiando il modo di percepire la realtà.
Il libro esplora le possibilità di un futuro in cui saremo in grado di dialogare con entità come ChatGPT e guida in una considerazione, che non richiede competenze digitali, ma lascia intuire la meraviglia di terre poco esplorate a confine tra cultura tecnicoscientifica e umanistica, che si potranno abitare solo se si saprà decidere del futuro con saggezza.
ilsole24ore.com
Nick Bostrom Superintelligenza. Tendenze, pericoli, strategie
Bollati Boringhieri, 2018
“L’Intelligenza Artificiale è una delle più grandi promesse dell’umanità (...). E tuttavia c’è una nube minacciosa sopra il cielo dell’IA”. Queste le parole che si leggono sulla quarta di copertina del libro di Nick Bostrom, che con la sua pubblicazione ha lanciato un allarme che ha avuto un’eco vastissima in tutto il mondo, chiedendosi se saremo, come genere umano, in grado di governare senza problemi una macchina “superintelligente” dopo averla costruita. A detta di Bostrom la risposta a questa domanda è negativa e bisogna, perciò, occuparsene già da ora.
bollatiboringhieri.it