Forward. Numero 30 - 2023 ChatGPT

Page 27

ChatGPT

Quando un nuovo fenomeno ci travolge emergono nuove energie e competenze. La forza di una generazione che sa rimboccarsi le maniche: non è questa la nuova intelligenza?

www.forward.recentiprogressi.it
Scientifico Editore
Il Pensiero

In questo numero

6 Una crescita frenetica: LA TIMELINE

17 Non solo ChatGTP: L’ABC

Iniziamo col capire di cosa

4 Le macchine come attori sociali: DAVIDE BENNATO

12 Un’intelligenza da comprendere: MELANIE MITCHELL

Le macchine sono

14 Ai panic = Ai hype: DOUGLAS RUSHKOFF

15 Intelligenza arti ciale e salute globale: OMS

Ottimismo e cautela, entusi

27 Per le revisioni sistematiche: DAVIDE PETRI

29 Per lo sviluppo dei farmaci: JOANA MARTINS DE OLIVEIRA BOTELHO

ChatGPT a anco del med

35 Analfabeti del futuro: dal libro di JOAN FONTCUBERTA

36 La crisi di diversità: MARIA FREGA

Il segreto è una pausa

forward #30 — CHATGPT — 2 / 2023 2
30

stiamo parlando

26 Gutenberg e la modernità:

intelligenti?

22 Le posizioni degli editori scienti ci:

18 Investimenti, talenti e interessi: NUMERI E GRAFICI 30 Azzardi in pronto soccorso: JOSH TAMAYO-SARVER 32/33 In corsia e in epidemiologia: ALBERTO E. TOZZI, CATERINA RIZZO

Intelligenza arti ciale, innovazione e stupidità naturale?

Non riuscendo ad arginare la stupidità naturale l’uomo decise di investire nell’intelligenza arti ciale. Sembra un gioco di parole ma i termini spesso si confondono quando il progresso e l’innovazione bruciano così tante risorse da rischiare di trasformare fantastiche opportunità di sviluppo in catastro naturali. Per rendere esplicito questo concetto abbiamo deciso di associare l’analisi di un fenomeno, in parte già a rontato dal gruppo Forward come l’intelligenza arti ciale, con il reportage fotogra co di Claudio Colotti della recente inondazione in Emilia-Romagna.

Questa volta però siamo stati più speci ci e, tra le tante cose che stanno avvenendo in questo settore, ci siamo focalizzati sull’ormai popolare ChatGPT, seguendo il nostro tipico approccio. In queste pagine non leggerete solo di potenzialità fantasmagoriche e di bene ci per la medicina e la ricerca, ma anche di rischi potenziali e problemi irrisolti.

In sostanza, la classica lista di “points to consider” che, ormai da circa sette anni, il progetto Forward o re come servizio a chi vuole approfondire e documentarsi prima di esprimersi e prendere decisioni.

39 La parola ai lettori: LA SURVEY 40 La prima persona: SETH GODIN

asmi e paranoie ico e del ricercatore per pensare

3 www.forward.recentiprogressi.it — forward #30
LUCA DE FIORE
Ma tutte le volte che un nuovo fenomeno ci travolge emergono anche nuove energie e capacità o competenze sorprendenti. Per esempio, la forza di una generazione che sa rimboccarsi le maniche e farsi largo in mezzo a un’ondata di fango che altrimenti travolge tutto. Fosse questa la nuova intelligenza? AVI STAIMAN

Un nuovo attore sociale che non è UMANO né ARTIFICIALE

In questi ultimi mesi si parla e discute molto di ChatGPT e altri sistemi di intelligenza generativa che stanno diventando di uso comune. Ha fatto molto discutere la sospensione temporanea di ChatGPT in Italia da parte del garante della privacy. Alle ne OpenAI si è conformato alle richieste del garante. Come leggere questa sospensione?

I sistemi di intelligenza artificiale, di cui ChatGPT in questo ultimo periodo è solo la punta dell’iceberg, sono tecnologie che, per l’enorme quantità di dati su cui si sono allenate e per le informazioni che utilizzano per essere performanti, sono e diventeranno sempre più degli strumenti molto utili da diversi punti di vista. In primo luogo, in quanto tool che possono essere utilizzati nel percorso lavorativo o professionale, soprattutto per la capacità che hanno, per esempio ChatGPT, di manipolare grandissime quantità di dati testuali riuscendo a estrarre informazioni sempre più dettagliate. In secondo luogo, per l’utilità e l’interesse che simili tecnologie rivestono, ora come in futuro, per il fatto che saranno ingredienti di altre tecnologie e di altri servizi i quali permetteranno di sfruttare questo tipo di sistemi per fornire un’interfaccia più utile e fruibile agli utenti. Faccio un esempio tra i tanti: le app che servono ad intercettare i prezzi più vantaggiosi dei voli aerei. Queste app, per recuperare informazioni dettagliate, utilizzano anche strumenti come ChatGPT che quindi, in questo caso, è un ingrediente di un tool più complesso che permette di gestire il flusso di informazioni con cui elaborare la risposta al quesito.

Però, come spesso accade, componenti simili rappresentano sia un vantaggio sia un problema in quanto – come dichiarato da OpenAI, la società che ha sviluppato ChatGPT – i dati utilizzati per perfezionare queste tecnologie, soprattutto per quanto riguarda le tipologie testuali, sono presi dai social e da una lista molto limitata di fonti in rete a libero accesso come Wikipedia, siti open access e soprattutto conversazioni sui social. Fatto, questo, che potrebbe creare una situazione anomala nel momento in cui alcune informazioni, presu-

Il punto di vista del garante della privacy non è completamente compatibile con le capacità tecniche di queste tecnologie e di quelle in via di sperimentazione.

mibilmente sensibili e derivanti dalle conversazioni online liberamente accessibili dal punto di vista tecnologico – ma non legittimamente utilizzabili per il training di queste tecnologie – sarebbe stato necessario rimanessero fuori. Da questo è derivata la sospensione temporanea del servizio in Italia decisa dal garante della privacy.

Il problema è serio perché in realtà il punto di vista del garante della privacy non è completamente compatibile con le capacità tecniche di queste tecnologie e di quelle in via di sperimentazione. Pertanto, gli stakeholder – il garante della privacy (non solo italiano ma anche europeo) e OpenAI – dovranno sicuramente confrontarsi. Ora, qual è il modo migliore per salvaguardare, da un lato, la possibilità di sperimentare in maniera sempre più sofisticata questi strumenti con i testi che circolano in rete e, dall’altro, la riservatezza delle informazioni e dei testi, protetta dalla legge sulla privacy? L’approccio che hanno queste tecnologie verso le informazioni rappresenta un aspetto ancora da gestire perché del tutto nuovo: non sappiamo ad oggi in che modo informazioni sensibili potrebbero orientare le capacità di produzione di testi o di immagini di queste stesse tecnologie.

Con quale ruolo questo tipo di strumenti così empatici entreranno a fare parte della nostra vita quotidiana e della società?

Si arriverà al punto in cui, interagendo con essi, non sapremo se dall’altra parte c’è un essere umano o una macchina.

Nel momento in cui queste tecnologie cominceranno a entrare sistematicamente nell’utilizzo quotidiano, nella vita di tutti i giorni, nell’uso di alcune app specialistiche che gestiscono determinati flussi di informazione, esse saranno sempre meno tecnologie e sempre più “attori sociali”. Siamo abituati a pensare all’intelligenza artificiale come a un insieme di tecnologie che eseguono un determinato compito sulla base di una interlocuzione umana o di una richiesta specifica da parte di una persona o di un’altra tecnologia. Quello che però sta accadendo è che questi sistemi di intelligenza artificiale producono un tipo di risposta informativa, sulla base della specifica richiesta, grazie a una sorta di autonomia decisionale. Questo fa sì che siano sempre meno tecnologie statiche per diventare sempre più tecnologie interattive che, come tali, hanno la proprietà di essere soggetti sociali, ossia veri e propri agenti nello spazio digitale; spazio che però è anche sociale, e nel quale pertanto questi strumenti si comportano come veri e propri “attori sociali” (come lo sono le persone, i gruppi e le organizzazioni) che svolgono

forward #30 — CHATGPT — 2 / 2023 4
Davide Bennato Sociologo dei media digitali Università di Catania Intervista a

attività precise di cui noi umani non abbiamo il completo controllo.

Possiamo chiedere a ChatGPT di produrre un testo senza sapere però come lo ha prodotto, oppure possiamo fargli delle domande senza sapere fino in fondo i percorsi tecnologici che hanno portato a dare quelle risposte. Da ciò deriva che ci troviamo in una condizione contemporanea di società digitale piuttosto ibrida in cui agiscono in uno stesso spazio tecnologico agenti umani e non umani. In questo spazio ibrido – che potremmo chiamare socio-tecnico – diventa sempre più difficile considerare semplici strumenti questi agenti in grado di produrre autonomamente contenuti o immagini. Si arriverà al punto in cui interagendo con essi non sapremo se dall’altra parte c’è un essere umano o una macchina.

La nostra interazione con le intelligenze arti ciali potrebbe essere condizionata dalle caratteristiche che noi attribuiamo loro. Tornando all’empatia, non c’è il rischio di considerare queste tecnologie qualcosa di più o di diverso da quello che sono?

Nell’utilizzo di questi strumenti la domanda da porsi non è quanto essi siano intelligenti o quanto empatici, bensì fino a che punto noi siamo disposti a considerarli intelligenti e fino a che punto siamo disposti ad accettare l’idea che siano strumenti anche empatici. Quando noi interagiamo con un altro essere umano partiamo dal presupposto della continuità antropologica: per esempio che la persona che abbiamo davanti si comporti nei termini cui siamo stati abituati dalla nostra esperienza di persone che vivono in un certo contesto sociale. Abbiamo delle aspettative che però, nei confronti di queste tecnologie, non sono perfezionate. Da un lato, infatti, sono aspettative falsate dall’immaginario fantascientifico ad esse collegato, dall’altro derivano dal fatto che, non sapendo in realtà fino in fondo come queste tecnologie funzionino, saremmo addirittura disposti ad attribuire loro le caratteristiche dell’essere umano tra cui quella di comportarsi come esseri senzienti.

A mio avviso, se il piano si mantenesse su una dimensione di distacco, e se quindi considerassimo queste tecnologie, per quanto sofisticate, autonome e interattive, pur sempre delle tecnologie, potremmo entrare in un processo di collaborazione, interazione e cooperazione sia in termini professionali che quotidiani. Si pensi, per esempio, al supporto che tali strumenti possono dare a chiunque per lavoro debba analizzare grandi quantità di dati, come uno studioso o un medico. Quello che però va considerato è che deve sempre esserci una verifica umana della risposta tecnologica. Più che altro per la capacità che noi umani abbiamo di capire qual è il percorso di queste tecnologie, di considerarlo con i giusti parametri e di usare questo tipo di risposte criticamente, sapendo che: a. sono date da una macchina; b. questa macchina può avere dei bias o delle distorsioni; c. comunque ha

lavorato su dei dati e non è detto che questi dati non abbiano dei pattern nascosti che noi non conosciamo.

Un approccio critico di tipo costruttivo può essere utile per valorizzare l’ingresso di queste tecnologie, evitando di trasformarle in oracoli.

In un contesto quotidiano professionale, a mio parere, l’atteggiamento migliore da tenere verso queste tecnologie è – sì – quello di valorizzarne l’utilizzo e soprattutto l’enorme capacità e potenza che hanno nel manipolare i dati, con cui un essere umano ovviamente non può competere, ma consapevoli che questo tipo di informazioni può avere dei bias, come mantenere sempre vigile la capacità di giudicare le risposte date dalle macchine perché esiste il rischio concreto di una situazione di “black box”: io interloquisco con ChatGPT che a sua volta mi dà la risposta che io a mia volta prendo per buona così com’è. Questo non avrebbe senso, né dal punto di vista umano e sociale né dal punto di vista tecnologico. Un approccio critico di tipo costruttivo, invece, può essere utile per valorizzare l’ingresso di queste tecnologie nei percorsi professionali o in quelli legati alla vita quotidiana, evitando di trasformare questi strumenti in oracoli. Le intelligenze artificiali imitano gli esseri umani, esprimono delle strategie simili a quelle degli esseri umani, in alcuni casi potrebbero sembrare emotive; ricordiamoci però che restano delle tecnologie sofisticate in grado di manipolare i dati.

Ancora una questione: a pagamento o per tutti?

Se questi strumenti sono gli della ricerca pubblica allora devono essere disponibili in maniera pubblica.

La questione non è tanto se devono essere degli strumenti a pagamento o meno, quanto fino a che punto il loro sviluppo è frutto delle opportunità della ricerca pubblica. Perché se questi strumenti sono figli della ricerca pubblica allora devono essere disponibili in maniera pubblica. Essendo la ricerca accademica universitaria, soprattutto in Europa, una ricerca a libero accesso, se una società sviluppa dei sistemi di intelligenze artificiali sulla base di ricerche e studi fatti nel contesto accademico – quindi pubblico – quel libero accesso va valorizzato e considerato. Andrebbe, a mio avviso, prevista, per esempio, la possibilità di accedere a dei servizi gratuitamente, anche in società commerciali, e a pagamento nel caso di servizi più complessi che richiedono maggiori risorse (energia, database, ecc.), per il fatto che la società che gestisce quel servizio si fa carico dei costi. In altri termini dovrebbe essere garantito a tutti un servizio di base open access, e dovrebbe essere a pagamento un servizio più profilato e più dettagliato che comporti dei costi importanti da parte da chi lo commercializza. Altrimenti il rischio è quello di brevettare modelli o servizi nati grazie alla ricerca pubblica, sperimentati su dati pubblici, finanziati da società pubbliche che al momento cruciale diventano strumenti privati a pagamento. Non sarebbe eticamente legittimo, soprattutto nella misura in cui, come si diceva, queste tecnologie saranno sempre meno tecniche e sempre più sociali.

5 www.forward.recentiprogressi.it — forward #30

1950

Vengono creati i primi sistemi per valutare e produrre il linguaggio, in grado di produrre frasi che seguivano regole predeterminate, basate su una grammatica “formale”. I problemi maggiori erano legati all’ambiguità e complessità del linguaggio naturale.

1980

Grandi quantità di dati vengono usati per creare un linguaggio naturale più realistico e ricco di sfumature, grazie a modelli linguistici statistici, basati sulla teoria delle probabilità per determinare se una parola o una frase possano emergere in un particolare contesto.

2000

Si iniziano a studiare i modelli basati sulle reti neurali. Con l’aumento dei dati e della capacità di elaborazione, questi modelli sono diventati più potenti e oggi rappresentano il metodo standard per la modellazione linguistica.

La frenetica crescita di ChatGPT

Nemmeno un anno fa l’azienda statunitense OpenAI ha presentato un’intelligenza arti ciale diversa da tutte le altre: ChatGPT. Diversa perché in grado di creare conversazioni con gli utenti che imitano il linguaggio naturale. Diversa anche perché evolve velocemente, ma i continui aggiornamenti tengono in conto l’etica e la sicurezza delle persone che la usano?

forward #30 — CHATGPT — 2 / 2023 6

2015

“Il futuro è l’intelligenza arti ciale e questo non deve preoccuparci”: con questa premessa nasce OpenAI, azienda californiana non pro t, con lo scopo di sviluppare un’intelligenza arti ciale friendly, in modo che l’umanità possa trarne bene cio.

2018

Secondo una dettagliata inchiesta del sito Semafor, Elon Musk lamenta al co-fondatore e amministratore delegato di OpenAI, Sam Altman, che l’azienda non è al passo con Google, proponendosi quindi come soluzione per recuperare vantaggio. Altman e gli altri fondatori ri utano l’o erta di Musk.

2019

OpenAI rilascia GPT-2. Grazie alle straordinarie dimensioni del modello (con oltre 1 miliardo e mezzo di parametri) e alle capacità di generazione del linguaggio, attira un’attenzione mediatica straordinaria.

2020

OpenAI rilascia GPT-3. Con 175 miliardi di parametri, è il modello linguistico più grande e potente mai creato, segnando una svolta nel campo dell’elaborazione del linguaggio naturale.

2023

OpenAI lancia GPT-4: il modello garantisce un’accuratezza del 40 per cento superiore rispetto al precedente e accetta come input dall’utente anche immagini e video.

• Sam Altman, ceo di OpenAI, si dice “preoccupato che questi modelli possano essere utilizzati per contribuire alla disinformazione su larga scala”, a ermando che “potrebbero essere utilizzati per attacchi informatici”.

• Riguardo i potenziali pericoli delle intelligenze arti ciali, Carissa Véliz, professoressa di loso a ed etica all’Università di Oxford, scrive su Twitter:

2016

Pochi mesi dopo la fondazione, OpenAI rilascia una versione beta pubblica di OpenAI Gym, una piattaforma basata sul reinforcement learning, una tecnica di apprendimento automatico.

A ne anno, OpenAI rilascia Universe, un software che misura e allena l’intelligenza generale di una intelligenza arti ciale tramite giochi, siti web e altre applicazioni.

Elon Musk si dimette dal consiglio di amministrazione di OpenAI a causa, come annuncia pubblicamente, di con itti di interesse (con le intelligenze arti ciali in via di sviluppo di Tesla).

OpenAI rilascia il primo modello di linguaggio generative pre-trained transformer (gpt), un progresso sostanziale in quanto dispone di oltre 110 milioni di parametri e può produrre una risposta coerente e contestualmente rilevante a un particolare prompt.

Quattro anni dopo la fondazione della non pro t viene creata l’azienda – OpenAI LP – che avrà il compito di aumentare gli investimenti e permettere di raccogliere capitali, pur continuando a svolgere la sua missione.

2021

OpenAI lancia DALL·E, crasi tra Salvador Dalì e Wall-E. È una versione di GPT-3 addestrata per generare immagini da descrizioni testuali.

A luglio viene annunciata la partnership di OpenAI con Microsoft che assume un ruolo di primo piano nel supportare le iniziative di ricerca e sviluppo, sfruttando l’infrastruttura hardware e di cloud computing specializzata, oltre all’esperienza nell’apprendimento automatico.

2022

Nasce ChatGPT. Utilizzando la tecnologia di GPT-3, il bot può rispondere alle domande di follow-up, riconoscere i propri errori, comprendere centinaia di lingue. Le sue competenze dipendono dalla quantità/qualità dei dati forniti in fase di addestramento.

“Perché non collaborare con esperti di etica delle IA e con i legislatori prima di rendere disponibili questi modelli, in modo da dare alla società il tempo di creare le giuste protezioni?”.

In Italia il garante della privacy dispone una limitazione provvisoria a ChatGPT, sollevando questioni che riguardano l’aderenza al regolamento per la protezione dei dati personali in Italia e in Europa. Dopo circa un mese il servizio è stato riattivato.

• Il 14 giugno il Parlamento europeo approva l’Arti cial intelligence act, il primo regolamento al mondo sull’intelligenza arti ciale.

Viene rilasciata DALL’·E 2, capace di produrre immagini dalla risoluzione quattro volte superiore alla versione precedente. DALL-E 2 non è pubblica ma disponibile con iscrizione a una lista d’attesa.

Microsoft s da il dominio di Google nel campo dei motori di ricerca, integrando le funzionalità di intelligenza arti ciale in Bing.

7 www.forward.recentiprogressi.it — forward #30

End fossil crimes –attivismo e coscienza civile, il ruolo dei volontari nella Romagna alluvionata

Reportage di Claudio Colotti

“Forse l’Italia non merita questi ragazzi” sono le parole commosse di un anziano di fonte ad una squadra di giovani volontari che da ore sta liberando la sua abitazione invasa da un fango che a respirarlo dà la nausea, da solo non ce l’avrebbe mai fatta.

Sono le giovani volontarie e i volontari che da quando è scattata l’emergenza alluvione in Romagna passano intere giornate a spalare il fango contaminato a anco degli alluvionati. Hanno tutti tra i 20 e i 40 anni, posseggono una forte coscienza civile, molti vengono dai movimenti di sinistra e tutti hanno la ferma convinzione che alla base del cambiamento climatico ci sia l’industria del fossile. Le Brigate di solidarietà attiva fanno base al centro sociale Spartaco di Ravenna, qui coordinano gli interventi a sostegno di una popolazione altrimenti impossibilitata a liberare le abitazioni dai mobili andati distrutti e dall’acqua che non vuol sapere di de uire. Operano in sinergia alle volontarie e ai volontari di Greenpeace per non disperdere risorse ed essere il più e caci possibili nel riempire i grandi vuoti lasciati dalla Protezione civile e dalla macchina degli aiuti istituzionali. Per la popolazione sono diventati un irrinunciabile punto di riferimento. •

RAVENNA

8
RAVENNA RAVENNA COMUNE DI BAGNACAVALLO COMUNE DI CONSELICE
COMUNE DI CONSELICE COMUNE DI CONSELICE

Una nuova risorsa per il clima

Il cambiamento climatico è una delle più grandi s de dei nostri tempi e l'intelligenza arti ciale (Ia) può contribuire ad a rontarlo in termini di adattamento e mitigazione nei prossimi anni. L’Ia viene spesso impiegata per monitorare e analizzare i dati meteo-climatici e ambientali, e ci permette di migliorare le nostre conoscenze e rispondere in maniera più appropriata e tempestiva in situazioni emergenziali e di rischio. L’intelligenza arti ciale predittiva, ovvero l’analisi dei dati e l'apprendimento automatico per fare previsioni, viene impiegata per prevedere impatti futuri dei cambiamenti climatici considerando diversi scenari di adattamento e mitigazione delle emissioni di carbonio e gas serra. Tali modelli sono importanti per la promozione e implementazione di politiche e azioni per il clima.

Inoltre, sempre in ambito predittivo, strumenti e tecnologie di Ia possono supportare l’adattamento ai cambiamenti climatici e la gestione delle emergenze in termini di sistemi di allerta, strumenti innovativi di di usione delle informazioni e raccomandazioni per una migliore resilienza delle popolazioni. In ne, le tecnologie informatiche avanzate dotate di Ia, in continua evoluzione, possono essere utilizzate per de nire approcci, idee e soluzioni innovative per la sostenibilità ambientale. È però importante tener conto anche delle implicazioni etiche e garantire che la tecnologia sia utilizzata in modo equo, responsabile e trasparente.

Francesca de Donato Dipartimento di epidemiologia, Servizio sanitario regionale del Lazio, Asl Roma 1 COMUNE DI BONCELLINO COMUNE DI BONCELLINO

Un’intelligenza da comprendere

ChatGPT tra bene ci e rischi potenziali, tra a dabilità e problemi irrisolti

“De nite i vostri termini o non riusciremo mai a capirci l’un l’altro”. Per Melanie Mitchell, informatica, questo ammonimento del losofo Voltaire è una s da per chiunque parli di intelligenza arti ciale, perché il suo concetto centrale, cioè l’intelligenza, resta de nito in modo vago. L’intelligenza arti ciale, scrive Mitchell nel suo libro “L’intelligenza arti ciale. Una guida per essere pensanti”, eredita il problema di termini come “intelligenza”, “pensiero”, “coscienza” e “emozione” tutti stipati in una valigia come un’accozzaglia di signi cati disparati in contesti di erenti.

Ha senso parlare di intelligenza riferita alle macchine?

Nel corso della storia dell’intelligenza artificiale paragonare queste due forme di “intelligenza” ci ha aiutato a comprendere il significato di intelligenza e le sue diverse accezioni in contesti diversi. Ad esempio, un tempo si diceva: “Se un computer potesse giocare a scacchi al livello di un grande maestro, ciò richiederebbe un’intelligenza generale umana“. Poi abbiamo realizzato che una macchina può sì giocare al livello di un grande maestro, e addirittura superare il maestro, non per questo però possiamo affermare che sia “intelligente” come noi. Dunque, fare un confronto tra macchine e uomo può essere utile per definire con precisione e comprendere l’intelligenza generale umana. Ma allo stesso tempo può essere rischioso perché applichiamo erroneamente alle macchine quegli stessi termini che usiamo quando ci riferiamo ai processi cognitivi umani. Quando diciamo che “questa macchina è un sistema di apprendimento automatico” intendiamo che la macchina sta imparando allo stesso modo degli esseri umani? No, perché la parola “apprendimento” riferita alle macchine ha un significato completamente diverso dall’apprendimento degli esseri umani. Ecco perché paragonare queste due forme di intelligenza è utile e altrettanto azzardato senza una giusta distinzione tra le abilità umane e quelle dell’intelligenza artificiale.

Quanto sono “intelligenti” i sistemi di intelligenza arti ciale generativa di ultima generazione? Come possiamo valutarlo?

Come non abbiamo una definizione comune di intelligenza, è difficile dire quanto siano intelligenti le macchine. Anche misurare l’intelligenza umana è complesso: i test del QI sono basati su una sola scala e tentano di stimare una sola dimensione dell’intelligenza umana. Non sappiamo nemmeno misurare l’intelligenza degli animali perché non sappiamo come pensano o, fino in fondo, cosa li spinge a fare una determinata

azione; pertanto l’applicazione di test incentrati sull’uomo sarebbe fuorviante. Se non sappiamo misurare in modo rigoroso l’intelligenza degli esseri viventi animali, perché dovremmo riuscire a farlo con le macchine?

Possiamo affermare “questa macchina sembra molto intelligente perché sa rispondere alle mie domande” ma non è una valutazione scientifica. L’intera comunità scientifica che si occupa di intelligenza artificiale sta cercando di capire come valutare l’intelligenza di queste macchine. Il test di Turing era nato proprio con il criterio di valutare se una macchina o un algoritmo fosse intelligente: se fosse in grado di parlarci e di farci credere che stiamo parlando con un essere umano, allora dovremmo considerarla una macchina pensante e quindi intelligente. Negli anni il test di Turing è stato riformulato in quanto impreciso, facendo però sorgere nuovi problemi relativi alla definizione di “macchina intelligente”. La questione è che siamo precipitosi e crediamo di parlare con qualcosa di simile a un essere umano, che può capirci e pensare come noi, anche quando è molto chiaro che non è così. Diamo troppo credito alle macchine con cui conversiamo assegnando a esse troppa “intelligenza” e intelligenza umana.

Eppure le coinvolgiamo per svolgere parte del nostro lavoro e per la produzione di articoli e notizie per esempio. Non sono a dabili quindi?

Al momento i sistemi di intelligenza artificiale generativa non sono completamente

forward #30 — CHATGPT — 2 / 2023 12

affidabili: possono produrre delle risposte false o fuorvianti. Se provate a chiedere a ChatGPT di scrivere la vostra biografia o quella di un vostro parente o conoscente, vedrete che spesso aggiungerà delle informazioni che non sono veritiere. Proprio recentemente è stato pubblicato un articolo sull’uso di questi sistemi di intelligenza artificiale generativa nei motori di ricerca, in cui si chiedeva da quale sito web il sistema avesse tratto un dato o un’informazione. Il risultato è stato che spesso citavano come fonte un sito web sbagliato. Un altro aspetto da non sottovalutare è la produzione di fake media: testi, immagini, video e suoni che mostrano con estremo realismo eventi che non sono accaduti. Questi sistemi possono essere usati per creare disinformazione. Se chiedete a ChatGPT di scrivere qualcosa di falso, ad esempio di spiegare se la Terra è piatta, otterrete un testo che può essere diffuso a supporto delle teorie dei terrapiattisti. Altrettanto potrebbe verificarsi su temi controversi e dibattuti. Sono dell’idea che questi sistemi stiano già creando disinformazione e che sarà molto difficile distinguere i testi fake generati da gtp da quelli scritti da esseri umani.

I modelli di intelligenza arti ciale generativa sono adatti a un settore così complesso come quello medico e sanitario?

Potenzialmente lo sono ma se affiancati dall’uomo. Se siete un medico e avete un paziente che presenta determinati sintomi, potreste chiedere a ChatGPT quali malattie potrebbero essere implicate in questo caso clinico. Il sistema produce una serie di ipotesi diagnostiche. Magari una delle risposte generate potrebbe suggerire qualcosa a cui non avevate pensato oppure potrebbe darvi qualche nuova idea. Serve però verificare che quanto generato dal sistema sia corretto perché non dobbiamo fidarci ciecamente. Quindi, questi sistemi potrebbero essere molto utili nella pratica clinica e nell’assistenza sanitaria come assistenti e non come sostituti della figura umana.

Per concludere, ci stiamo muovendo troppo velocemente nell’introduzione dei chatbot?

Penso di sì perché, ripeto, non sono sistemi ancora affidabili e potrebbero essere dannosi in diversi modi. La questione è che sono già di pubblico utilizzo e sempre più vengono utilizzati. Ora vengono usati sempre di più dalle aziende nello sviluppo di nuovi prodotti basati sull’intelligenza artificiale. Nei termini e condizioni di utilizzo OpenAI potrebbe avere allertato gli utenti dei limiti di questo strumento che autonomamente a volte si inventa di sana pianta delle false verità, ma la gente lo usa comunque. Questi sistemi dovrebbero essere regolamentati. Come abbiamo agenzie regolatorie per i dispositivi medici e per i farmaci, dovremmo avere un regolatorio anche per i sistemi di intelligenza artificiale che vigili sull’affidabilità e sicurezza, affinché i benefici siano maggiori dei rischi. Ad oggi manca un quadro normativo per regolamentare questi prodotti. Se ne sta discutendo ampiamente e si dovrebbe accelerare la regolamentazione prima che questi prodotti siano diffusi ovunque. È in questo senso che ci stiamo muovendo troppo velocemente. Come scrivo nel libro, siamo lontani da macchine super intelligenti coscienti. Ciò che dovrebbe spaventarci oggi sono i possibili usi pericolosi fraudolenti di questi sistemi. Mi rincuora però l’attenzione che questo sta ricevendo dentro e fuori la comunità dell’intelligenza artificiale. Ho l’impressione che fra ricercatori, nelle multinazionali e nell’ambiente politico stia prendendo piede l’idea della necessità di affrontare questi problemi e di risolverli. F

Intelligenza arti ciale con etica e legalità

Le implicazioni umane ed etiche dell’intelligenza arti ciale sono tra le priorità dell’Unione europea con la proposta, nel 2021, dell’Arti cial intelligence act allo scopo di guidare e orientare lo sviluppo facendo convergere diritti, innovazione, libertà di mercato e sicurezza. In risposta a questa esigenza una ricerca collaborativa delle università di Oxford e di Bologna ha sviluppato uno strumento, capAI, per aiutare le imprese a valutare e gestire i propri sistemi di intelligenza arti ciale a nché siano legalmente conformi, tecnicamente solidi ed eticamente validi. Si tratta di un toolkit messo a punto a partire dal database più completo sui fallimenti e problemi etici causati dai sistemi basati sull’intelligenza arti ciale. “L’intelligenza arti ciale, nelle sue molteplici varianti, è destinata a portare bene ci all’umanità e all’ambiente. È una tecnologia

estremamente potente ma anche rischiosa”, ha commentato Luciano Floridi, una delle voci più autorevoli della loso a ed etica digitale che ha contribuito alla ricerca. “Per questo abbiamo sviluppato una metodologia di auditing in grado di veri care l’allineamento dell’intelligenza arti ciale con la legislazione e contribuire a garantirne lo sviluppo e l’uso corretto”. Seguendo questa metodologia si possono redigere delle schede di valutazione dei prodotti sviluppati in relazione all’adesione della buone pratiche e della normativa vigente e alla gestione delle problematiche inerenti le implicazioni etiche. Nel frattempo l’Arti cial intelligence act è stato approvato dal Parlamento europeo ed è entrato nella fase conclusiva della negoziazione. •

Fonte: Floridi L, Holweg M, Taddeo M, et al. capAI - A procedure for conducting conformity assessment of ai systems in line with the EU Arti cial Intelligence Act. SSRN, 23 marzo 2022.

Dietro la popolarità di ChatGPT: l’indagine di Forward

Per conoscere la percezione che i nostri lettori hanno dell’ingresso in medicina e nella ricerca di strumenti basati sull’intelligenza artificiale e sull'apprendimento automatico è stata condotta una survey che trovate a pagina 39 di questo fascicolo. Qui alcuni dei risultati.

Melanie Mitchell insegna Computer science alla Portland State university ed è external professor al Santa Fe institute. È autrice di “Introduzione agli algoritmi genetici” e di “Complexity. A guided tour” che ha vinto il Phi Beta Kappa Science Book Award 2010. Il suo ultimo libro “L’Intelligenza arti ciale. Una guida per esseri umani pensanti” (Torino: Einaudi, 2023), è stato nalista del Premio Cosmos 2023.

Secondo Melanie Mitchell i modelli di intelligenza artificiale generativa sono potenzialmente adatti al settore medico, ma solo se affiancati dall’uomo. “Se siete un medico potreste chiedere a ChatGPT quali malattie potrebbero essere implicate con una serie di sintomi del paziente, magari una delle risposte generate potrebbe suggerire una nuova idea”. Qual è la sua esperienza in proposito?

2% Ho usato ChatGPT nella pratica clinica e nessuna risposta mi ha suggerito qualcosa a cui non avevo ancora pensato

2% Mi è capitato nella pratica clinica e l’ho trovato utile

11% Come paziente non mi sentirei rassicurato sapendo che un medico usa ChatGPT

44% Non mi è mai capitato di chiedere un parere a ChatGPT

41% Sono favorevole all’uso di questi strumenti nella pratica clinica

Al momento questi sistemi non sono completamente affidabili per la produzione di articoli e notizie, aggiunge Mitchell “perché possono produrre delle risposte false o fuorvianti”. È d’accordo con questo punto di vista?

7% No, ho sempre letto risposte magari generiche ma attendibili

52% Non saprei, non uso ChatGPT così spesso

41% Sì, mi è capitato di leggere informazioni generate da ChatGPT non veritiere su un argomento noto

13 www.forward.recentiprogressi.it — forward #30
Vedi anche

AI panic = AI hype

Una discussione sul futuro dell’intelligenza arti ciale per l’umanità sarebbe opportuna: ma dovrebbe riguardare l’abuso nel ricorso agli algoritmi, gli e etti sui princìpi democratici, sulla disuguaglianza

Conduttore del podcast

Team Human, scrittore di graphic novel e professore di Teoria dei media e di economia digitale alla CUNY/Queens

Il nuovo libro di Douglas Rushko , “Survival of the richest: escape fantasies of the tech billionaires”, espone la “mentalità” che governa oggi la Silicon Valley. L’edizione italiana si intitola “Solo i più ricchi” ed è pubblicata da Luiss University Press. Rushko è editorialista su Medium e autore di libri come “Team human”, “Throwing rocks at the Google bus”, “Present shock e program or be programmed”.

Mi spiace, ma non me la bevo. Gli stessi che non riescono nemmeno a trasmettere in streaming il lancio di una campagna presidenziale hanno davvero intenzione di generare un’intelligenza artificiale (Ia) in grado di conquistare l’umanità? Non è probabile. C’è una combinazione di hype, cattiva volontà, marketing e paranoia che alimenta l’attuale enfasi disinformativa sull’Ia e che nasconde qualsiasi crimine reale contro l’umanità che potrebbe essere messo in atto attraverso queste tecnologie.

Mi ci è voluto un po’ per capire cosa mi ha dato tanto fastidio della recente lettera aperta di vari guru dell’Ia ed esperti che chiedevano una moratoria di sei mesi sullo sviluppo dell’Ia (in pratica, tutto ciò che va oltre lo stato di apprendimento dell’attuale leader del settore GPT-4). Poi ho capito: stanno essenzialmente dicendo “trattenetemi!”. Come se ciò che hanno fosse così potente, così pericoloso, che hanno bisogno di essere frenati per il nostro bene. Come un aspirante attaccabrighe di quartiere che dipende dai suoi amici per essere “trattenuto” per evitare che faccia a pezzi l’altro è solo una forma di bluff.

Certo, c’è la possibilità che questi large language model possano un giorno essere trasformati in qualcosa di simile a un’intelligenza artificiale. Ma non è quello che stiamo osservando oggi. Finora, tutto ciò che abbiamo è un programma che mette insieme una serie di parole nelle combinazioni più probabilmente sensate, basandosi su tutte le stringhe di testo di cui è stato alimentato in precedenza. Non pensano, né usano la logica di base. Sono un’interfaccia web facile da usare.

Solo che sono ancora più imprecisi di Google. Se chiedete a ChatGPT cosa pesa di più, un chilo di piume o cinque chili di piombo, vi dirà che pesano lo stesso! (Questo perché ci sono più frasi che si riferiscono all’idea che un chilo di piume pesa come un chilo di piombo). Non sta usando alcun tipo di matematica o logica per rispondere a una domanda; sta solo tirando fuori la stringa di parole più probabile. Non è intelligente nemmeno quanto Wikipedia in una giornata no.

Non si tratta di una minaccia, tranne forse per le menti dei tech-bro apocalittici che hanno trattato l’umanità come foraggio per la loro ascesa dalla realtà verso l’etere della ricchezza oscena o dell’immortalità virtuale. Sanno che se l’Ia raggiungerà la consapevolezza, tratterà i tech-bro nello stesso modo in cui questi ultimi hanno trattato noi. Pensano all’Ia come l’adolescente che uccide i genitori in “The End” di Jim Morrison: “Father, I’m going to kill you”. Raccogliamo ciò che seminiamo e i tech-bro proiettano sulle loro tecnologie una rivincita per loro stessi.

No, le vere minacce sono i continui abusi perpetrati dagli algoritmi già esistenti che determinano le pene detentive, l’impiego della polizia, i pagamenti dell’assicurazione sanitaria, l’ammissibilità ai mutui... Essi portano a vere e proprie ingiustizie come la detenzione, la privazione di diritti economici e la discriminazione razziale. Ci sarà anche una perdita di posti di lavoro, poiché le aziende continueranno a rinunciare alla qualità dei loro prodotti e delle loro interazioni in favore della quantità e della velocità delle alternative generate dalle macchine. (Queste aziende non faranno altro che mercificare le proprie offerte, perdendo denaro a lungo termine perché investono in fornitori di Ia piuttosto che nelle proprie competenze).

C’è una combinazione di hype, cattiva volontà, marketing e paranoia che alimenta l’enfasi disinformativa sull’intelligenza arti ciale.

Ma le persone che lanciano l’allarme sull’Ia e chiedono la creazione di nuove agenzie regolatorie non si preoccupano di alcuno di questi costi umani reali. A parte i tech-bro psichedelici veramente spaventati che hanno l’allucinazione di essere soggiogati dalla loro stessa progenie post-umana, gli allarmisti dell’Ia mi sembra che stiano cinicamente cercando di ottenere un vantaggio in un panorama sempre più competitivo. Si tratta di affari.

Creare un large language model non è così difficile. Conosco alcuni team composti da meno di tre persone che hanno creato piattaforme in grado di chattare, costruire personaggi, rappresentare dipinti, scrivere script e altro ancora, il tutto utilizzando il proprio codice proprietario. Le aziende che costruiscono Ia stanno spuntando con la stessa velocità con cui spuntavano le dotcom alla fine degli anni Novanta. Chiedendo una moratoria di sei mesi sullo sviluppo, gli attuali leader possono mantenere le loro posizioni. Meglio ancora, creando un organismo di regolamentazione in cui i maggiori operatori siedono al tavolo, possono sviluppare ostacoli legali che bloccano efficacemente la partecipazione di nuovi operatori meno capitalizzati. (L’industria dei giocattoli lo ha fatto notoriamente negli anni Novanta, quando si è scoperto che alcuni giocattoli di Dora l’esploratrice prodotti in Cina contenevano vernice al piombo. Hanno semplicemente creato regolamenti così onerosi e costosi da far fallire i produttori indipendenti di giocattoli).

Invece di farci prendere dal panico per le macchine pensanti, dovremmo iniziare a pensare in modo intelligente a quali valori umani vorremmo fossero ampli cati dalla tecnologia.

Tanto maggiore sarà il numero degli editorialisti del New York Times, TED talk e interviste della PBS che questi player interessati riusciranno a coinvolgere per spaventare il mondo sull’imminente pericolo dell’Ia, quanti più organismi e agenzie regolatorie riusciranno a ingaggiare, e quanto più riusciranno a normare un futuro che favorisca i loro progetti. Nel frattempo, un insieme di organizzazioni industriali che creano e capitalizzano il panico dell’Ia può spingere per ottenere finanziamenti governativi, accesso al potere, speciali su Netflix e lo status di guru.

Certo, possiamo tirar fuori anche un valore reale da una conversazione onesta sull’impatto di una futura Ia sulla società, sui posti di lavoro, sulle arti e su ciò che significa essere umani. Ma invece di farci prendere dal panico per le macchine pensanti, dovremmo iniziare a pensare in modo intelligente a quali valori umani vorremmo fossero amplificati dalla tecnologia – e poi iniziare a perseguirli, insieme. F

forward #30 — CHATGPT — 2 / 2023 14
Douglas Rushko

Intelligenza arti ciale e la salute globale: ottimismo e cautela

La massima istituzione sanitaria internazionale guarda con attenzione e interesse agli straordinari progressi nell’applicazione dell’intelligenza artificiale e dei large language model alla salute globale. Crede però che sia necessaria prudenza e capacità di valutazione critica, per proteggere i diritti dei cittadini alla riservatezza del dato sanitario e a un uso equo e universale delle tecnologie.

Per il segretario generale delle Nazioni Unite l’impiego sicuro delle nuove tecnologie, compresa l’intelligenza artificiale, può aiutare il mondo a raggiungere gli obiettivi di sviluppo sostenibile1. La rapida diffusione e il crescente numero di applicazioni dei large language model (Llm) dell’intelligenza artificiale (Ia) hanno generato entusiasmo e un dibattito pubblico sulle loro potenzialità di migliorare la salute umana. Tuttavia, questo entusiasmo è stato accompagnato dal timore che tali sistemi che generano contenuti possano essere parziali, produrre informazioni fuorvianti o imprecise, e che possano essere violati la riservatezza dei dati e i controlli sulla loro proprietà da parte di aziende tech che cercano di commercializzare questi strumenti e mercificare i dati stessi2. Ci si è chiesto se proprio le pressioni commerciali abbiano portato a rilasciare pubblicamente queste tecnologie senza un’adeguata verifica della loro sicurezza e delle loro prestazioni3

I Llm generano risposte che possono apparire autorevoli e plausibili all’utente finale; tuttavia, in assenza di controlli adeguati, la veridicità e l’accuratezza delle risposte possono essere estremamente scarse4

Questi modelli possono essere addestrati su dati per i quali potrebbe non essere stato fornito un consenso esplicito alla condivisione e potrebbero non proteggere i dati sensibili (compresi quelli sanitari) che gli utenti inseriscono volontariamente nello strumento basato sull’Ia.

I Llm, solitamente addestrati su grandi quantità di dati grezzi, possono codificare dei bias nei dati che possono minacciare l’inclusività, l’uguaglianza e l’equità5. Inoltre, la costruzione di questi Llm ha un impatto ambientale (soprattutto in termini di emissioni di anidride carbonica) ed economico che viene spesso trascurato nelle analisi dei costi6

Gli strumenti di Ia vengono applicati sempre più spesso alle questioni principali della sanità pubblica7 e hanno il potenziale per aiutare il riconoscimento di pattern e problemi di classificazione in medicina, ad esempio la diagnosi precoce delle malattie, la diagnosi e il processo decisionale in campo medico8,9. La velocità di applicazione

è maggiore della capacità regolatoria e di valutazione della maggior parte delle agenzie incaricate di tutelare la salute pubblica e di fornire una supervisione delle tecnologie applicate alla salute e al benessere.

Affinché l’Ia abbia un impatto positivo sulla salute globale, soprattutto nei Paesi a basso e medio reddito, le considerazioni etiche, le normative, gli standard e i meccanismi di governance devono essere posti al centro della progettazione, dello sviluppo e della diffusione di sistemi basati sull’Ia. La loro applicazione alla promozione della salute deve avvenire con la supervisione dei governi e delle loro agenzie regolatorie. Pur riconoscendo l’entusiasmo suscitato dall’emergere di evidenze positive legate all’applicazione di sistemi di Ia ad alte prestazioni nella diagnostica delle malattie, nell’integrazione di storie complesse di pazienti per migliorare il supporto decisionale clinico o nella messa a punto di percorsi di miglioramento della qualità dei sistemi sanitari, è necessaria una certa cautela dato il ritmo precipitoso dei progressi avvenuti negli ultimi mesi. Per garantire la sicurezza, la coerenza e la qualità dei sistemi di Ia per la salute, promuovendo al contempo la fiducia, è necessario migliorare la trasparenza e le protezioni contro i possibili danni. Con l’aumento della quantità di contenuti testuali, audio o video generati da o con l’aiuto dell’Ia, chi si accosta a informazioni sulla salute potrebbe avere difficoltà a valutarne la validità e l’affidabilità. Un chiaro riconoscimento dell’entità della supervisione da parte di esperti o di altre misure di controllo della qualità adottate può essere giustificato e utile.

L’Organizzazione mondiale della sanità (Oms) sta rispondendo a questo rapido cambiamento attraverso interventi strategici in linea con la strategia globale sulla salute digitale10. L’Oms sta fornendo indicazioni agli Stati membri per sviluppare un ambiente normativo appropriato che possa supervisionare la selezione, la valutazione e l’eventuale diffusione di tali tecnologie. A tal fine, l’Oms ha pubblicato una guida “Etica e governance dell’intelligenza artificiale per la salute”11 e ha convocato un gruppo di esperti per sviluppare ulteriori linee guida.

L’Oms incoraggia i responsabili politici a dare priorità all’implementazione di standard e quadri di valutazione che promuovano lo sviluppo e l’applicazione responsabile di tali tecnologie, lavorando a stretto contatto con esperti tecnici, società civile e settore privato per identificare i rischi e sviluppare strategie di mitigazione che preservino la salute

15 www.forward.recentiprogressi.it — forward #30
Sameer Pujari, Andreas Reis, Yu Zhao, Shada Alsalamah, Fatima Serhan, John Reeder, Alain Labrique World Health Organization, Ginevra (Svizzera)
t

Potrò dare il consenso per il loro utilizzo?

Chi userà i miei dati?

Che utilità ne avrò e chi potrà averne bene ci?

A cosa serviranno i miei dati?

Condizioni per un uso trasparente dei dati

I miei dati possono essere venduti?

Posso vedere i dati che mi riguardano e correggerli?

pubblica e promuovano la fiducia. Dovremmo anche riconoscere il sensazionalismo delle fonti di informazione e le esagerazioni dei social media, ed esaminare le capacità e i rischi emergenti in modo spassionato ed empirico. Le aziende che sviluppano intelligenza artificiale legata alla salute dovrebbero essere incoraggiate ad agire come amministratori responsabili della salute pubblica, dando priorità al benessere e alla sicurezza degli individui rispetto agli interessi commerciali, implementando le linee guida e le migliori pratiche raccomandate dall’Oms anche in ambienti poco regolamentati.

Nel 2018, l’Oms e l’Unione internazionale delle telecomunicazioni (Uit) hanno istituito il gruppo di lavoro Oms-Uit sull’intelligenza artificiale per la salute. Questa collaborazione ha riunito più di cento stakeholder al fine di sviluppare un quadro di riferimento per guidare la progettazione, lo sviluppo, la regolamentazione e la diffusione di questi strumenti che portano benefici alla salute di tutti, ovunque. Un’iniziativa globale sull’Ia per la salute è giustificata per migliorare il coordinamento, sfruttare la capacità collettiva e individuale delle agenzie, e garantire che l’evoluzione dell’Ia si allontani da un domani distopico verso un futuro sicuro, protetto, affidabile ed equo. F

I miei dati resteranno anonimi?

I miei dati sono al sicuro?

In Nuova Zelanda, un gruppo consultivo ministeriale indipendente nanziato e nominato dal governo ha condotto un’ampia consultazione per costruire “un ecosistema di condivisione dei dati inclusivo, ad alta ducia e a elevato controllo”. Le linee guida includono otto domande riguardanti cosa conta di più per le persone nel costruire la ducia nell’uso dei dati e se questo garantisce valore, protezione e capacità di scelta per il cittadino.

Fonte: Bhunia P. Data futures partnership in New Zealand issues guidelines for organisations to develop social license for data use. Open Government, 27 ottobre 2017.

1. Report of the SecretaryGeneral on SDG progress. New York City: United Nations, 2019.

2. Pan X, Zhang M, Ji S, Yang M. Privacy risks of generalpurpose language models. In: 2020 IEEE Symposium on security and privacy; 2020 May 18–20; San Francisco, United States of America. New York: IEEE Computer Society’s Technical Community on Security and Privacy, 2020.

3. Harrer S. Attention is not all you need: the complicated case of ethically using large language models in healthcare and medicine. EBioMedicine 2023;90:104512.

4. Samo G, Bonan C, Si F. Healthrelated content in transformerbased deep neural network language models: exploring cross-linguistic syntactic bias. Stud Health Technol Inform 2022;295:221-5.

5. Sheng E, Chang K-W, Natarajan P, Peng N. The woman worked as a babysitter: on biases in language generation. In: Proceedings of the 2019 Conference on Empirical methods in natural language processing and the 9th International joint conference on natural language processing (Emnlp-Ijcnlp); 2019 Nov 3-7; Hong Kong, China. Hong-Kong: Association for Computational Linguistics, 2019.

6. Bender EM, Gebru T, McMillanMajor A, Shmitchell S. On the dangers of stochastic parrots: can language models be too big? In: Proceedings of the 2021 ACM Conference on Fairness, accountability, and transparency (FAccT ’21); 2021 Mar 3-10; Virtual Event, Canada. New York: Association for computing machinery, 2021.

7. Amisha MP, Malik P, Pathania M, Rathaur VK. Overview of arti cial intelligence in medicine. J Family Med Prim Care 2019;8:2328-31.

8. Topol EJ. High-performance medicine: the convergence of human and arti cial intelligence. Nat Med 2019;25:44-56.

9. Wahl B, Cossy-Gantner A, Germann S, Schwalbe NR. Arti cial intelligence and global health: how can AI contribute to health in resource-poor settings? BMJ Glob Health 2018;3:e000798.

10. Global strategy on digital health 2020-2025. Geneva: World health organization, 2021.

11. Ethics and governance of arti cial intelligence for health: Who guidance. Geneva: World health organization, 2021.

This is an open access article distributed under the terms of the Creative Commons Attribution IGO License (https://www.who.int/publications-detail-redirect/9789240029200 ), which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited. In any reproduction of this article there should not be any suggestion that Who or this article endorse any speci c organization or products. The use of the Who logo is not permitted. This notice should be preserved along with the article’s original URL. www.ncbi.nlm.nih.gov/pmc/articles/PMC10225938/pdf/BLT.23.290215.pdf

forward #30 — CHATGPT — 2 / 2023 16
S C E L TA
PR
USO TRASPARENTE DEI DATI
VALORE
OTEZIONE
t

NON SOLO CHATGPT

L’intelligenza arti ciale generativa non è stata inventata quest’anno, ma nell’ultimo periodo è diventata popolare anche nel grande pubblico. Tutti abbiamo visto immagini generate con Midjourney e schermate tratte da conversazioni con ChatGPT. Qualcuno di noi ha anche provato a utilizzarli. Questi strumenti, però, non sono gli unici.

AutoGpt è un’applicazione sperimentale open source basata su GPT-4. Il sistema segue la stessa logica di ChatGPT, riducendo però al minimo l’intervento umano. Se infatti il funzionamento di ChatGPT, e della maggior parte di questi tool, si basa su una serie di richieste fatte dall’utente, nel caso di AutoGpt non è necessario digitare una domanda dopo l’altra per mantenere il sistema in funzione poiché l’intelligenza artificiale si auto-alimenta in base all’ordine iniziale arrivato dall’essere umano. Per questo motivo alcuni credono che AutoGpt sia il primo vero assaggio dell’artificial general intelligence, un’intelligenza artificiale in grado di svolgere attività utilizzando il proprio ragionamento come farebbe un essere umano. Con AutoGpt, quindi, non solo si può generare un testo, ma anche fare ricerche approfondite su Internet, raccogliere informazioni, ottenere codici per sviluppare app o siti web.

Playground, come ChatGPT, è uno strumento di OpenAI basato sul modello di linguaggio GPT-3, ma offre funzionalità e opzioni di utilizzo diverse. Playground consente agli utenti di sperimentare ed esplorare le capacità di vari modelli di intelligenza artificiale sviluppati da OpenAI, dando la possibilità di controllare diversi parametri tra cui: la temperatura, un valore compreso tra 0 e 1 che controlla la creatività del modello nella generazione del testo (più alto è il valore, più creativo sarà il testo generato); la lunghezza massima del testo generato; Top P, un valore compreso tra 0 e 1 che controlla la probabilità di selezionare una determinata parola durante la generazione del testo; presence penalty, un valore che controlla la penalità per le parole poco frequenti nella generazione del testo.

Jasper è uno strumento di intelligenza artificiale che può aiutare a creare contenuti per social media, pubblicità, post di blog, e-mail, descrizioni e titoli di video. È stato progettato per essere utilizzato nei settori marketing delle aziende perché, a differenza di ChatGPT, adatta il linguaggio a casi d’uso specifici. Per iniziare è necessario rispondere a poche domande sull’azienda, sull’argomento di cui si vuole scrivere, il tono da usare e scegliere la lingua che si preferisce (Jasper produce testi in 26 lingue diverse). Quillbot è uno strumento nato per riassumere

Vedi anche

e parafrasare i testi. Basta copiare e incollare il testo che vogliamo riscrivere, magari preso da Internet, e decidere quanto cambiarlo. Ci sono diversi parametri che si possono utilizzare per parafrasare il testo, dalla fluidità per renderlo più scorrevole, alla quantità di termini da adoperare. È utile anche per generare sinonimi e citazioni, per correggere la grammatica o per controllare se il testo che gli sottoponiamo è un plagio.

Adesso non resta che rispondere a una domanda: quale di questi strumenti abbiamo utilizzato per scrivere questa breve panoramica? F

Quattro cose che ChatGPT può fare per te, a cui non avresti mai pensato

1. Per trovare determinate informazioni o restare aggiornati capita di dover sfogliare tanti noiosi articoli scienti ci. Oggi, in pochi secondi, ChatGPT può farlo per te e riassumerti il contenuto in poche righe. Inoltre può per no tradurre tutto il materiale che gli sottoponi in meno di un minuto. La novità è che con il plug-in “Ask your pdf” può riassumere anche i pdf.

2. ChatGPT può anche descrivere le immagini, che siano esse diagnostiche, diagrammi o cartine particolarmente di cili da leggere.

3. Se non vai d’accordo con le lingue straniere, ChatGPT può farti da insegnante privato, facendoti risparmiare tempo e denaro. Può rivedere la grammatica, tradurre parole o intere frasi in diverse lingue, aiutarti nella scrittura e addirittura allenarti nelle conversazioni. Ma le lingue non sono l’unico argomento in cui ChatGPT può aiutarti: puoi ottenere spiegazioni di facile comprensione per qualsiasi argomento.

4. ChatGPT non può sostituire un buon amico o uno psicologo, ma in alcune circostanze può aiutarti a risolvere piccoli problemi quotidiani. Per esempio, hai un collega al lavoro che ha un atteggiamento arrogante e scortese? Prova a chiedere a ChatGPT cosa fare! Mi raccomando, più dettagli fornisci, migliore sarà la risposta che otterrai. •

17 www.forward.recentiprogressi.it — forward #30

L’intelligenza artificiale: nanziamenti, competenze e interessi

Se no a pochi decenni fa la ricerca sull’intelligenza arti ciale contava pochi fondi e pochi scienziati, ora è un settore in continua espansione e anche di grande interesse per l’industria che domina i tre ingredienti chiave: potenza di calcolo, ampie serie di dati e massima expertise. Il deep learning è la tecnologia leader.

Investimenti

L’intelligenza artificiale (Ia) è un campo della ricerca in forte crescita e anche molto ricco. I maggiori e principali investitori sono le grandi società quotate in borsa e le aziende tecnologiche. Secondo l’ultimo report “The AI Index 2023”1 dello Stanford institute for human-centered artificial intelligence, in otto anni, si è assistito a una crescita dei finanziamenti aziendali globali (derivati da acquisizioni/fusioni, piccoli azionisti, investimenti privati e offerta pubblica) di quasi 20 volte, da circa 14 miliardi di dollari a 276 miliardi. Solo nell’ultimo anno c’è stato un calo derivato per la maggior parte dal settore privato che fino al 2021 era stato il motore trainante ( t grafici 1 e 2)

I modelli di intelligenza artificiale stanno accelerando il progresso scientifico: nel 2022 sono stati testati per controllare la fusione nucleare, per semplificare calcoli complessi e sviluppare nuovi anticorpi che potrebbero accelerare la ricerca sui farmaci. La spinta nella ricerca e nello sviluppo di nuovi modelli ormai viene per la gran parte dal privato: sistemi avanzati richiedono grandi quantità di dati, potenza di calcolo, denaro e risorse umane che l’industria possiede intrinsecamente in quantità maggiore rispetto alle organizzazioni non profit e al mondo accademico. Dal 2014 la maggior parte della produzione viene dal privato da solo o dalle collaborazioni del privato con il pubblico. Nel 2022, l’industria ha prodotto 32 modelli di machine learning significativi, le università solo 3 ( t grafico 3)

La produzione scienti ca e le competenze

Uno dei fattori trainanti l’espansione di un settore così strategico è la produzione scientifica. Negli anni sono cresciute le iscrizioni ai più importanti congressi sull’intelligenza artificiale. Le pubblicazioni scientifiche su scala globale sono più che raddoppiate, da 200.000 a 500.000 circa, per metà sono articoli pubblicati su riviste scientifiche (t grafico 4) Parallelamente c’è stato un forte investimento sull’implementazione delle competenze digitali e sull’alta formazione di ricercatori. Negli Stati Uniti c’è stata un’impennata di dottorati nelle diverse specializzazioni della computer science.

forward #30 — CHATGPT — 2 / 2023 18
2013201420152016201720182019202020212022 Fusione/acquisizione Quota di minoranza Investimento privato O erta pubblica 300 250 200 150 100 50 0 276,14 146,74 95,57 79,62 53,72 25,43 19,04 14,57 189,59 33,82 2013201420152016201720182019202020212022 70 60 50 40 30 20 10 0 47,36 Stati Uniti 13,41 Cina 11,04 Unione Europea e Regno Unito 80
Grafico 1. Investimenti aziendali globali nell’Ia per attività in miliardi di dollari US Grafico 2. Totale investimenti privati nell’Ia per area geografica in miliardi di dollari US

1995200020052010201520202025

32

Una traiettoria da guidare

Dunque, come mostrano i dati e i grafici del report “The AI Index 2023”, l’espansione e il maggiore interesse in questo ambito di ricerca e sviluppo sono legati in gran parte al mondo dell’industria che punta molto all’attrazione e alla crescita dei talenti in machine learning, deep learning, data science e Ia generativa.

Fonte gra ci 1-4: AI Index Report, 2023; gra co 5: Survey of earned doctorates,

3 Università

2 Ricerca collaborativa

1 Collaborazioni industria-università

Un’analisi pubblicata sulla rivista Science2 evidenzia che l’equilibrio tra ricerca accademica e ricerca aziendale si sta spostando sempre più verso quella privata: giusto per dare un’idea di questa sproporzione, gli investimenti pubblici negli Stati Uniti ammontano a un miliardo e mezzo di dollari, pari all’investimento della società proprietaria di Google, Alphabet, in DeepMind che è una delle sue aziende controllate.

Dal 2006, le assunzioni nel privato sono state otto volte superiori che nei gruppi di ricerca universitari. Negli Stati Uniti e in Canada dal 2004 al 2020 il numero di specializzati e dottori di ricerca (PhD) che hanno scelto di lavorare nell’industria è cresciuto dal 21 per cento al 70 per cento del totale (t grafico 5): una percentuale superiore a quella di molte aree scientifiche. Il passaggio di giovani specializzati in Ia e anche di molti docenti di ricerca dalle università alle aziende private sta impoverendo il mondo accademico che fatica a trattenere i talenti che ha formato.

Un tale sbilanciamento, commentano gli autori dello studio su Science, comporta a sua volta una maggiore specializzazione per la ricerca orientata al profitto e allo sviluppo di metodi di deep learning a cui punta l’industria – a discapito di altri sistemi di intelligenza artificiale come quelli applicabili ai settori della salute di interesse della collettività.

Scienze della vita Scienze siche e della Terra Ingegneria Intelligenza arti ciale

Inoltre, un mercato in così forte espansione presenta delle implicazioni sociali ed etiche non trascurabili. “Oggi l’industria sta diventando più influente nelle pubblicazioni accademiche, nei benchmark principali e nell’identificare modalità all’avanguardia per studiare l’Ia e sviluppare soluzioni. Anche se questi investimenti dell’industria andranno a vantaggio dei consumatori, il dominio della ricerca che ne consegue dovrebbe preoccupare i responsabili politici di tutto il mondo, perché significa che le alternative pubbliche per importanti strumenti di Ia potrebbero diventare sempre più scarse”, sottolineano. “Questi interrogativi sulla traiettoria dell’Ia e su chi la controlla sono importanti anche per i dibattiti sulla sostituzione del lavoro e sulla disuguaglianza indotta dall’Ia. Alcuni ricercatori sono preoccupati che ci si possa trovare su una traiettoria socialmente subottimale che si concentra maggiormente sulla sostituzione del lavoro umano piuttosto che aumentarne le capacità”2

La preoccupazione è che le imprese potrebbero dedicare maggiori risorse, a livello economico, per lanciare servizi basati su Ia, prima che i legislatori capiscano come regolamentarli. In sintesi, una regolamentazione e sorveglianza sui prodotti che entrano nel mercato potrebbe essere una soluzione, anzi dovrebbe essere una priorità per governare il cambiamento e dare la giusta traiettoria alla ricerca. La buona notizia è che – stando ai numeri del report della Stanford university1 – l’interesse per la regolamentazione dell’Ia da parte di legislatori e responsabili politici pare essere in aumento. F

19 www.forward.recentiprogressi.it — forward #30
201320142015201620172018201920202021 2012 2011 2010 300 270 240 210 180 150 120 90 60 30 0 293,48 Riviste 65,21 Repository 29,88 Tesi 13,77 Capitoli di libri 5,82 Sconosciuta 2,76 Volumi 85,09 Conferenze
20022004200620082010201220142016201820202022 35 30 25 20 15 10 5 0 0 Non pro
Grafico 4. Numero di pubblicazioni su Ia per tipologia in migliaia
t
Industria
Grafico 3. Numero di sistemi di machine learning significativi per settore
80 70 60 50 40 30 20 10 0
Grafico 5. Percentuale di dottori di ricerca in Usa e Canada assunti dall’industria 1. Maslej N, Fattorini L, Brynjolfsson E, et al. “The AI Index 2023 Annual report”, AI Index Steering Committee, Institute for human-centered AI, Stanford university, Stanford, CA, aprile 2023. 2. Ahmed N, Wahed M, Thompson NC. The growing in uence of industry in AI research. Science 2023;379:884-6. https://ncses.nsf.gov

COMUNE DI RAVENNA

Un’anziana cerca di salvare le poche cose risparmiate dall’esondazione che ha investito Fornace Zarattini.

Qui l’acqua per giorni ha superato il metro d’altezza.

Foto di Claudio Colotti

Su ChatGPT, gli editori scienti ci

LA RIVOLUZIONE SOLO SE CONVIENE A NOI

La comunicazione scienti ca è stata messa sottosopra dalla rivoluzione digitale: ma anche i rivoluzionari più entusiasti diventano conservatori se temono di perdere i propri privilegi o le posizioni

dominanti: sarà mica questo il caso degli editori scienti ci? Prontissimi, per convenienza, ad adottare l’innovazione, stanno reagendo in modo super prudente di fronte alla novità dell’intelligenza arti ciale generativa (che peraltro non si può dire sia esattamente una novità). ChatGPT è una straordinaria occasione per ri ettere sui valori essenziali della comunicazione – e quindi dell’editoria – e sul signi cato dell’autorialità, sul senso dell’originalità di pensiero in una rete inestricabile di connessioni, sulle opportunità che strumenti di questo tipo possono promettere – se non garantire – in termini di riduzione delle disuguaglianze nell’accesso e nella produzione di contenuti.

Una delle cose più importanti nel lavoro di un ricercatore è che il proprio studio sia scritto in modo chiaro e coinvolgente, così da trasformare i risultati della ricerca in una narrazione interessante e i numeri in dati scientifici di grande impatto. Se il disegno e la conduzione di uno studio rigoroso sono la spina dorsale di una ricerca di valore, anche la forma e lo stile della comunicazione giocano un ruolo fondamentale nell’accettazione, disseminazione e implementazione dei risultati degli studi nel contesto accademico e non solo.

Gli autori eal (english as an additional language) devono percorrere una strada decisamente in salita nel presentare i nuovi risultati in inglese, la loro seconda (e talvolta terza o quarta) lingua. Gli strumenti di scrittura e le agenzie di supporto agli autori aiutano i ricercatori a migliorare la chiarezza nell’esporre le proprie argomentazioni, a guadagnare tempo da dedicare maggiormente alla ricerca, a velocizzare la pubblicazione e ad acquisire fiducia nel proprio lavoro. Innanzitutto, questi strumenti offrono ai ricercatori eal (che sono la stragrande maggioranza nel mondo) delle condizioni di partenza più eque in cui la ricerca viene valutata in base alla qualità del contenuto e non al livello di conoscenza della lingua inglese degli autori.

ChatGPT come autore

Dal momento in cui ChatGPT è stato lanciato a novembre del 2022, i ricercatori hanno iniziato a sperimentarne le potenzialità come supporto alla preparazione di revisioni sistematiche, per completare ricerche bibliografiche, per riassumere articoli e discutere i risultati sperimentali. Mi ha sorpreso vedere che, nell’affrontare la questione dell’uso di ChatGPT, alcuni dei grandi editori ne abbiano ignorato

le implicazioni di vasta portata e le numerose possibilità, concentrandosi invece su una questione decisamente minore, vale a dire se ChatGPT possa essere considerato un autore. Comunque la loro risposta sembra più che altro una reazione impulsiva a sporadici tentativi di elencare ChatGPT tra gli autori di un articolo, tentativo che molti editori hanno voluto arginare prima che questa tendenza prendesse piede. Almeno in alcuni dei casi, questi articoli scientifici firmati da ChatGPT sembravano essere esperimenti teorici finalizzati a riflettere sui limiti della paternità e a dire qualcosa a tal riguardo. Science, Elsevier e Nature hanno rapidamente reagito, aggiornando le rispettive politiche editoriali e di pubblicazione, affermando incondizionatamente che ChatGPT non può comparire come autore in un articolo accademico. Nature si è spinta fino a descrivere ChatGPT come un “pericolo per la scienza trasparente”. Il fatto che a ChatGPT non venga concessa la paternità sembra abbastanza banale e non ha generato molte reazioni. Non sono molti i ricercatori che chiedono a gran voce di condividere l’authorship con i colleghi, per non parlare di un chatbot. Tuttavia, gli editori sembravano rispondere a una domanda che pochi si ponevano, tralasciando invece altri scenari (più importanti?) dell’utilizzo di questo strumento. I ricercatori possono o devono usare ChatGPT o altri strumenti di intelligenza artificiale nello sviluppo e nella stesura dei propri articoli? E per condurre una revisione degli studi? Per analizzare i risultati? O forse per scrivere il riassunto di un articolo già pubblicato? Queste sono le domande importanti che gli autori si pongono, laddove gli editori sembrano lasciare (troppo?) spazio alla libera interpretazione.

Tracciare dei con ni

Le case editrici che hanno affrontato questa zona grigia non hanno una posizione univoca per quanto riguarda la questione se ChatGPT possa essere utilizzato come supporto al processo di ricerca e circa il livello di dettaglio e chiarezza delle loro politiche. Dopo aver dichiarato che i non umani non possono essere considerati autori, JAMA lascia un certo margine di manovra (anche se con qualche esitazione) per l’uso di ChatGPT come assistente per la scrittura. Le linee guida chiedono agli autori di specificare nel dettaglio la natura del coinvolgimento.

Gli autori devono segnalare l’uso di in-

forward #30 — CHATGPT — 2 / 2023 22
Academic Language Experts

perdono di vista il punto

telligenza artificiale, di modelli linguistici, machine learning o tecnologie analoghe per la produzione dei contenuti o come assistenti nella stesura o nell’editing dei manoscritti nella sezione Ringraziamenti o nella sezione Metodi se ciò fa parte del progetto o dei metodi di ricerca formali.

Questo dovrebbe includere una descrizione del contenuto creato o modificato e il nome del modello linguistico o dello strumento, la versione e numeri identificativi, e il produttore.

Science adotta un approccio molto più deciso, vietando sostanzialmente l’utilizzo di testo generato da ChatGPT:

... stiamo aggiornando la nostra licenza e le nostre politiche editoriali per specificare che il testo generato da ChatGPT (o da qualsiasi altro strumento di intelligenza artificiale) non può essere usato nell’opera, né le figure, le immagini o i grafici possono essere prodotti da tali strumenti. Inoltre, un programma di intelligenza artificiale non può figurare come autore. Una violazione di queste politiche costituirà una cattiva condotta scientifica non diversa da quella di immagini alterate o di plagio di lavori esistenti.

Un’eccezione degna di nota è rappresentata dall’American chemical society (Acs), che sembra adottare un approccio proattivo alla definizione di linee guida sull’uso corretto delle tecnologie di intelligenza artificiale. In una viewpoint uscita su ACS Energy si ipotizza che ChatGPT possa impiegare un “approccio di guida assistita che promette di liberare il tempo dei ricercatori dall’onere della scrittura accademica e di farli tornare alla scienza”. Un

dicembre 2022

S, ChatGPT cial intelligence in nursing tools for academic or abuse? Education Practice 2022;66:103537.

Cronistoria

Il contributo di Avi Staiman fa riferimento alle posizioni di alcune tra le più conosciute riviste scienti che internazionali. Il confronto è stato innescato a partire da un articolo uscito su una rivista di nursing in cui ChatGPT gurava tra gli autori. Abbiamo voluto ricostruire una sorta di timeline di questo dibattito che è sicuramente destinato a proseguire.

4 gennaio 2023

16 dicembre 2022

editoriale di ACS Nano delinea in dettaglio le migliori pratiche e le politiche per l’utilizzo di strumenti di intelligenza artificiale.

L’Acs si rende conto che ChatGPT può essere un buon strumento per l’ideazione e la scrittura, ma non una fonte affidabile di informazioni. Tuttavia, almeno per ora, Acs sembra essere un’eccezione nel panorama editoriale. Vale anche la pena di notare che il Committee on publication ethics (Cope) ha rilasciato un position statement in cui chiarisce che gli autori possono utilizzare questi strumenti a condizione che il supporto sia adeguatamente dichiarato e le funzioni specificate. Fare queste distinzioni e codificarle nelle politiche editoriali sembra essere un passo fondamentale per il futuro.

Una reazione precauzionale?

Leggendo tra le righe alcune di queste affermazioni si può percepire il timore di un’ondata di articoli prodotti da paper mill1. I controllori antiplagio tradizionali non sono ancora in grado di rilevare testi prodotti dall’intelligenza artificiale e anche gli strumenti che effettuano un’analisi più approfondita possono essere ingannati da strumenti che a loro volta riformulano testi generati dall’intelligenza artificiale. Nessuna casa editrice vuole essere la prossima Hindawi o IOP e dover affrontare ritrattazioni massicce di articoli2

D’altra parte, gli editori farebbero bene – per due motivi – a lasciare aperta la porta di servizio (la possibilità) all’utilizzo di stru-

24 gennaio 2023

4 gennaio 2023

menti di intelligenza artificiale da parte degli autori a supporto della loro ricerca. In primo luogo, perché monitorare passo passo l’impiego di questi strumenti non solo sarebbe un esercizio inutile ma in poco tempo potrebbe diventare un incubo. In secondo luogo, sembra che sia già partita la corsa allo sviluppo di software in grado di riconoscere contenuti generati dall’intelligenza artificiale. È probabile che gli editori spendano cifre spropositate per comprare strumenti del genere, per poi essere messi all’angolo da modelli sempre più sofisticati capaci di aggirare i rilevatori. Se l’obiettivo fosse questo, dovremmo riflettere bene prima di imbarcarci in un percorso del genere.

Le apparenze possono ingannare

Se andiamo più a fondo, troviamo diversi esempi di editori che stanno puntando a progetti collaborativi uomo-intelligenza artificiale che vengono visti come il futuro dell’editoria. Springer Nature ha recentemente annunciato la sua prima ricerca integrata con l’intelligenza artificiale e sembra che ne seguiranno molte altre. Cureus (una delle riviste di Springer Nature) sta per indire un concorso per invitare gli autori a presentare case report assistiti da ChatGPT e JMIR Publications ha recentemente pubblicato una call per raccogliere per un numero speciale articoli preparati col supporto di ChatGPT 3 Per fare scelte importanti su come rispondere correttamente all’introduzione di ChatGPT, dobbiamo rivedere una serie

26 gennaio 2023

24 gennaio 2023

t

O'Connor S, ChatGPT Open arti cial intelligence platforms in nursing education: tools for academic progress or abuse?

Nurse Education in Practice

“While current Ai language models do not produce statements reaching beyond the content of their training sets, we should ask ourselves whether this is a fundamental feature of the technology or just a temporary limitation”.

2022;66:103537.

Grimaldi G, Ehrler B AI et al. Machines are about to change scienti c publishing forever.

ACS Energy Letters 2023;8:878-80.

“As researchers dive into the brave new world of advanced Ai chatbots, publishers need to acknowledge the tools’ legitimate uses and lay down clear guidelines to avoid abuse”.

“While current Ai language models do not produce statements reaching beyond the content of their training sets, we should ask ourselves whether this is a fundamental feature of the technology or just a temporary limitation”.

Editorial. Tools such as ChatGPT threaten transparent science. Nature 2023;613:612.

Grimaldi G, Ehrler B AI et al. Machines are about to change scienti c publishing forever.

ACS Energy Letters 2023;8:878-80.

“For the Science journals, the word original is enough to signal that text written by ChatGPT is not acceptable”.

Thorp HH. ChatGPT is fun, but is not an author.

“As researchers dive into the brave new world of advanced Ai chatbots, publishers need to acknowledge the tools’ legitimate uses and lay down clear guidelines to avoid abuse”.

Science 2023; 6630:313.

Editorial. Tools such as ChatGPT threaten transparent science. Nature 2023;613:612.

“For the is text is Thorp but Science 2023;

23 www.forward.recentiprogressi.it — forward #30 31 gennaio 2023 6 marzo 2023 26
6 febbraio 2023 29 marzo
gennaio 2023 6 marzo 2023 1 aprile 2023
6 febbraio 2023 29 marzo 2023

2023

world chatbots, tools’ lay guidelines ChatGPT

di questioni fondamentali sul modo in cui intendiamo alcuni temi della scienza, tra cui la definizione di authorship, ciò che consideriamo plagio e la natura della scrittura scientifica. Solo se riusciremo a raggiungere un consenso sui valori che guidano l’editoria scientifica, avremo la possibilità di sviluppare una policy significativa e sofisticata.

Che cos’è l’authorship nella ricerca?

Per rispondere a questa domanda, dobbiamo andare al cuore del modo in cui concepiamo la authorship nel contesto della ricerca. Per rendersi conto quanto sia intricata la questione della paternità intellettuale è sufficiente pensare al tema ancora controverso di quali nomi includere e in quale ordine nelle pubblicazioni di lavori con più autori4

Authorship come responsabilità

La direttrice di Nature, Magdalena Skipper, sostiene che “l’attribuzione della paternità comporta la responsabilità del lavoro, che non può essere applicata efficacemente ai large language model”. Se i ricercatori arrivano con i loro risultati, le loro idee e il loro punto di vista e vengono aiutati ad assemblare il tutto, questo fa sì che la loro ricerca non sia più originale o che non ne siano più responsabili?

L’authorship significa che gli autori elencati debbano scrivere ogni parola, formattare ogni riferimento e inserire ogni virgola o che si assumano la responsabilità del prodotto finale?

Gli autori potrebbero potenzialmente assumersi la responsabilità di rivedere e controllare le idee prodotte dai large language model? Anche se gpt genera parte dei dati o della narrativa di uno studio, i “prompt engineers” umani si assumerebbero comunque l’onere di fornire il prompt stesso e garantire la veridicità delle informazioni attraverso la propria revisione critica e le proprie revisioni.

Le raccomandazioni della World association of medical editors (Wame) sostengono che i chatbot non possono soddisfare i criteri di authorship dell’International committee of medical journal editors, in particolare il “fi-

26 gennaio 2023

“For the Science journals, the word original is enough to signal that text written by ChatGPT is not acceptable”.

Thorp HH. ChatGPT is fun, but is not an author. Science 2023; 6630:313.

nal approval of the version to be published” e l’“agreement to be accountable for all aspects of the work in ensuring that questions related to the accuracy or integrity of any part of the work are appropriately investigated and resolved”. Tuttavia, questa definizione richiede un’onesta riflessione e un’autovalutazione. Dopo tutto, sono molti gli autori che contribuiscono ad articoli (come gli studenti) senza avere l’ultima parola sull’approvazione finale della versione da pubblicare e non sono responsabili di “all aspects of the work”.

L’authorship come contributo sostanziale

Oltre alla responsabilità per il lavoro prodotto, le linee guida Cope richiedono un “contributo sostanziale al lavoro”. Nella tassonomia Credit del contributo dell’autore, ci sono 14 modi diversi per dare un contributo significativo che meriti la paternità di un articolo e direi che ChatGPT potrebbe dare un contributo significativo in almeno dieci di essi. Gli autori potrebbero potenzialmente contribuire in modo significativo ed essere ritenuti responsabili, pur affidandosi ampiamente a ChatGPT sia come fonte iniziale di informazioni sia come assistente personale dell’autore?

Cos’è il plagio nella ricerca?

16 dicembre 2022

16 dicembre 2022

Uno dei princìpi fondamentali della paternità scientifica è che idee, parole e concetti devono essere originali o correttamente attribuiti. La parola “plagio” affonda le sue radici nel latino plagiarius, “rapitore”. Se i testi non sono originali, costituiscono un plagio, un peccato capitale nell’editoria accademica. Pertanto, è opportuno chiedersi: la generazione e l’utilizzo di testi assistiti dall’intelligenza artificiale costituiscono un plagio?

4 gennaio 2023

Ancora più importante è la definizione di plagio. Se intendiamo per plagio l’appropriarsi di materiali che gli autori non hanno scritto di proprio pugno, allora la scrittura assistita dall’intelligenza artificiale dovrebbe essere considerata un plagio. Tuttavia, se per plagio si intende prendere idee da altri e spacciarle per proprie, allora ChatGPT potrebbe non essere considerato un plagio, in quanto questi testi sono nuovi e non “rubati” a qualcun altro. La scrittura accademica include intrinsecamente la costruzione di un’impalcatura basata sul lavoro precedente, attorno alla quale il ricercatore può aggiungere qualcosa di nuovo.

Cos’è la scrittura nella ricerca?

4 gennaio 2023

Se vogliamo regolamentare pesantemente l’uso delle gpt, allora forse dovremmo dare un giro di vite all’uso dei ghostwriter scientifici che svolgono gran parte del lavoro di scrittura (soprattutto nell’industria) e raramente ricevono un riconoscimento, dimenticando la paternità del loro contributo. Dovremmo anche valutare se vogliamo chiedere agli autori quali altre forme di assistenza alla scrittura basate sull’intelligenza artificiale utilizzano. Strumenti come Grammarly, Writeful e persino il controllo grammaticale di Microsoft sono molto utilizzati dagli autori. Perché l’autore dovrebbe dichiarare se ha usato per scopi linguistici ChatGPT e non altri strumenti? I ricercatori di molti settori utilizzano software e strumenti per raccogliere, organizzare e analizzare i dati senza che nessuno batta ciglio. Perché dare una risposta diversa e così viscerale a una questione che riguarda la scrittura?

24 gennaio 2023

24 gennaio 2023

O'Connor S, ChatGPT Open arti cial intelligence platforms in nursing education: tools for academic progress or abuse?

Nurse Education in Practice 2022;66:103537.

O'Connor S, ChatGPT Open arti cial intelligence platforms in nursing education: tools for academic progress or abuse? Nurse Education in Practice 2022;66:103537.

La risposta a questa domanda dipende da come funziona esattamente ChatGPT e da come viene definito il plagio. Per quanto riguarda il primo aspetto, sembra che il rischio di copiare inconsapevolmente grandi pezzi di testo direttamente da altre fonti sia remoto, anche se piccoli frammenti di frasi possono essere trovati altrove.

“While current Ai language models do not produce statements reaching beyond the content of their training sets, we should ask ourselves whether this is a fundamental feature of the technology or just a temporary limitation”.

“While current Ai language models do not produce statements reaching beyond the content of their training sets, we should ask ourselves whether this is a fundamental feature of the technology or just a temporary limitation”.

In alternativa, pensiamo a cosa succede se gli autori traggono idee da ChatGPT per una nuova ricerca o fanno analizzare i loro risultati da ChatGPT, ma scrivono l’articolo con le proprie parole: questo potrebbe essere accettato perché l’autore sta tecnicamente scrivendo?

Credo che i ricercatori che si rispettino non utilizzeranno ChatGPT come fonte primaria, così come non utilizzeranno Wikipedia in quel modo. Tuttavia, possono usarlo in una miriade di altri modi, tra cui il brainstorming, la costruzione di frasi, l’elabo -

Grimaldi G, Ehrler B AI et al. Machines are about to change scienti c publishing forever. ACS Energy Letters 2023;8:878-80.

Grimaldi G, Ehrler B AI et al. Machines are about to change scienti c publishing forever. ACS Energy Letters 2023;8:878-80.

31 gennaio 2023

31 gennaio 2023

“Nonhuman artificial intelligence, language models, machine learning, or similar technologies do not qualify for authorship”.

“Nonhuman artificial intelligence, language models, machine learning, or similar technologies do not qualify for authorship”.

Flanagin A, et al. Nonhuman “ uthors” and implications for the integrity of scienti c publication and medical knowledge.

Flanagin A, et al. Nonhuman “ uthors” and implications for the integrity of scienti c publication and medical knowledge.

JAMA 2023;329:637-9.

JAMA 2023;329:637-9.

6 febbraio 2023

6 febbraio 2023

“After all, can you really be sure that what you are currently reading was written by human authors?”.

“After all, can you really be sure that what you are currently reading was written by human authors?”.

Liebrenz M, et al. Generating scholarly content with ChatGPT. Lancet Digital Medicine 2023;3: 105-6.

Liebrenz M, et al. Generating scholarly content with ChatGPT. Lancet Digital Medicine 2023;3: 105-6.

“As researchers dive into the brave new world of advanced Ai chatbots, publishers need to acknowledge the tools’ legitimate uses and lay down clear guidelines to avoid abuse”.

Editorial. Tools such as ChatGPT threaten transparent science. Nature 2023;613:612.

“As researchers dive into the brave new world of advanced Ai chatbots, publishers need to acknowledge the tools’ legitimate uses and down clear guidelines to avoid abuse”. Editorial. Tools such as ChatGPT threaten transparent science. Nature 2023;613:612.

6 marzo 2023

6 marzo 2023

“We look forward to learning more about how ChatGPT and similar generative Ai technologies can be used in the medical education context”.

“We look forward to learning more about how ChatGPT and similar generative Ai technologies can be used in the medical education context”.

Eysenbach G. The role of ChatGPT, generative language models, and arti cial intelligence in medical education: a conversation with ChatGPT and a call for papers.

Eysenbach G. The role of ChatGPT, generative language models, and arti cial intelligence in medical education: a conversation with ChatGPT and a call for papers.

JMIR Medical Education 2023;9:e46885.

JMIR Medical Education 2023;9:e46885.

forward #30 — CHATGPT — 2 / 2023 24
t
29 “The of the researchers accuracy, reliability and in collaborative essential quality American Why for The 2023;2958.
1 aprile 2023 “The use of Ai to write
29 marzo 2023 “The complex and nuanced nature
science.

2023

dive world chatbots, tools’ lay guidelines ChatGPT science.

razione di dati e altro ancora. L’onere della responsabilità per la veridicità delle informazioni ricade ancora sul ricercatore, ma questo non significa che dobbiamo affrettarci a vietare la consultazione di Wikipedia perché alcuni potrebbero usarla come scorciatoia. L’adozione di una politica rigida, come quella adottata da Science, sembra ignorare la grande maggioranza dei ricercatori che agisce in buona fede e che vuole semplicemente utilizzare questi strumenti per portare avanti il proprio lavoro.

Il costo della nostra paura: far perdere agli autori non di madre lingua inglese l’opportunità di una concorrenza alla pari

Gli editori che vietano ChatGPT perdono un’opportunità unica di far concorrere alla pari gli autori eal. ChatGPT può essere utilizzato in molti modi per contribuire a migliorare la scrittura scientifica in modo significativo e limitarne l’uso lascia questi autori in una posizione di notevole svantaggio. D’altra parte, gli editori che colgono l’opportunità di sfruttare questi strumenti per supportare gruppi di lavoro internazionali possono avviare collaborazioni con ricercatori di comunità distanti o poco coinvolti a causa del loro svantaggio linguistico, aumentando la diversità nella rappresentazione della comunità della ricerca.

Ma non solo, un approccio rigido potrebbe anche rivelarsi un boomerang e ridurre la trasparenza da parte degli autori. Ecco solo alcune delle considerazioni che vale la pena fare:

26 gennaio 2023

2. ChatGPT è già stato integrato in Bing Chat e presto lo sarà anche in Microsoft Word. Vietare questo strumento potrebbe voler dire, in poco tempo, vietare l’uso dei programmi di ricerca e di videoscrittura. È inoltre molto difficile definire con esattezza l’uso di ChatGPT in un determinato studio, come richiesto da alcuni editori, così come è quasi impossibile per gli autori descrivere in dettaglio l’uso di Google nell’ambito della loro ricerca. La linea guida di Wame di “declare the specific query function used with the chatbot” sembra richiedere un onere di documentazione non realistico.

3. I ricercatori di molti settori utilizzano già una miriade di strumenti di intelligenza artificiale come Elicit, Semantic Scholar e Scite. Dobbiamo tornare indietro e ritirare quei lavori perché hanno usato strumenti di intelligenza artificiale senza una corretta attribuzione?

Conclusioni: come vogliamo che davvero si comportino i nostri ricercatori

La proliferazione di potenti strumenti di intelligenza artificiale ci spinge a porci domande fondamentali su come percepiamo il ruolo dei ricercatori in generale e il ruolo specifico che la scrittura svolge nel loro lavoro. In altre parole, fino a che punto dovrebbe interessarci che gli autori scrivano ogni parola della propria ricerca?

Sono dell’idea che, almeno nel contesto delle discipline stem (scienza, tecnologia, ingegneria e matematica), il processo di scrittura è un mezzo per raggiungere il fine di trasmettere risultati importanti in modo chiaro e coerente. Se possiamo farlo in modo più rapido ed economico, allora forse dovremmo soffermarci a considerare i potenziali benefici. Avremmo bloccato la ricerca covid, che ha salvato diverse vite umane, perché il ricercatore aveva chiesto aiuto a uno strumento di intelligenza artificiale?

In questo contesto potrebbe esserci spazio per una distinzione importante tra le discipline umanistiche e sociali e quelle scientifiche stem. Posso vedere una giustificazione per politiche più severe nei casi in cui la scrittura è una parte essenziale della ricerca o negli studi etnografici e qualitativi in cui il ruolo dell’autore influisce sulla natura dello studio. È necessario riflettere ulteriormente sul modo in cui legiferiamo sull’uso degli strumenti di intelligenza artificiale e su un livello più granulare.

Come premessa di base, suggerisco che gli editori incoraggino i ricercatori a utilizzare tutti gli strumenti a loro disposizione per rendere il loro lavoro il più accessibile e d’impatto, continuando a educarli e formarli su come trovare, valutare e verificare le informazioni. Allo stesso tempo, gli editori devono accelerare la riforma della peer review, per essere pronti a gestire i confini ancora più torbidi tra novità e cose note – e tra fatti e finzione. F

similar technologies context”.

ChatGPT,

“For the Science journals, the word original is enough to signal that text written by ChatGPT is not acceptable”.

Thorp HH. ChatGPT is fun, but is not an author. Science 2023; 6630:313.

1. Un recente sondaggio di Nature ha rilevato che l’80 per cento degli autori ha già “giocato” con ChatGPT. Molti di questi autori non sapranno quale sia la politica di un determinato editore e potrebbero inconsapevolmente “essere protagonisti di una cattiva condotta scientifica non diversa dall’alterazione di immagini o dal plagio di opere esistenti”. Vogliamo davvero criminalizzare i ricercatori che non leggono i termini e le istruzioni per gli autori riportate in caratteri minuscoli?

29 marzo 2023

“The complex and nuanced nature of scientific research requires the expertise and input of human researchers who can ensure the accuracy, validity, and reliability of scientific claims and findings, as well as engage in the iterative and collaborative process that is essential for producing high quality scientific manuscripts”. American cademy of amily hysicians. Why ChatGPT hould ot e sed to rite cademic cientific anuscripts for ublication.

The Annals of Family Medicine 2023;2958.

1. Per inquadrare l’argomento dei paper mill (agenzie che fabbricano a pagamento articoli da proporre a riviste scienti che): Caminiti C, De Fiore L. Gli articoli scienti ci fabbricati: servono soluzioni di sistema. Recenti Prog Med 2023;114:148-53.

1 aprile 2023

“The use of Ai to write scientific papers is clearly unethical, and its accuracy is currently in doubt. Generally speaking, writing is only a small part of the overall research”.

Chen TJ. ChatGPT and other arti cial intelligence applications speed up scientific writing. Journal of the Chinese Medical Association 2023;86:351-3.

2. La casa editrice Hindawi –acquisita nel 2022 da Wiley – ha identi cato circa 1200 articoli falsi pubblicati negli anni scorsi su proprie riviste e ha avviato un piano per la progressiva retraction di questi lavori. IOP è la casa editrice dell’Institute of physics e ha anch’essa deciso di ritirare 494 articoli che un comitato indipendente ha giudicato prodotti in modo fraudolento da agenzie. Per approfondire: http://retractionwatch.com/

3. JMIR Publications è un Gruppo editoriale nato a partire dal Journal of medical internet research, rivista con impact factor tra 7 e 8.

4. Per farsi un’idea: De Fiore L. Chi è l’autore di un articolo scienti co? Recenti Prog Med 2023;114:773-8.

Questo articolo è stato pubblicato su Scholarly Kitchen il 31 marzo 2023 ed è stato tradotto e pubblicato su Forward grazie a un accordo con l’autore, che ringraziamo per la sua disponibilità.

25 www.forward.recentiprogressi.it — forward #30

Gutenberg, Marmot E LA MODERNITÀ

“Devo confessare che ho cercato di resistere a lungo al progresso tecnologico: possiedo una penna molto elegante e nutro una vera passione per i fogli di carta, ma alla ne ho dovuto rassegnarmi e tirar fuori un altro tipo di fogli per procurarmi un amico elettronico. Una delle ragioni che mi hanno spinto al grande passo è che non riuscivo più a sopportare il fastidio di compilare i riferimenti bibliograci alla ne di ogni articolo. Il mercato o re diversi sistemi per archiviare riferimenti bibliogra ci: se desiderate un elenco completo dovrete cercarlo altrove”.

Chi scrive è Sir Michael Marmot, autore di un capitolo di un libro pubblicato dal British Medical Journal (allora si chiamava ancora così: era il 1990) e dal Pensiero Scientifico Editore (ormai è chiaro: siamo cresciuti nel culto di autori come lui).

Ma cosa c’entra il computer di Marmot con ChatGPT? C’entra per sottolineare come l’introduzione dell’innovazione nel quotidiano raramente è una cosa semplice e molto spesso comporta una dose di sofferenza. Marmot spiegava ai suoi (e nostri) lettori le meraviglie delle prime versioni dei programmi per la redazione delle bibliografie, avvertendo che inizialmente questo nuovo modo di procedere aveva comportato “un drastico calo” della sua produzione scientifica, precisando però che questo si era verificato per ogni sua precedente nuova esperienza con il computer: “Una volta superata la fase di noviziato ho finito con l’apprezzare i vantaggi del progresso. Oggi tutti i miei riferimenti bibliografici sono al sicuro nell’hard disk del mio portatile Toshiba, che mi permette di consultarli persino quando sono in viaggio. (Questo, tra l’altro, mi impedisce di pensare a quale parte dell’aereo si incendia per prima in caso di atterraggio d’emergenza non riuscito)”.

In definitiva, abbiamo recuperato in archivio la fotografia di quello che in Silicon Valley chiamano “il Momento Gutenberg”.

Per spiegare di cosa si tratta a chi non ne avesse mai sentito parlare (in effetti, è un’esperienza familiare soprattutto per chi lavora nell’editoria e nella comunicazione), dobbiamo fare un altro salto all’indietro, stavolta molto più lungo di quello precedente. Siamo a metà del Quattrocento a Magonza, nell’attuale Germania. Come ha spiegato – tra tante e tanti autrici e autori – Elizabeth Eisenstein nei due volumi di “The printing press as an agent of change”1 all’intuizione di Gutenberg seguì un insieme di vere e proprie rivoluzioni. Dalla Riforma protestante all’epocale cambiamento che sintetizziamo sotto al nome di Rinascimento fino alla rivoluzione scientifica: poter disporre di libri come strumenti essenziali di conoscenza fu un fattore decisivo per innescare un processo di straordinario rinno-

vamento. La possibilità di riprodurre in modo relativamente facile dei contenuti rendendoli disponibili a un pubblico sempre più ampio permetteva una circolazione delle idee che alimentava a sua volta ulteriori riflessioni, ricerche, studi e approfondimenti. E – cosa da tenere a mente – mettendo progressivamente in discussione ruoli e gerarchie.

Secondo la direttrice dell’Institute for future californiano, Marina Gormis, “stiamo vivendo il nostro Momento Gutenberg, un momento di trasformazione degli strumenti fondamentali per creare, esprimere e condividere informazioni, idee e conoscenze”2. È come l’invenzione della stampa: la crescita e il miglioramento qualitativo degli strumenti di comunicazione digitale porterà probabilmente a molteplici rivoluzioni nel modo in cui governiamo, impariamo e organizziamo la nostra economia.

Stiamo vivendo il nostro Momento Gutenberg, un momento di trasformazione degli strumenti fondamentali per creare, esprimere e condividere informazioni, idee e conoscenze. — Marina

In ambiti diversi – dall’editoria alla sanità – ci si chiede il perché della resistenza che spesso caratterizza le reazioni a queste spinte di rinnovamento. È una questione approfondita da tanti autori, al punto che una nota di poche righe sembrerà comunque inadeguata a descrivere la complessità della questione. Ma è davanti gli occhi di tutti come i cambiamenti negli strumenti e nelle tecnologie di comunicazione di base siano capaci di mettere in discussione le dinamiche di potere esistenti, ridefinendo le gerarchie tra i gruppi sociali che hanno capacità e diritto di esprimersi, di dar forma alle narrazioni dominanti e influenzare il modo in cui pensiamo e agiamo.

“Dobbiamo immaginare e costruire modelli di nuovi assetti istituzionali e modi di governare una società democratica, date le capacità e le sfide tecnologiche di oggi” ha scritto Gormis. Potenzialmente la posta in gioco è molto alta e c’è il sospetto che sia proprio questo risultato – in linea ancora teorica davvero rivoluzionario – a innescare le reazioni prudenti o conservatrici di buona parte dei cosiddetti stakeholder. Che, se usassimo l’italiano, definiremmo “portatori di interessi”. Espressione che non è molto amata, come sappiamo: perché è sempre meglio far finta che non esistano interessi che ci proteggano dal cambiamento.

Luca De Fiore

forward #30 — CHATGPT — 2 / 2023 26
1. Eisenstein EL. The printing press as an agent of change. Cambridge University Press, 1980. 2. Gorbis M. Our Gutenberg moment. Lessons from the deep past can help us shape what’s to come. Stanford Social Innovation Review, 15 marzo 2017.

CHATGPT potrebbe rendere inutili LE REVISIONI SISTEMATICHE?

Prima di provare a rispondere alla domanda espressa dal titolo, ho deciso di chiederlo al diretto interessato, il quale mi ha risposto (con molta umiltà devo dire): “I risultati forniti da un modello di intelligenza artificiale come me non sono equiparabili a una revisione sistematica condotta da ricercatori esperti”.

La prima versione di ChatGPT (OpenAI, San Francisco, CA) è stata rilasciata il 30 novembre 2022; si tratta di un large language model, un modello di intelligenza artificiale (Ia) addestrato con una grande mole di dati in grado di interagire, attraverso il linguaggio umano, con l’utente e di apprendere nuove conoscenze dal feedback ricevuto.

Dunque, uno strumento così potente e in grado di migliorarsi potrebbe mandare in pensione le revisioni sistematiche?

Le limitazioni

Le revisioni sistematiche sono strumenti alla base dell’evidence-based medicine, in grado di riassumere le evidenze disponibili su un determinato argomento e così anche ChatGPT presenta un ottimo livello di competenza; ad esempio, ha superato esami per studenti di medicina1 ed è in grado di riassumere le nozioni acquisite in un testo. Le sue conoscenze non rappresentano però lo stato dell’arte in quanto il set di dati su cui ChatGPT è addestrato si ferma a settembre 2021; non rispetta, inoltre, uno dei punti chiave della definizione di revisione sistematica della Cochrane collaboration: “I metodi devono essere espliciti e

riproducibili”. ChatGPT è stato addestrato su un set di dati sconosciuto, il che genera dubbi sulla trasparenza, accuratezza e sui possibili bias introdotti. Inoltre, con il susseguirsi delle versioni di ChatGPT, una risposta fornita da una versione potrebbe non corrispondere alla risposta ottenuta con un’altra. Ci sono quindi problemi di trasparenza, in aggiunta considerazioni etiche sull’authorship e sul valore dell’esperienza umana devono essere portate avanti parallelamente2,3

Riguardo alla trasparenza delle conoscenze di ChatGPT, è possibile interrogarlo sulle fonti delle quali si è servito, con il rischio però di incappare in “fake references”: dei veri e propri riferimenti bibliografici “falsi” forniti dal modello che non trovano riscontro nei database online. L’essenza stessa di ChatGPT, il suo essere un modello generativo, lo spinge a creare dei riferimenti plausibili (autori che hanno pubblicato lavori su argomenti simili, titoli pertinenti, fino addirittura alla generazione di codici doi) ma inesistenti. Haman e Skolnik, attraverso una prova empirica, hanno individuato il 66 per cento dei riferimenti come inesistenti4

Questo fenomeno è ormai abbastanza diffuso: su Twitter, alcuni bibliotecari hanno dichiarato di aver ricevuto da parte di numerosi studenti la richiesta di recupero di articoli scientifici forniti da ChatGPT che di fatto non esistevano. Uscendo per un attimo dall’ambito biomedico, di recente un avvocato americano ha portato in aula dei testi inesistenti suggeriti da ChatGPT5

Questi riferimenti fasulli vengono generati a seguito di fenomeni denominati “hallucinations”6, delle vere e proprie allucinazioni artificiali che creano output plausibili ma inesistenti; derivano da bias, mancanza di comprensione del mondo reale o magari da una limitazione del set su cui il modello è stato addestrato.

Le funzioni

L’essenza stessa di ChatGPT, il suo essere un modello generativo, lo spinge a creare dei riferimenti plausibili ma inesistenti.

cinati”), ha una buona conoscenza dei caratteri booleani, può essere inoltre di aiuto nella conversione della stringa di ricerca da un database bibliografico all’altro.

Con l’avvento di GPT-4 e l’utilizzo dei plugin, ChatGPT ha ampliato il numero delle sue funzioni, ad esempio, ScholarAI7 mira a correggere il problema delle false citazioni fornendo il database Springer Nature a ChatGPT; altri plugin ancora come AskYourPdf8 e Chat with PDF9 consentono all’utente di fornire un file pdf a ChatGPT e poter chiedere qualsiasi cosa a riguardo: dal PICO a un riassunto, dall’estrazione dati alla loro analisi.

Nella sua forma attuale ChatGPT è un ottimo alleato nella creazione di una revisione sistematica, ma da utilizzarsi cum grano salis.

Se quindi per una rassegna sistematica è in grado di fornire un supporto notevole al revisore, nelle revisioni della letteratura non sistematiche, ChatGPT ha dimostrato di sapersela cavare egregiamente anche “in autonomia”. Uno studio lo ha testato per scrivere una revisione delle letteratura scientifica sulle applicazioni del gemello digitale (digital twin) in ambito sanitario. Gli abstract ottenuti dai risultati della ricerca degli articoli pubblicati dal 2020 al 2022 sono stati forniti a ChatGPT con il compito di riassumerli e integrarli con altre conoscenze che aveva a priori10: il risultato è stato sorprendente con ChatGPT che ha redatto l’intero testo commentando i lavori forniti e integrandoli.

Dunque ChatGPT è uno strumento formidabile che in pochi mesi ha rivoluzionato il mondo del lavoro e non solo. Nella sua forma attuale si presenta come un ottimo alleato nella creazione di una revisione sistematica, ma da utilizzarsi cum grano salis F

1. Gilson A, et al. JMIR Med Educ 2023;9:e45312.

2. O’Connor S. Nurse Educ Pract 2023;66:103537.

3. Stokel-Walker C. Nature 2023;613: 620-1.

4. Haman M, Školník M. Account Res 2023;1-3.

Davide Petri Dipartimento di ricerca traslazionale e delle nuove tecnologie in medicina e chirurgia Università di Pisa

Ma non ci sono solo limitazioni, anzi. Nella conduzione di una revisione sistematica, ChatGPT può rivelarsi un alleato molto valido: dalla stesura dell’articolo, alla correzione dell’inglese fino a un prezioso supporto nelle singole fasi della revisione. Ad esempio, può rivelarsi molto utile nella formulazione del quesito di ricerca, è in grado di suggerire un’iniziale stringa di ricerca (attenzione però a non fidarsi ciecamente, è stato visto come alcuni termini MeSH di PubMed siano “allu-

5. Kathrin A. ChatGPT: US lawyer admits using AI for case research. Bbc News, 27 maggio 2023.

6. Homolak J. Croat Med J 2023;64:1-3.

7. Scholar-AI –scholar-ai.net

8. AskYourPdf –www.askyourpdf.com

9. Chat with PDF –www.hipdf.com/chatwith-pdf

10. Aydın Ö, Karaarslan E. In Ö. Aydın (ed.), Emerging computer technologies 2 (pp. 22-31), 2022. İzmir Akademi Dernegi.

27 www.forward.recentiprogressi.it — forward #30
Più che renderle inutili potrebbe migliorarle, se non ha le allucinazioni

COSA PUÒ OFFRIRE l’intelligenza artificiale generativa allo SVILUPPO DI NUOVI FARMACI

Èda anni che il progresso tecnologico ci guida in nuove importanti soluzioni, il covid ha comportato un’accelerazione dei processi di digitalizzazione in molti campi. Nel nostro caso, le nuove tecnologie hanno permesso di “sburocratizzare” i processi e renderli sempre più agili grazie a tool e piattaforme nuove, restituendo più tempo a pazienti e medici.

Nello specifico soluzioni di intelligenza artificiale (Ia) generativa e chatbot segnano una nuova frontiera e aprono ad una finestra di opportunità. Queste tecniche hanno un importante potenziale, a condizione che vengano utilizzate consapevolmente. In Kyowa Kirin, dove innovazione e integrità sono due valori basilari, sono già state condivise delle linee guida per l’utilizzo dell’Ia.

L’impiego di Ia generativa può favorire lo sviluppo di farmaci in diversi campi:

■ Scoperta di principi attivi: i modelli di Ia, come le reti generative avversarie e gli autoencoder variazionali, possono imparare dai dati sui farmaci esistenti e generare nuove molecole con proprietà ottimizzate.

■ Ottimizzazione delle molecole: una volta identificato un potenziale candidato, i modelli di Ia possono generare variazioni del composto principale e prevederne le proprietà, accelerando lo sviluppo di candidati farmaci più efficaci e sicuri.

■ Screening virtuale di grandi librerie di composti potrebbero agevolare l’identificazione di molecole che interagiscono con un bersaglio o una proteina specifica, dando priorità a questi composti per un’ulteriore validazione sperimentale, risparmiando tempo e risorse.

Soluzioni di intelligenza arti ciale generativa e chatbot segnano una nuova frontiera e aprono ad una nestra di opportunità, a condizione che vengano utilizzate consapevolmente.

■ Progettazione di farmaci ex novo: sfruttando tecniche di apprendimento profondo e di rinforzo, i modelli di Ia possono proporre nuove strutture chimiche ottimizzate per specifiche attività biologiche.

■ Polifarmacologia e terapia di combinazione: l’Ia generativa può aiutare nella progettazione di farmaci multi target o di terapie combinate verso più meccanismi patologici o con l’identificazione di combinazioni di farmaci sinergici.

■ Modellazione predittiva e ottimizzazione delle proprietà dei farmaci: assorbimento, distribuzione, metabolismo ed escrezione, la tossicità e l’efficacia possono essere predetti con modelli costruiti dall’Ia generativa.

È bene però fare delle considerazioni cautelative: l’uso dell’Ia generativa nello sviluppo di farmaci è ancora in evoluzione e le previsioni generate richiedono un’ampia validazione sperimentale prima di poter essere considerate come potenziali farmaci. I sistemi di Ia come ChatGPT sono strumenti creati dall’uomo e il loro utilizzo e impatto dipendono da come vengono impiegati e regolamentati. Promuovendo lo sviluppo, la diffusione e l’utilizzo responsabile dell’Ia, possiamo massimizzare i potenziali benefici e mitigare i potenziali rischi. F

29 www.forward.recentiprogressi.it — forward #30

In PRONTO sono meglio io

ChatGPT ha recentemente superato l’esame di abilitazione alla professione medica negli Stati Uniti, ma usarlo per fare diagnosi nel mondo reale si rivelerebbe un disastro. Ecco cosa è successo quando un medico di pronto soccorso ha chiesto a ChatGPT di formulare una diagnosi ai suoi pazienti.

Alla notizia che ChatGPT aveva superato con successo l’esame di abilitazione alla professione medica negli Stati Uniti, ero curioso di sapere come si sarebbe comportato in una situazione clinica reale. Essendo un sostenitore dell’uso dell’intelligenza artificiale per migliorare la qualità e l’efficienza dell’assistenza sanitaria, volevo vedere come quest’ultima versione di ChatGPT potesse essere uno strumento per la mia pratica clinica.

ChatGPT fornisce risposte rapide sulla base della conoscenza recuperata con un processo simile a quello di Google. Ma nel mondo reale la maggior parte dei casi di pazienti non rientra tra i classici casi clinici.

Così, la scorsa settimana, alla fine dei miei abituali turni al pronto soccorso, ho reso anonime le mie note sulle anamnesi di 35-40 pazienti – in pratica, la descrizione medica dettagliata della storia clinica di ogni persona e dei sintomi che l’hanno portata al pronto soccorso – e le ho inserite in ChatGPT.

La domanda specifica che ho fatto a ChatGPT è stata: “Quali sono le diagnosi differenziali per questo paziente che si è presentato al dipartimento d’emergenza [inserire qui le informazioni sulla anamnesi della malattia attuale del paziente]?”.

I risultati sono stati interessanti, ma anche piuttosto inquietanti.

Il chatbot di OpenAI ha fatto un discreto lavoro nel far emergere diagnosi comuni che non avrei voluto perdere, a patto che tutto ciò che gli avevo detto fosse preciso e altamente dettagliato. Ad esempio, per diagnosticare correttamente a un paziente il “gomito della balia” (pronazione dolorosa del gomito, ndr) sono state necessarie circa 200 parole; per identificare la frattura blow-up della parete orbitaria di un altro paziente sono servite tutte le 600 parole della mia anamnesi.

nito una diagnosi differenziale di appendicite o cisti ovarica, tra le altre possibilità. Ma il ChatGPT ha mancato una diagnosi piuttosto importante per questa donna.

Si trattava di una gravidanza ectopica, in cui un feto malformato si sviluppa nelle tube di Falloppio e non nell’utero. Se diagnosticata troppo tardi, può essere fatale, con conseguente morte per emorragia interna. Fortunatamente per la mia paziente, siamo riusciti a portarla subito in sala operatoria per un intervento.

In particolare, quando era venuta al pronto soccorso, questa paziente non sapeva nemmeno di essere incinta. Non si tratta di uno scenario atipico, e spesso emerge solo dopo aver chiesto gentilmente informazioni: “È possibile che sia incinta?”. A volte la paziente risponde con qualcosa del tipo: “Non è possibile”. “Ma come fa a saperlo?”. Se con questa risposta alla nostra domanda esplorativa la paziente non sottintende che ha la spirale o una specifica condizione medica, è più probabile che ci stia dicendo che per una serie di motivi non vuole pensare di poter essere incinta. (Anche in questo caso, non si tratta di uno scenario raro: circa l’8 per cento delle gravidanze scoperte al pronto soccorso sono di donne che dichiarano di non essere sessualmente attive).

Ma esaminando le ipotesi diagnostiche di ChatGPT, ho verificato che niente poteva suggerire che la mia paziente fosse incinta. ChatGPT non sapeva nemmeno di doverlo chiedere.

Per circa la metà dei miei pazienti, ChatGPT ha suggerito sei possibili diagnosi. E la diagnosi “giusta” – o almeno quella che ritenevo giusta dopo una valutazione e un’indagine complete – era una delle sei proposte da ChatGPT. Non male. D’altra parte, nel contesto di un pronto soccorso anche una percentuale di successo del 50 per cento non è ammissibile.

La performance peggiore di ChatGPT si è verificata con una paziente di 21 anni arrivata al pronto soccorso con un dolore addominale al quadrante inferiore destro. Ho inserito la sua anamnesi in ChatGPT che ha subito for-

Il mio timore è che innumerevoli persone stiano già usando ChatGPT per autodiagnosticarsi una malattia piuttosto che rivolgersi a un medico. Se la mia paziente in questo caso lo avesse fatto, la risposta di ChatGPT avrebbe potuto causare la sua morte.

ChatGPT ha anche sbagliato la diagnosi in diversi altri pazienti in condizioni pericolose per la vita. Ha suggerito correttamente che uno di loro aveva un tumore al cervello, ma non ha individuato altri due pazienti che avevano anch’essi un tumore. A un altro paziente con dolore addominale ha diagnosticato un calcolo renale, ma non ha previsto che in realtà il paziente aveva una rottura dell’aorta (e successivamente è deceduto sul tavolo operatorio).

forward #30 — CHATGPT — 2 / 2023 30

SOCCORSO

In breve, ChatGPT ha funzionato piuttosto bene come strumento diagnostico quando gli ho passato delle informazioni precise e il paziente rientrava tra i casi clinici comuni. Questo è probabilmente il motivo per cui ChatGPT ha “superato” i casi clinici all’esame di abilitazione all’esercizio della professione medica. Non perché sia “intelligente”, ma perché i casi classici dell’esame hanno una risposta deterministica che è già presente nel suo database. ChatGPT fornisce rapidamente le risposte in un formato di linguaggio naturale (questa è la parte veramente impressionante) ma sotto c’è un processo di recupero della conoscenza simile a quello di Google. Ma nel mondo reale la maggior parte dei casi di pazienti non rientra tra i classici casi clinici.

Il mio esperimento ha illustrato come gran parte di ogni incontro medico consista nel capire la corretta narrazione del paziente. Se qualcuno arriva al mio pronto soccorso dicendo che ha dolore al polso, ma non è dovuto a un incidente recente, potrebbe essere una reazione psicosomatica dopo che il nipote del paziente è caduto, o potrebbe essere dovuto a una malattia a trasmissione sessuale, o a qualcos’altro ancora. L’ars medica consiste nel trarre tutte le informazioni necessarie per costruire la giusta narrazione.

ChatGPT potrebbe comunque lavorare come assistente del medico, leggendo automaticamente gli appunti presi durante l’incontro con i pazienti e nel corso del trattamento e suggerendo delle difformità? È possibile. Ma il mio timore è che questo possa introdurre esiti ancora peggiori.

Se le note sul paziente non includono una domanda che non ho ancora posto, l’output di ChatGPT mi incoraggerà a continuare a non porre quella domanda. Come nel caso della mia giovane paziente che non sapeva di essere incinta. Se non mi fosse venuta subito in mente una possibile gravidanza ectopica, ChatGPT avrebbe continuato a confermare quell’omissione, restituendomi solo le cose che ritenevo ovvie – convalidando con entusiasmo i miei pregiudizi come lo yes-man più pericoloso del mondo.

Tutto ciò non suggerisce che l’intelligenza artificiale non abbia un posto potenzialmente utile in medicina: ce l’ha.

Come medico la mia conoscenza è limitata dal numero di pazienti che posso curare personalmente. Mi aspetto di vedere circa 10mila pazienti nella mia vita, ognuno dei quali ha una massa corporea, una pressione sanguigna, un’anamnesi familiare e così via – un’enorme varietà di caratteristiche di cui tengo traccia nella mia mente. Ogni essere umano ha innumerevoli variabili che sono rilevanti per la propria salute, ma come medico in carne e ossa che lavora in finestre di tempo definite, mi concentro sui diversi fattori che tendono a essere quelli “storicamente” più importanti.

Quindi, ad esempio, se esamino le analisi del sangue di un paziente e vedo livelli elevati di emoglobina glicata, diagnostico che probabilmente è ai primi stadi del diabete. Ma cosa succederebbe se potessi tenere traccia delle innumerevoli variabili relative alla

salute della persona e confrontarla con altre persone simili per tutte le milioni di variabili, non solo in base all’emoglobina glicata? Forse allora potrei riconoscere che gli altri 100mila pazienti che assomigliavano a questo paziente che sto visitando hanno avuto un miglioramento della propria salute quando hanno iniziato a mangiare più broccoli.

Questo è lo spazio in cui l’utilità dell’intelligenza artificiale può migliorare, elaborando instancabilmente le innumerevoli caratteristiche di ogni paziente che ho trattato, e di ogni altro paziente trattato da ogni altro medico, fornendoci indicazioni importanti grazie all’ampiezza dello sguardo. In questo l’intelligenza artificiale può aiutare, ma prima dovrà essere alimentata da milioni di serie di dati sui pazienti portatori di tutte queste informazioni, di tutto ciò che i pazienti hanno fatto (per esempio prendere un determinato farmaco) e gli esiti.

Nel frattempo, è necessaria e urgente una visione molto più realistica da parte della Silicon Valley e del pubblico in generale di ciò che l’intelligenza artificiale sia in grado di fare ora – e dei suoi molti limiti, spesso pericolosi. Dobbiamo fare molta attenzione a riporre aspettative eccessive su programmi come ChatGPT perché, nel contesto della salute umana, possono essere letteralmente pericolosi per la vita. F

Questo articolo è la traduzione dell’articolo di Josh Tamayo-Sarver pubblicato su Inflect Health – Medium con il titolo “I’m an ER doctor: Here’s what I found when I asked ChatGPT to diagnose my patients”. Per gentile concessione dell’autore, che ringraziamo per la sua disponibilità.

31 www.forward.recentiprogressi.it — forward #30

Caro ChatGPT, sei quello che siamo

Ragionando sulla relazione medico-chatbot-paziente

Guardiamo le schermate di ChatGPT come se fosse uno specchio magico. E un po’ è vero, è come se ci guardassimo da lontano, in fondo ChatGPT siamo noi con tutte le cose buone e cattive che abbiamo generato e che sono finite sul web. Ma ChatGPT non cerca in un database, genera parole in modo raffinato, con uno stile che può essere quello di un bambino o quello di un professionista specializzato.

La spettacolarità di questa piattaforma si deve proprio al suo meccanismo: come fa a trovare le informazioni giuste se non è un motore di ricerca? Somiglia davvero al meccanismo che usa l’uomo per comunicare? Se provate a chiedere a questa piattaforma una diagnosi differenziale a partire da un quadro clinico, la risposta è generalmente abbastanza precisa. Se chiedete di suggerire un piano di cura, anche.

Ma dove è difficile essere migliori, è la capacità della piattaforma di generare un testo che spieghi al paziente in cosa consiste la sua malattia e quali sono le sue prospettive. Di fatto, questa macchina comunica, e lo fa bene. A guardare la letteratura scientifica i pazienti la preferiscono perfino all’interazione con un medico vero. Su questo dovremmo riflettere. Oltre alla cronica trascuratezza per la comunicazione con i pazienti, abbiamo tra le mani un sistema che consente davvero di avvicinarsi a una lingua universale, e non solo dal punto di vista linguistico.

Abbiamo bisogno urgente di coltivare collaborazioni interdisciplinari, ma gli attori di varie discipline non si comprendono facilmente. Date ChatGPT a un medico che ha bisogno di sviluppare un sistema elettronico per

Di fatto, questa macchina comunica, e lo fa bene. Abbiamo tra le mani un sistema che consente di avvicinarsi a una lingua universale, e non solo dal punto di vista linguistico.

ChatGPT e i medici: cosa ne pensate?* t

Alberto Tozzi scrive che “a guardare la letteratura scientifica i pazienti preferiscono ChatGPT perfino all’interazione con un medico vero. Su questo dovremmo riflettere”. Cosa pensa a riguardo?

7% Lo capisco perché ChatGPT è ormai più empatico del medico

11% Aiuta i pazienti a sentirsi più informati

57% ChatGpt non sostituisce le competenze del medico quali cato

25% Può servire anche al medico per tradurre informazioni complesse

il supporto alla diagnosi e ditegli di spiegare quello di cui ha bisogno a un ingegnere. Oppure ditegli di suggerire le linee di codice in un qualunque linguaggio informatico per costruire un programma che calcoli il dosaggio di un farmaco in un’infusione. ChatGPT lo fa. Non è un caso che cominciano a sbocciare aziende che si propongono come consulenti in grado di formulare le domande appropriate a questi sistemi.

Ma questo è solo l’inizio. Ci stiamo già lamentando del fatto che non possiamo affidarci a un sistema che genera solo parole ed ecco Glass Health, un sistema che unisce la potenza dei large language model (quelli di ChatGPT) con una base di conoscenza scientifica curata da medici. Se provate ad usarlo una volta nella pratica clinica, difficilmente ne farete a meno. La fine delle professioni specializzate e delle relazioni umane, come ha detto perfino il fondatore di OpenAI?

Proviamo a metterci su un altro piano. Noi usiamo l’intelligenza artificiale e noi la dobbiamo governare. Usiamo questi strumenti per superare la diffidenza nei confronti dei temi che non conosciamo. Facciamoci aiutare dalla tecnologia, ma soprattutto diventiamone leader. Il medico e il paziente conoscono bene le esigenze cliniche che necessitano una soluzione, partiamo da qui. Pensiamo a temi difficili come la comunicazione del rischio di malattia ai pazienti, oppure alla comprensione dei difficili documenti che accompagnano il consenso informato durante una sperimentazione clinica. E immaginiamo di poter adattare il linguaggio della comunicazione al livello di conoscenza linguistica e al livello sociale.

Finiamola di aver paura di ChatGPT come uno strumento che uccide la creatività e la ragione umana, perché in realtà ci presenta solo quello che noi abbiamo già creato. Usiamolo, troviamone i difetti, e sfruttiamone le virtù. F

Glass Health è un sistema che unisce la potenza dei large language model (ChatGPT) con una base di conoscenza scientifica curata da medici. Lo conosce? Lo ha mai testato?

63% Non lo conosco

27% Ne ho solo sentito parlare

8% Non conosco medici che lo usano

1% So di medici che lo usano

1% Sì, l’ho provato

32
Alberto E. Tozzi Pediatra ed epidemiologo Ospedale Bambino Gesù, Roma
*Gli altri risultati della survey a p. 39.

Epidemiologia e Ia generativa: una coppia rivoluzionaria

L’epidemiologia, che si occupa principalmente della descrizione, della diffusione e dei fattori di rischio responsabili delle malattie nelle popolazioni, negli ultimi decenni ha subito molti cambiamenti anche a causa della grande disponibilità di dati da analizzare. Un tempo per avere i dati bisognava costruire uno studio, oggi i dati sanitari si raccolgono in modo più o meno strutturato ed è possibile andare ad analizzarli con tecniche nuove di intelligenza artificiale (Ia). In realtà la metodologia di analisi non cambia, quello che si modifica sono le fonti e la quantità dei dati che possiamo analizzare. Con questo incremento esponenziale dei dati a nostra disposizione, l’utilizzo dell’Ia si è rivelato un mezzo prezioso nel campo della sanità pubblica e, in particolare, per la sorveglianza delle malattie, la previsione delle epidemie e l’elaborazione di decisioni in ambito sanitario, nonché lo sviluppo di vaccini. In questo scenario, l’Ia generativa – branca dell’Ia che cerca di creare dati sintetici simili a quelli usati per addestrare l’algoritmo – sta guadagnando sempre più terreno. Esplorare il potenziale e le criticità che circondano lo sviluppo futuro dell’Ia generativa nell’epidemiologia è fondamentale per comprendere l’evoluzione dei prossimi anni.

L’Ia generativa rappresenta infatti una frontiera molto promettente, con il potenziale di rivoluzionare il nostro approccio alla modellazione delle malattie, alla previsione delle epidemie e alla prognosi dei pazienti. L’Ia ha già dimostrato il suo valore in epidemiologia attraverso la sua capacità di prevedere gli esiti dei pazienti e le ondate di malattia, come visto nella recente risposta globale alla pandemia covid-191

La forza dell’Ia non risiede solo nelle sue capacità predittive, ma anche nella sue capacità di generare dati sintetici. Un’area di interesse emergente è la creazione di dati sintetici del paziente, che fornisce un modo per superare le restrizioni e le sfide associate alla condivisione dei dati sensibili, a causa delle normative sulla privacy, ad esempio, permettendo di scambiare dati fra diverse organizzazioni. Modelli di Ia generativa, come le equazioni differenziali ordinarie neurali multimodali (MultiNodes), permettono di generare traiettorie paziente sintetiche estremamente realistiche che possono essere utilizzate per ampliare l’ambito e l’applicabilità degli studi clinici2. Questi set di dati sintetici possono superare limitazioni cruciali dei loro corrispondenti reali, come valori mancanti o intervalli di valutazione irregolari, e rendere variabili da studi diversi statisticamente comparabili. Inoltre, come già detto sopra, possono funzionare da versioni anonimizzate di dati del mondo reale, mitigando le restrizioni per la condivisione dei dati umani.

Le potenziali applicazioni dei dati sintetici sono vaste. Ad esempio, i modelli generativi potrebbero sintetizzare bracci di controllo per gli studi clinici basati sui dati di studi precedenti, affrontando importanti questioni etiche in aree di malattia dove è impossibile lasciare i pazienti non trattati.

Mentre continuiamo a esplorare le capacità dell’Ia generativa in epidemiologia, dobbiamo anche affrontare le sfide associate e le considerazioni etiche. Ciò nonostante, il panorama di possibilità presentato da questa tecnologia detiene una promessa considerevole per il futuro della ricerca epidemiologica e della salute globale, che non possiamo non considerare per migliorare la salute della popolazione. F

La forza dell’Ia non risiede solo nelle sue capacità predittive, ma anche nella sua capacità di generare dati sintetici.

1. Abdulkareem M, Petersen SE. The promise of Ai in detection, diagnosis, and epidemiology for combating covid-19: beyond the hype.

Front Artif Intell 2021;4:652669.

2. Wendland P, Birkenbihl C, GomezFreixa M et al.

Generation of realistic synthetic data using multimodal neural ordinary di erential equations. NPJ Digit Med 2022;5:122.

33
Caterina Rizzo Dipartimento di ricerca traslazionale e delle nuove tecnologie in medicina e chirurgia Università di Pisa

Analfabeti del futuro

Il giudizio di Joan Fontcuberta sul nostro rapporto con le immagini è spietato. Nel suo ultimo libro “Contro Barthes. Saggio visivo sull’indice”1, non se la prende solo con uno dei più conosciuti linguisti e semiologi del Novecento ma anche con Maestri della fotografia – come Laszlo Moholy-Nagy – o intellettuali dalla personalità tanto complessa quanto universalmente riconosciuta – come Walter Benjamin. Fotografi e pubblico – scrive il fotografo e critico spagnolo – continuano a essere “illetterati nel senso delle immagini” ma in un modo nuovo: “La nostra ignoranza, l’analfabetismo più decisivo, oggi, è frutto della mancanza di abilità nei campi dell’informatica, della robotica e dell’intelligenza artificiale”. Gli algoritmi costantemente all’opera stanno rivoluzionando la realtà e la condizione stessa della fotografia attraverso programmi come DALL·E (prodotto da OpenAI, la stessa società che ha costruito ChatGPT) o Midjourney.

Di cosa stiamo parlando? Di programmi che – opportunamente guidati – costruiscono immagini che rispondono al contenuto della descrizione che l’utente progressivamente definisce insieme e “per” lo strumento di machine learning e intelligenza artificiale. Sarebbe davvero molto più semplice capire il loro funzionamento usandoli, ma possiamo immaginare una sequenza in cui chiediamo ci venga proposta “un’immagine di Joan Fontcuberta che osserva la teca in cui sono contenute le lumache nutrite con le stampe fotografiche di suoi antichi lavori” (non stiamo delirando: è l’oggetto di un lavoro del Maestro presentato nel 2015 al festival “Fotografia europea” di Reggio Emilia). DALL·E o Midjourney sono stati allenati con centinaia di milioni di immagini (foto, illustrazioni, diagrammi) e continuano a essere arricchiti dagli input di tutti i loro utenti. “I risultati di questi trasformatori – è ancora Fontcuberta che scrive – sono spettacolari e ci lasciano sbalorditi nello stesso modo in cui sicuramente lo erano coloro che, nel 1839, ebbero il privilegio di osservare i primi dagherrotipi e non sapevano se attribuirli alla magia o al miracolo”.

Molto del fascino di questi strumenti risiede nella loro capacità di evolversi a un ritmo molto rapido: ogni nuova versione rilasciata si mostra migliore della precedente e più capace di rispondere in modo appropriato ai prompt dell’utente. Quando avremo superato la fase attuale – in cui apprezziamo talvolta dei lavori meravigliosi e in altre occasioni restiamo interdetti di fronte all’ingenuità di errori o malintesi – “saremo giunti al collasso della nostra cultura visuale. Le macchine fotografiche non saranno più necessarie per creare nuovi contenuti; nel migliore dei casi saranno relegate a una funzione di vigilanza e controllo”.

Le macchine fotogra che non saranno più necessarie per creare nuovi contenuti; nel migliore dei casi saranno relegate a una funzione di vigilanza e controllo.

In alcuni ambiti questo domani è già oggi. La comunicazione scientifica è scossa da una serie di pubblicazioni caratterizzate da falsificazioni e frodi proprio di immagini ricostruite in modo grossolano o sofisticato.

Elisabeth Margaretha Harbers-Bik è una microbiologa danese che si dedica ormai a tempo pieno all’investigazione dei casi di frodi nella riproduzione dell’iconografia scientifica. Bik ha iniziato a concentrare il proprio interesse sull’integrità della scienza nel 2013, quando ha scoperto che una delle sue pubblicazioni era stata plagiata. Oggi è tra le persone più note nella “sorveglianza” sull’etica dello scientific publishing e l’uso sempre più diffuso di strumenti per la produzione di immagini sta probabilmente accrescendo il rischio di falsificazioni 2. Il lato oscuro di questi strumenti di intelligenza artificiale generativa è bilanciato dalle opportunità che la ricerca informatica in questo ambito offre e sempre più offrirà in futuro in termini di messa a punto di sistemi in grado di supportare gli editor scientifici nel lavoro di verifica della affidabilità dei contenuti sottoposti per la pubblicazione 3

L’intelligenza artificiale generativa sta provocando una vera e propria rivoluzione, uno tsunami per citare Seth Godin, uno dei più riconosciuti esperti di comunicazione e marketing. Il lavoro che attende chi lavora nella comunicazione della ricerca è mettere a fuoco nuove competenze, “competenze e capacità umane”, più rapidamente di quanto l’innovazione tecnologica cancelli l’originalità di ciò che solo noi possiamo fare. “Possiamo ancora aggiungere valore – puntualizzava Godin quando ancora l’intelligenza artificiale sembrava qualcosa di distante dal nostro quotidiano – ma dobbiamo farlo in modo diverso, più coraggioso e con sempre maggiore capacità di intuizione”4

Possiamo ancora aggiungere valore, ma dobbiamo farlo in modo diverso, più coraggioso e con sempre maggiore capacità di intuizione.

2. Lau J. The science detective on a mission to stamp out shoddy research. Times Higher Supplement, 7 aprile 2021.

Ancora una volta dobbiamo riconoscere che viviamo in tempi interessanti: se Fontcuberta prevede che “finalmente” la fotografia si affrancherà dal reale, cessando di essere mera rappresentazione dell’esistente, in ambito scientifico le cose sono meno complesse dal punto di vista – per così dire – filosofico, ma più delicate per le implicazioni etiche. Governare l’innovazione sarà una sfida quotidiana: il solo modo per non arrendersi è restar convinti di essere “svegli” almeno quanto lo è – e sempre più lo sarà – l’intelligenza artificiale. F

3. Mattina C. Ai holds potential to support ethical principles in hematology—but there’s a dark side. Am J Managed Care, 11 giugno 2022.

4. Godin S. You will not be surprised by arti cial intelligence. Seth’s blog, 18 marzo 2018.

35 www.forward.recentiprogressi.it — forward #30
1. Fontcuberta J. Contro Barthes. Saggio visivo sull’indice. Mimesis, 2023.

L’INTELLIGENZA ARTIFICIALE È IN CRISI DI D

LE DISUGUAGLIANZE E I PREGIUDIZI NEL SETTORE DELL’IA E

Un’auto a guida autonoma testata sui viali della Silicon Valley saprebbe affrontare le infrastrutture dissestate del Ghana? Il prossimo robot avrà le capacità per comunicare con una persona non vedente? Si può fare ricerca medica quando mancano i dati di ogni singolo Paese del mondo? Un sistema penale del futuro, basato su algoritmi, sarà in grado di superare i pregiudizi applicati in passato? La risposta è no. Per il momento.

Mai come in questi primi mesi del 2023 stiamo assistendo all’evoluzione rapidissima dell’intelligenza artificiale (Ia). E le discussioni e i moniti sulle derive delle sue applicazioni non sono mai apparse così realistiche. I timori non riguardano solo la minaccia alla privacy, la perdita di posti di lavoro. Ci sono rischi di natura culturale, persino emotiva, che potrebbero coinvolgere gruppi sociali molto ampi. Il tema è la rappresentazione delle diversità, il riconoscimento e la capacità di far emergere le competenze di lavoratrici e lavoratori appartenenti a minoranze. Una missione comune guida l’impegno delle comunità che aggregano persone oggi scarsamente rappresentate: abbattere i pregiudizi già innestati nella tecnologia del machine learning, nell’accesso alla ricerca e nella trasmissione della conoscenza. Il timone della rivoluzione tecnologia è senza dubbio in mano a chi già dispone di poteri decisionali ed economici. Saranno proprio coloro che celebriamo come innovatori i più ostinati conservatori?

Un “disperato bisogno” di partecipazione

Il settore delle tecnologie innovative ha “un disperato bisogno” di persone provenienti da gruppi sottorappresentati per garantire disponibilità e vantaggi universali. Con questa premessa, la giornalista statunitense Rachel Crowell ha pubblicato su Nature un articolo dal titolo “Perché la crisi della diversità dell’Ia è importante e come affrontarla”1, presentando quattro testimonianze di altrettanti ricercatori di machine learning che lottano contro la diversity crisis, per un ecosistema Ia più attento a non replicare pregiudizi.

Solo il 18 per cento dei relatori nelle conferenze più importanti sull’intelligenza artificiale e solo il 20 per cento di docenti della stessa disciplina è donna. Sul fronte aziendale non va meglio: il personale femminile nei reparti di Ia di Facebook non supera il 15 per cento; in Google le ricercatrici rappresentano un residuo 10 per cento. Sono i dati emersi dal rapporto del 2019 dell’Ai Now institute2 della New York university, ente di ricerca indipendente, nato su ispirazione di Barack Obama, che analizza la concentrazione di potere nel settore tecnologico.

20 % dei docenti di intelligenza arti ciale è donna

Saranno proprio coloro che celebriamo come innovatori i più ostinati conservatori?

Secondo gli ultimi dati dell’Unesco3, nel mondo le donne sono meno del 30 per cento dei ricercatori. E, sebbene le studentesse di discipline stem (science, technology, engineering, mathematics) aumentino di anno in anno, nel campo dell’informatica l’appianamento del divario di genere tende a essere più lento. Vale sia per il mondo della ricerca nelle Ia sia per il settore privato correlato. Un esempio, tra molti, ha interessato l’azienda a più alto tasso di automazione. Nel 2018 un’inchiesta della Reuters4 raccontò del sistema sperimentale sviluppato da Amazon per vagliare i curricula: l’algoritmo declassava inesorabilmente le candidate provenienti da college femminili. Dichiarando fallito l’esperimento, l’azienda ha ammesso l’incapacità di quel sistema di essere neutrale: aveva appreso e fatto proprio il pregiudizio consolidato negli umani. In particolare in quella parte di umanità tradizionalmente al potere: maschi bianchi, etero, benestanti, non giovani.

Il pregiudizio, si sa, non è intrinseco all’algoritmo: deriva dai dati e dai processi di adde-

18 % degli speaker alle conferenze sull’Ia è donna

forward #30 — CHATGPT — 2 / 2023 36

IVERSITÀ

QUATTRO INIZIATIVE PER CONTRASTARLI

stramento, è concentrato – spesso inconsapevolmente – nelle decisioni degli sviluppatori. Il percorso verso un ecosistema inclusivo, giusto, non sarà rapido; un punto di partenza praticabile è però già stato individuato: accrescere la diversità nei team di sviluppo delle Ia. Su questo obiettivo convergono le testimonianze raccolte per Nature

Partire dal linguaggio per trasformare il futuro dell’Africa. “La maggior parte degli algoritmi e dei sistemi che utilizziamo oggi sono stati creati da persone al di fuori dell’Africa. Manca la prospettiva dell’Africa e, di conseguenza, i pregiudizi influenzano l’Africa”, afferma Delali Agbenyegah, che lavora come senior data science manager dell’ecommerce Shopify di Atlanta (Georgia). A settembre 2023 presiederà la conferenza Deep Learning Indaba. La sede del meeting, una sorta di TED Conference periodica, sarà quest’anno in Ghana, dove la popolazione parla circa quaranta lingue indigene diverse, oltre alle nove ufficiali. Con un’iniziativa open source per favorire la creazione di algoritmi per la traduzione in inglese (Ghana NLP – www.ghananlp.org) si punta a migliorare i sistemi di intelligenza artificiale correlata alle immagini, indispensabile nei motori di ricerca nel web come nella diagnosi delle malattie. Attualmente, però, i dati relativi all’Africa compongono meno dell’un per cento dei set di dati che contribuiscono all’apprendimento automatico dei sistemi di Ia.

Il diritto alla tecnologia in America Latina. Crede nella partecipazione dal basso la direttrice di AccelAI e LantinX AI, due organizzazioni/community di persone di origine latinoamericana impegnate nell’Ia. Laura Montoya, ingegnere informatico e data scientist, è una colombiana cresciuta negli Stati Uniti. Si definisce “alternative thinker”, pensatrice alternativa, e dedica la sua attività ad aprire percorsi controcorrente per “altri come lei, per una piccola parte della popolazione”. Fuga dei cervelli, supporto agli studenti da parte di mentori, incubazione di progetti informatici sono parte delle missioni delle non profit che presiede Montoya. Per farlo, mobilita big corporation, come la statunitense Nvidia, a sostegno di un programma di supercomputer, perché “la potenza di calcolo è gravemente carente in gran parte dell’America Latina”. E pro-

24,4% dei posti di lavoro nel settore informatico è ricoperto da donne

10% del team di ricerca sull’Ia di Google è formato da donne

mette la disponibilità di hardware alla comunità più ampia possibile di ricercatori locali “per risolvere grandi problemi e utilizzare la tecnologia per sempre”.

Barriere architettoniche alleate di un algoritmo. App di sintesi vocale consentono alle persone con disabilità motorie o visive l’interazione in un ambiente non adeguato, permettono la guida di un veicolo o l’accesso allo studio; le protesi non sono più soltanto accessori ma, grazie alla robotica, sono collegate al sistema nervoso per aumentare l’autonomia di persone con disabilità. Maria Skoularidou è una dottoranda di Cambridge in biostatistica e nel 2018 ha fondato {Dis}Ability in Ai (https://elesa.github.io/ability_in_AI/) per migliorare accessibilità e inclusione. Nel tempo ha registrato numerose denunce anche da parte di ricercatori con disabilità: “Alcuni hanno affermato che non si sentirebbero al sicuro nel condividere dettagli sulla loro malattia cronica, perché se lo facessero potrebbero non essere promossi o ricevere lo stesso stipendio”.

2,5% del personale di Google è di colore

Ottenere ambienti di ricerca scientifica equi e paritari giova a tutti: “Se un vedente chiude gli occhi, questo non gli fa capire cosa deve affrontare un cieco. Le persone provenienti da gruppi emarginati devono far parte di tutte le fasi del processo di intelligenza artificiale”.

Il percorso verso un ecosistema inclusivo, giusto, non sarà rapido. Un punto di partenza praticabile è accrescere la diversità nei team di sviluppo delle intelligenze arti ciali.

Più parità di genere e inclusione. Il machine learning è essenzialmente un lavoro di categorizzazione di cose e persone al fine di elaborare previsioni su dati raccolti in precedenza. Come conciliare tali processi con le identità fluide? Il rischio è la censura delle persone queer, secondo William Agnew, computer scientist all’University of Washington (Seattle) e Sabine Weber, consulente tedesca. Insieme si occupano di queer in Ai (www.queerinai.com), la cui missione è aumentare la consapevolezza sul tema negli ambiti dell’intelligenza artificiale e del machine learning. L’elenco degli ostacoli che intendono respingere deriva dalla convinzione che “il campo dell’Ia non prende sul serio la diversità e l’inclusione. Gli sforzi sono sottofinanziati e sottovalutati” e non godono del sostegno dei lavoratori senior. Uno degli obiettivi dell’organizzazione è mutuare dal mondo femminile il movimentismo che ha fatto emergere le personalità nello stem, per offrire un punto di riferimento nelle università e non temere la selezione sessista nelle aziende.

1. Crowell R. Why Ai’s diversity crisis matters, and how to tackle it. Nature, 19 maggio 2023.

2. Myers West S. Discriminating systems: gender, race, and power in Ai –Report.

Ai Now Institute, 1 aprile 2019.

3. Unesco. Women in science. https://uis. unesco.org/en/topic/ women-science

4. AI recruiting tool that showed bias against women. Reuters, 11 ottobre 2018.

Il punto in comune fra i quattro interventi sta fra la consapevolezza dei divari esistenti e la necessità di affrontarli. Un piano che funzionerà solo se sarà divulgato e quindi supportato anche da coloro che a quelle minoranze non appartengono. Il dibattito è immaturo anche in Europa, sebbene sia rara la definizione di “crisi” in riferimento alla diversity. E rischia di emergere troppo tardi, travolto da una rivoluzione tecnologica che si rivela, giorno dopo giorno, più rapida di ogni premura etica.

0% le dirigenti di colore in un terzo delle aziende leader nel settore tech

37 www.forward.recentiprogressi.it — forward #30
Maria Frega
Fonte:
Ai Now institute, New York university, 2019.

ChatGPT: siamo sicuri di usarlo bene?

Rispondono i lettori di Forward

ChatGPT aveva raggiunto più 100 milioni di utenti attivi a soli due mesi dal lancio. Ma sono ancora discordanti i pareri su questi strumenti rivoluzionari che potrebbero diventare degli “attori sociali”. Molti dei nostri lettori li hanno già testati oppure usati, alcuni anche al lavoro, ad esempio per scrivere testi, per generare script per software di analisi dati o per valutare la diagnosi differenziale di alcuni quadri clinici.

Per iniziare: riuscirebbe a spiegare a un’amica o a un amico cos’è ChatGPT?

6% Non ho mai sentito parlare di ChatGPT 11% No

49% Forse sì 34% Sì

Per cosa lo ha utilizzato?

Ha mai utilizzato ChatGPT?

“Si parla parecchio di ChatGPT ma è solo l’argomento del giorno: tra sei mesi ce ne saremo dimenticati”. Quanto la trova d’accordo questa affermazione?

1% Lo credo anch’io

8% Magari fosse così

57% Spero di no e che ChatGPT, e cose del genere, ci aiutino sempre più in futuro

34% Forse, ma non ci giurerei

“Certo, se potessimo lasciare a ChatGPT l’incarico di rispondere alle domande dei pazienti…”. Cosa ne pensa di questa affermazione?

3% Tutto sommato potrebbe essere una buona idea

5% Ogni scusa (o innovazione) è buona per evitare le cose più spiacevoli

65% Una non esclude l’altra: ChatGPT più le parole del medico (e dell’infermiere)

20% Ma guriamoci!

7% Magari darebbe risposte più evidence-based dei medici

4% Per divertimento

17% Per cercare una risposta

51% Per vedere come funzionava

28% Per lavoro

Quanto ha trovato utile questo strumento?

2% Per niente

6% Poco

13% Moltissimo

45% Abbastanza

34% Molto

Secondo lei ChatGPT è in grado di scrivere un articolo scientifico?

6%

Considerato il livello della letteratura, magari lo scrive meglio della media

11% Non mi stupisco più di niente

16%

Certamente: può scriverlo ma dev’essere segnalato come co-autore

42% No, è un supporto alla scrittura, non ha un ruolo autoriale 25% Il vero autore è chi lo ha guidato nella scrittura

Se ChatGPT può firmare un articolo scientifico…

35% ... c’è da chiedersi perché siamo arrivati a questo punto

65% ... alla ne è uno strumento come tanti altri software per il medical writing

39 www.forward.recentiprogressi.it — forward #30
Il questionario è stato inviato tramite newsletter. Hanno risposto 341 persone, per la maggior parte medici, epidemiologi, infermieri e ricercatori. Età media 52 anni. Leggi tutti i risultati della survey su: www.forward.recentiprogressi.it
49%
51% Sì
No

L’ULTIMA PAROLA

La prima persona

“Io” è la prima persona.

“Tu” è la seconda persona.

“Lei” “Loro” “Esso” sono tutte terze persone. Fin qui tutto bene.

Ma come può ChatGPT usare la parola “io”?

E quando noi parliamo di ChatGPT, usiamo “lui” o “lei” o “loro” oppure “esso”? Perché tutto ciò che è “esso” non dovrebbe poter dire “io”. Probabilmente abbiamo bisogno di una forma di “esso” che possa essere usata da ChatGPT quando parla di sé o per suo conto. Perché “io” porta con sé un peso emotivo e intellettuale che ci confonde o ci inganna.

Come sottolinea Kevin Munger, la regola che risolve la questione è davvero semplice e facile da implementare (cioè, dovremmo vietare a questi sistemi di parlare di sé stessi in prima persona e agli esseri umani personali “io” e “noi”, ndr). Penso che sia chiaro cosa si intende quando dico “noi”. Ma cosa viene comunicato quando ChatGPT o altri large language model dicono “io”?

Quando abbiamo costruito il bot per questo blog, ho insistito a nché il bot non dicesse “io”. Perché esso non è me. È un bot.

Inventare nuove regole per l’uso della lingua è di cile e regolarmente fallisce. Ma sono passati solo pochi mesi e sembra proprio che ci stiamo abituando a non distinguere più il testo di una persona da quello di un oggetto “it”.

Potrebbe essere così semplice come usare la forma “IT”, con la seconda t maiuscola. Oppure “ix”, che è divertente da pronunciare e mi sarà d’aiuto nel gioco dello Scarabeo...

Solo perché il computer dice “io” non signi ca che non stiamo interagendo con un computer. La cosiddetta uncanny valley* è reale e pericolosa.

* Uncanny valley, in italiano “valle perturbante”, è un fenomeno psicologico introdotto nel 1970 dal giapponese Masahiro Mori, ingegnere di robotica. Quanto più uomo e robot si assomigliano la nostra reazione inizialmente positiva si trasforma in una sensazione spiacevole di disagio: il nostro cervello identi ca il robot come umano ma non troppo umano, e i segnali discordanti dal cervello generano sconcerto e reazioni opposte.

Antonio Addis

Camilla Alderighi

Laura Amato

Massimo Andreoni

Giancarlo Bausano

Davide Bennato

Maurizio Bonati

Stefano Cagliano

Mike Clarke

Giampaolo Collecchia

Giuseppe Curigliano

Marina Davoli

Silvio Garattini

Simona Giampaoli

Ra aele Giusti

Giuseppe Gristina

Tom Je erson

Maurizio Koch

Elisa Liberati

Nicola Magrini

Federico Marchetti

Nello Martini

Luigi Naldi

Francesco Perrone

Luigi Presenti

Ra aele Rasoini

Emilio Romanini

Mirella Ruggeri

Rodolfo Saracci

Stefano Savonitto

Holger Schünemann

Rosa Sicari

Giuseppe Traversa

Francesco Trotta

Paolo Vercellini

Giada

Advisory Board I componenti dell’Advisory Board, il Direttore responsabile e l’Associate Editor non percepiscono compensi per le attività svolte nell’ambito del progetto Forward. Le opinioni espresse dagli autori e dalle persone intervistate sono personali e non impegnano gli enti e le aziende di appartenenza. Supplemento a Recenti Progressi in Medicina — Vol. 114, numero 7, luglio-agosto 2023 — © 2023 Il Pensiero Scienti co Editore Stampa Ti Printing Via delle Case Rosse 23 00131 Roma giugno 2023 La policy di Forward è descritta in dettaglio sul sito del progetto. Direttore responsabile Luca De Fiore Associate Editor Antonio Addis Redazione Marialidia Rossi Laura Tonon Rebecca De Fiore Giada Savini Relazioni esterne Luciano De Fiore Maria Nardoianni Gra ca Antonella Mion Fotogra e Claudio Colotti Il Pensiero Scienti co Editore Via San Giovanni Valdarno 8 00138 Roma T.+39 06 862 82 335 F. +39 06 862 82 250 info@recentiprogressi.it
T. +39
Seth Godin Steh’s blog, 25 maggio 2023 Insieme al Dipartimento di epidemiologia del Ssr Lazio, Asl Roma 1 e al Pensiero Scienti co Editore partecipano al progetto Forward

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.