
2 minute read
Intelligenza arti ciale con etica e legalità
Le implicazioni umane ed etiche dell’intelligenza arti ciale sono tra le priorità dell’Unione europea con la proposta, nel 2021, dell’Arti cial intelligence act allo scopo di guidare e orientare lo sviluppo facendo convergere diritti, innovazione, libertà di mercato e sicurezza. In risposta a questa esigenza una ricerca collaborativa delle università di Oxford e di Bologna ha sviluppato uno strumento, capAI, per aiutare le imprese a valutare e gestire i propri sistemi di intelligenza arti ciale a nché siano legalmente conformi, tecnicamente solidi ed eticamente validi. Si tratta di un toolkit messo a punto a partire dal database più completo sui fallimenti e problemi etici causati dai sistemi basati sull’intelligenza arti ciale. “L’intelligenza arti ciale, nelle sue molteplici varianti, è destinata a portare bene ci all’umanità e all’ambiente. È una tecnologia estremamente potente ma anche rischiosa”, ha commentato Luciano Floridi, una delle voci più autorevoli della loso a ed etica digitale che ha contribuito alla ricerca. “Per questo abbiamo sviluppato una metodologia di auditing in grado di veri care l’allineamento dell’intelligenza arti ciale con la legislazione e contribuire a garantirne lo sviluppo e l’uso corretto”. Seguendo questa metodologia si possono redigere delle schede di valutazione dei prodotti sviluppati in relazione all’adesione della buone pratiche e della normativa vigente e alla gestione delle problematiche inerenti le implicazioni etiche. Nel frattempo l’Arti cial intelligence act è stato approvato dal Parlamento europeo ed è entrato nella fase conclusiva della negoziazione. •
Fonte: Floridi L, Holweg M, Taddeo M, et al. capAI - A procedure for conducting conformity assessment of ai systems in line with the EU Arti cial Intelligence Act. SSRN, 23 marzo 2022.
Dietro la popolarità di ChatGPT: l’indagine di Forward
Per conoscere la percezione che i nostri lettori hanno dell’ingresso in medicina e nella ricerca di strumenti basati sull’intelligenza artificiale e sull'apprendimento automatico è stata condotta una survey che trovate a pagina 39 di questo fascicolo. Qui alcuni dei risultati.
Melanie Mitchell insegna Computer science alla Portland State university ed è external professor al Santa Fe institute. È autrice di “Introduzione agli algoritmi genetici” e di “Complexity. A guided tour” che ha vinto il Phi Beta Kappa Science Book Award 2010. Il suo ultimo libro “L’Intelligenza arti ciale. Una guida per esseri umani pensanti” (Torino: Einaudi, 2023), è stato nalista del Premio Cosmos 2023.
Secondo Melanie Mitchell i modelli di intelligenza artificiale generativa sono potenzialmente adatti al settore medico, ma solo se affiancati dall’uomo. “Se siete un medico potreste chiedere a ChatGPT quali malattie potrebbero essere implicate con una serie di sintomi del paziente, magari una delle risposte generate potrebbe suggerire una nuova idea”. Qual è la sua esperienza in proposito?
2% Ho usato ChatGPT nella pratica clinica e nessuna risposta mi ha suggerito qualcosa a cui non avevo ancora pensato
2% Mi è capitato nella pratica clinica e l’ho trovato utile
11% Come paziente non mi sentirei rassicurato sapendo che un medico usa ChatGPT
44% Non mi è mai capitato di chiedere un parere a ChatGPT
41% Sono favorevole all’uso di questi strumenti nella pratica clinica
Al momento questi sistemi non sono completamente affidabili per la produzione di articoli e notizie, aggiunge Mitchell “perché possono produrre delle risposte false o fuorvianti”. È d’accordo con questo punto di vista?
7% No, ho sempre letto risposte magari generiche ma attendibili
52% Non saprei, non uso ChatGPT così spesso
41% Sì, mi è capitato di leggere informazioni generate da ChatGPT non veritiere su un argomento noto