2 minute read

Intelligenza arti ciale con etica e legalità

Next Article
IVERSITÀ

IVERSITÀ

Le implicazioni umane ed etiche dell’intelligenza arti ciale sono tra le priorità dell’Unione europea con la proposta, nel 2021, dell’Arti cial intelligence act allo scopo di guidare e orientare lo sviluppo facendo convergere diritti, innovazione, libertà di mercato e sicurezza. In risposta a questa esigenza una ricerca collaborativa delle università di Oxford e di Bologna ha sviluppato uno strumento, capAI, per aiutare le imprese a valutare e gestire i propri sistemi di intelligenza arti ciale a nché siano legalmente conformi, tecnicamente solidi ed eticamente validi. Si tratta di un toolkit messo a punto a partire dal database più completo sui fallimenti e problemi etici causati dai sistemi basati sull’intelligenza arti ciale. “L’intelligenza arti ciale, nelle sue molteplici varianti, è destinata a portare bene ci all’umanità e all’ambiente. È una tecnologia estremamente potente ma anche rischiosa”, ha commentato Luciano Floridi, una delle voci più autorevoli della loso a ed etica digitale che ha contribuito alla ricerca. “Per questo abbiamo sviluppato una metodologia di auditing in grado di veri care l’allineamento dell’intelligenza arti ciale con la legislazione e contribuire a garantirne lo sviluppo e l’uso corretto”. Seguendo questa metodologia si possono redigere delle schede di valutazione dei prodotti sviluppati in relazione all’adesione della buone pratiche e della normativa vigente e alla gestione delle problematiche inerenti le implicazioni etiche. Nel frattempo l’Arti cial intelligence act è stato approvato dal Parlamento europeo ed è entrato nella fase conclusiva della negoziazione. •

Fonte: Floridi L, Holweg M, Taddeo M, et al. capAI - A procedure for conducting conformity assessment of ai systems in line with the EU Arti cial Intelligence Act. SSRN, 23 marzo 2022.

Dietro la popolarità di ChatGPT: l’indagine di Forward

Per conoscere la percezione che i nostri lettori hanno dell’ingresso in medicina e nella ricerca di strumenti basati sull’intelligenza artificiale e sull'apprendimento automatico è stata condotta una survey che trovate a pagina 39 di questo fascicolo. Qui alcuni dei risultati.

Melanie Mitchell insegna Computer science alla Portland State university ed è external professor al Santa Fe institute. È autrice di “Introduzione agli algoritmi genetici” e di “Complexity. A guided tour” che ha vinto il Phi Beta Kappa Science Book Award 2010. Il suo ultimo libro “L’Intelligenza arti ciale. Una guida per esseri umani pensanti” (Torino: Einaudi, 2023), è stato nalista del Premio Cosmos 2023.

Secondo Melanie Mitchell i modelli di intelligenza artificiale generativa sono potenzialmente adatti al settore medico, ma solo se affiancati dall’uomo. “Se siete un medico potreste chiedere a ChatGPT quali malattie potrebbero essere implicate con una serie di sintomi del paziente, magari una delle risposte generate potrebbe suggerire una nuova idea”. Qual è la sua esperienza in proposito?

2% Ho usato ChatGPT nella pratica clinica e nessuna risposta mi ha suggerito qualcosa a cui non avevo ancora pensato

2% Mi è capitato nella pratica clinica e l’ho trovato utile

11% Come paziente non mi sentirei rassicurato sapendo che un medico usa ChatGPT

44% Non mi è mai capitato di chiedere un parere a ChatGPT

41% Sono favorevole all’uso di questi strumenti nella pratica clinica

Al momento questi sistemi non sono completamente affidabili per la produzione di articoli e notizie, aggiunge Mitchell “perché possono produrre delle risposte false o fuorvianti”. È d’accordo con questo punto di vista?

7% No, ho sempre letto risposte magari generiche ma attendibili

52% Non saprei, non uso ChatGPT così spesso

41% Sì, mi è capitato di leggere informazioni generate da ChatGPT non veritiere su un argomento noto

This article is from: