
3 minute read
ARTIFICIALE,
from L'Espresso 5
by BFCMedia
Come funziona la ricerca di Google? La domanda è semplice, la risposta meno. In 25 anni Google Search ha cambiato diversi volti, avvalendosi di strumenti di perfezionamento sempre più complessi. L’ultimo, lanciato nel 2022, si chiama Mum (Multitask Unified Model): è capace di comprendere e generare linguaggio e aiutare l’utente cercando combinazioni di testo e immagini. Se a dicembre aveva rimandato il lancio della sua risposta a ChatGpt per non incappare in «danni reputazionali», ora Big G ha deciso di entrare nell’arena dell’Ai per dimostrare ai critici che la concorrenza non è ancora pronta a pensionare la sua Search. Per il New York Times, Google starebbe per presentare un nuovo modello: integrerà un chatbot di ultima generazione — che si concentrerà su «ottenere le informazioni giuste, garantire la sicurezza e sbarazzarsi della disinformazione» — cercando di risolvere la sicumera immotivata del rivale, controllando che i processi tecnologici coinvolti operino in modo equo ed etico. Intanto Demis Hassabis, capo di DeepMind, l’azienda nel campo Ai controllata da Google, ha detto al Time che la società sta sviluppando una versione test del suo software di intelligenza artificiale Sparrow, considerato un fratello più cauto e maturo di ChatGpt, da pubblicare già quest’anno. Non resta che decidere se cliccare su «Mi sento fortunato». D.P.
hanno collaborato con le autorità sanitarie per promuovere informazioni corrette sul Covid-19. Altre volte i fini sono meno nobili. TikTok ha ammesso di avere censurato critiche nei confronti del governo di Pechino, in particolare sul genocidio della minoranza degli uiguri. La Commissione europea ha inflitto a Google una multa da 2,4 miliardi di euro per avere favorito i link al suo Google Shopping nei risultati delle ricerche. E troppo spesso le multinazionali hanno fomentato divisione sociale e tollerato estremismi. Mentre un’orda di trumpiani assaltava Capitol Hill, il 6 gennaio 2021, un dipendente di Facebook scriveva su un forum aziendale: «Abbiamo alimentato l’incendio per molto tempo. Ora non possiamo sorprenderci se è fuori controllo». Chris Wetherell, l’inventore del tasto Retweet, ha ammesso che quella piccola modifica «è stata come dare una pistola carica a un bambino di quattro anni».
Advertisement
Intanto, gli algoritmi diventano sempre più complessi. Negli ultimi mesi si è parlato molto di ChatGpt, il chatbot intelligente del consorzio OpenAi, capace di emulare il linguaggio naturale e fornire risposte che
Il Professore
sembrano umane. Uno strumento che ha generato una valutazione di mercato di 29 miliardi di dollari. «L’algoritmo di un chatbot imita, studia, si adatta», dice Quattrociocchi: «ChatGpt cerca le parole migliori in un contesto e le sceglie in base alla mole gigantesca di dati che ha studiato. Non è un meccanismo molto diverso da quello che suggerisce le parole mentre scriviamo». Le scuole di New York hanno già proibito agli studenti di usarlo: temono che sia una pietra tombale sulla loro formazione.
La nuova frontiera è l’intelligenza artificiale. Microsoft intensifica gli investimenti nella stessa OpenAi, Meta quelli nei sistemi che raccomandano contenuti su Facebook e Instagram. Google sembra pronta a lanciare un chatbot di ultima generazione capace di risolvere il grande limite del concorrente: risposte sbagliate pronunciate con sicurezza. Soprattutto quando si tratta di matematica. Qualcuno, infatti, ha convinto ChatGpt a riferire che 2+2 fa 5. Scrive su Twitter Avner Strulov-Shlain, della Chicago Booth: «È come gli economisti, mostra sempre fiducia in sé stesso e qualche volta ha persino ragione».
L’esperto colloquio con Salvatore Sica
ricondotta al rischio d’impresa. E già oggi, dietro segnalazione, le società intervengono per correggere errori o per moderare discorsi d’odio».
Come si conciliano la lotta alla disinformazione e la libertà di espressione?
L’algoritmo non è il demonio. Il problema è l’algoritmo abbandonato a sé stesso». La sintesi è di Salvatore Sica, ordinario di Diritto privato all’Università di Salerno. «Le norme europee stabiliscono il diritto del cittadino a non essere sottoposto a decisioni basate solo sul trattamento automatizzato.
Ma non vengono applicate».
Le piattaforme dicono di non essere arbitri di verità.
La difesa regge?
«Non più. Per i social, ogni clic su una notizia falsa corrisponde a un guadagno. C’è una responsabilità che va
«Le decisioni non possono essere lasciate alle piattaforme — la più grande concentrazione di potere nelle mani di privati nella storia — e non le affiderei alla politica. Meglio un’autorità indipendente».
Come usare strumenti come social e motori di ricerca in modo sicuro?
«A monte ci vuole trasparenza: bisogna far conoscere gli assetti proprietari degli operatori e la relazione tra clic e profitti. Poi occorre educare sul tema della cessione dei dati. E servono più tutele per i privati, che dovrebbero essere rappresentati da associazioni». M.N.