3 minute read

Comunicare nel sociale

50 | Società Solidale | N. 3 / 2020

Comunicare nel Sociale a cura di Giorgia Barile Nel mondo della solidarietà attraverso i media

Advertisement

È la rubrica dedicata alla comunicazione sociale, una navigazione nel mondo dei mass e social media locali, nazionali e internazionali, dal punto di vista della solidarietà. Ciò che qua e là, dunque, il Volontariato propone attraverso i diversi mezzi di comunicazione.

LE WEB NEWS DI SOCIETÀ SOLIDALE DI OTTOBRE

Ottobre è stato un mese molto intenso per il CSV Società Solidale: assemblea elettiva, Bilancio sociale. La Protezione civile è intervenuta per aiutare le zone alluvionate della provincia di Cuneo. Di questo e altro si parla nell’appuntamento mensile del Web tg, completamente realizzato dall’ufficio stampa del CSV. Il web giornale è online sul sito CSV e sulla pagina Facebook. Per informazioni: ufficiostampa@csvcuneo.it.

SE ANCHE GLI ALGORITMI DISCRIMINANO

Costruire fiducia è un concetto portante in comunicazione, da sempre. Considerando che buona parte dei processi di comunicazione online sono gestiti dal Machine Learning, però, è importante chiedersi in che modo interviene l’Ai (Artificial Intelligence) nel processo di costruzione della fiducia con la nostra audience. Accertarsi che l’algoritmo che distribuisce i contenuti alle nostre persone sia “buono, equo e giusto” è prioritario. Perché un algoritmo “intelligente”, capace di costruire fiducia e non escludere dimostra alle persone che le loro vite contano, che le loro differenze sono valorizzate.

Quanto sono importanti gli algoritmi nelle nostre vite? Siamo abituati a frequentarli ogni giorno: gli algoritmi sono diventati parte integrante della nostra percezione del mondo. Gestiscono e determinano quello che vediamo passare online, basandosi su un calcolo razionale di elementi di varia natura: le nostre ricerche, i dati che abbiamo diffuso online più o meno consapevolmente, il posto da cui proveniamo e la lingua che parliamo, i luoghi in cui siamo stati, il nostro film preferito, dove siamo andati al liceo, il colore della nostra pelle, il nostro genere, il nostro orientamento sessuale, il nostro livello di istruzione. E così via. Gli algoritmi non sono oggettivi Gli algoritmi rappresentano una combinazione di fattori non sempre oggettiva: riflettono o amplificano dei bias cognitivi, che possono avere radici diverse: • dati raccolti in modo scorretto • pregiudizi legati a genere, orientamento sessuale, razza, provenienza geografica di chi opera attraverso l’algoritmo • decisioni sui prodotti che svantaggiano un certo gruppo di persone. Ma quali sono i risvolti etici e pragmatici di un algoritmo che non è “buono, equo, giusto”? Ecco qualche esempio: 1.Se l’algoritmo impara male - Un caso eclatante che ci aiuta a capire cosa può succedere se i dati vengono raccolti male. Vi ricordate il caso del chatbot Microsoft Tay? Un account che imparava dagli utenti e rispondeva su Twitter come se fosse una persona vera. In poco tempo, Tay ha iniziato a dire cose terribili: razziste, omofobe, contro gli ebrei e il movimento femminista. 2.Discriminazione etnica su Airbnb - Uno studio dei ricercatori Edelman, Luca and Svirsky ha dimostrato con una ricerca sul campo come l’algoritmo di Airbnb sia discriminatorio nei confronti dei neri americani. Se hai un nome afro-americano hai il 16% in meno di possibilità di essere accettato come ospite rispetto a chi si presenta con un nome white american con le stesse identiche caratteristiche. Non solo: gli host bianchi guadagnano dagli affitti il 12% in più degli host neri. 3.Discriminazioni geografiche nel gaming – Secondo questo studio, Pokémon Go, videogioco “location-based” avvantaggerebbe la popolazione che, all’interno della realtà virtuale, vive nelle città, bianca, non latina. Un esempio?

Permette loro di attrarre più turisti nei loro negozi. 4.Discriminare con l’advertising - Selezionare un pubblico per le advertising su Facebook implica una scelta che spesso può risentire di pregiudizi di genere, etnia, status sociale, istruzione. Per esempio usando delle caratteristiche etniche per identificare una audience a cui destinare un’offerta di lavoro. E succede molto più spesso di quanto crediamo. Studiare la scorrettezza degli algoritmi è complesso per diverse ragioni: prima di tutto per la molteplicità di motivi di unfairness. Poi, per la natura impenetrabile degli algoritmi stessi di cui pochi conoscono realmente il funzionamento. Avere però la consapevolezza che parte del Machine Learning impara dai comportamenti umani è fondamentale per dare forma a un ecosistema di comunicazione più equo e giusto. Né per differenziarsi bisogna creare esperienze che valgano la pena essere vissute, condivise, ricordate e desiderate. FONTE: https://shift-masterclass.com/2020/07/10/se anche-gli-algoritmi-discriminano/

Consulta il sito www.csvsocsolidale.it per farne richiesta

This article is from: