Algoritamska pristranost Tehnologija je duboko utkana u naše živote i sveukupno gospodarstvo. Privatni i javni sektor sve se više okreću sustavima umjetne inteligencije te algoritmima strojnog učenja zbog automatizacije poslovanja i donošenja odluka.
Opće je poznato da su ljudi skloni
takav
pogreškama te da je pojavom
najbolju odluku. Posljedice toga
o
algoritama i njihovom integracijom
mogu biti loše poslovne odluke i
algoritmu,
u
određeni neuspjesi u poslovnom
pristran zaključak koji će uzrokovati
taj ljudski faktor. No izgleda da
svijetu
velikim
negativne posljedice za određene
situacija nije baš tako jasna, čini se
novčanim
gubicima.
Upravo
skupine društva u vidu strogosti
da su i algoritmi zakazali.
zbog
financijskog
aspekta
poslovanju
upravo
eliminiran
algoritam
koji tog
neće
donijeti
rezultiraju
sustavu. Recimo, ako se odluka kažnjavanju on
prepusti može
takvom generirati
izrečenih kazni.
korporacije vrlo su pažljivi oko se
članak
fokusira
na
sustava koje koriste za donošenje
Osim
pravosudnog
algoritme strojnog učenja. Ono što
svojih odluka. Što ako se donose
utjecaj
algoritamske
je zajedničko takvim algoritmima je
odluke o političkim ili pravosudnim
može se pronaći u zabrinjavajuće
činjenica da se oslanjanju na razne
problemima? Što ako jedna takva
puno primjera, a ona se očituje
skupove podataka nad kojima se
odluka pristranog algoritma utječe
na razne načine i s posljedicama
treniraju i temeljem kojih se donose
na ljudske slobode i prava?
različitih
zaključci. Dostupnost velike količine
pristranosti
intenziteta.
Trenutno
izuzetno popularna problematika
podataka omogućila je povećanje
Problem
broja
Danas
modelima koji se treniraju nad
zapošljavanja jedan je od primjera
utječu na sve sektore gospodarstva
podatcima o ljudima te donose
pristranosti
pa tako i na demokraciju, vođenje
zaključke
njihovog
Amazon je nedavno izbacio iz
država i mnoge aspekte naših
identiteta,
faktora
upotrebe algoritam koji je koristio
takvih
algoritama.
leži
u
računalnim
temeljem
privatnih
demografskih
rodne
neravnopravnosti algoritama.
prilikom Naime,
i sl. Takvi podatci
prilikom zapošljavanja jer je otkrio
života: od
(1) Imate novi prijedlog za praćenje
mogu
spolnu
reklama
ST@K
informacije
koje nas
STRANICA24
sustava,
sadržavati koje
odražavaju nekakve
pristranost
donošenju
algoritma
u
Tadašnji
je
odluka.
udio muškaraca u ukupnom broju
okružuju, prikaza oglasa za posao,
povijesne
pak
zaposlenika Amazona bio 60% dok
preporuka filmova pa do donošenja
društvene trendove netrpeljivosti
ih je na rukovodećim pozicijama
odluka o kažnjavanju i predviđanja
prema
društvenim
bilo čak 74%. Drugi zanimljiv primjer
požara u našim domovima. Pošto su
skupinama. Ako se neki algoritam
dolazi iz istraživanja s Princeton
takvi algoritmi učeni na skupovima
uči na temelju takvih podataka,
Sveučilišta na kojem je analizirana
podataka, postavlja se pitanje: Što
postoji mogućnost da će preuzeti
baza od preko dva milijuna riječi.
će se dogoditi ako s tim podatcima
slične obrasce zaključivanja i na
Zaključci
nešto nije u redu?
temelju njih donositi odluke koje su
ukazali su na pristranost pri čemu
više ili manje pogodne za određene
su europska imena percipirana kao
Dakle, ako su skupovi podataka
društvene
je
ugodnija nego imena afroameričke
nad kojima se trenira algoritam
primjer za to donošenje odluka u
populacije te se pokazalo da se
nereprezentativni
već
i imena ženskog roda uglavnom
ili
nepotpuni,
nejednakosti određenim
skupine.
spomenutom
ili
Najbolji
pravosudnom
korištenog
algoritma
St@k 22
Ovaj