10 minute read

Kunstig intelligens

FOR S I K RING TEMA TEKNOLOGI

2 — 2 022

KUNSTIG INTELLIGENS OG BITTER LIMONADE

Af Thomas Telving Illustration Péter Berke

Kunstig intelligens giver masser af muligheder for at lave gode forsikringer. Men man kan få ørerne i maskinen hos kunderne, hvis man ikke forstår deres forbehold.

For et års tid siden fik det amerikanske forsikringsselskab Lemonade den idé at markedsføre sig på, hvor gode de var til at bruge kunstig intelligens (AI). På Twitter forklarede de f.eks. følgende: ”Når en bruger anmelder en skade, optager han/hun en video på sin telefon og forklarer, hvad der skete. Vores AI analyserer omhyggeligt disse videoer for tegn på svindel. Den kan opfange ikke-sproglige signaler, som traditionelle forsikringsselskaber ikke kan, fordi de ikke bruger en digital skadesproces.”

En god idé sådan at fremvise sine tekniske evner, kunne man tro. Det

må vel være til den almindelige kundes gavn at afsløre bedragere, der hiver penge op af den fælles pulje. Men hvis Lemonade havde troet, at de kunne læne sig tilbage og nyde stående ovation for deres gode arbejde, tog de grundigt fejl. En sværm af vrede, forvirrede og usikre kunder stillede besværlige spørgsmål. Bliver min anmeldelse afgjort af en algoritme? Dækker ”ikke-sproglige signaler” over, at jeg har dårligere vilkår, hvis jeg ikke er hvid? Beslutter jeres robot, om jeg ligner en løgner?

Lemonade havde ikke set kritikken komme. De postede en hel serie af opslag og forklarede bl.a., hvordan de med tusindvis af kundedata (som de ikke forklarede, hvor kom fra) kunne lave præcise profiler på hver enkelt kunde og dermed præcise forudsigelser af skadesrisici. De berettede stolt, at hvor de før udbetalte mere, end de fik ind i præmier, var det nu lige omvendt: De udbetalte ikke nær så meget, som de plejede!

Sjovt nok var heller ikke denne historie om, hvordan de effektiviserede forretningen med AI, sød musik i kundernes ører. Så kritikken på Twitter blev ved og ved, indtil de valgte at slette opslaget.

Lemonades åbenhed om AI fik således en hård medfart på sociale medier. Flere kunder postede billeder af deres opsigelse på Twitter, og endnu flere truede med at gøre det. Spørgsmålet er, hvad vi kan lære af det. Er historien et tegn på, at forsikringskunder ikke er klar til intelligent teknologi? Vi vender tilbage til Lemonade senere, men lad os først prøve at nuancere tingene lidt.

”Uanset hvor god teknologien er, ser det ud til, at folk er skeptiske, hvis det er svært at gennemskue, hvordan beslutningen er truffet.”

SELVOM DER ER EN VIS skepsis over for kunstig intelligens og automatisering, rejser langtfra al smart teknologi etiske spørgsmål. At en software-robot ordner de første led i en skadesproces uden menneskelig indblanding, gør næppe nogen usikre. Det gør det heller ikke, at en tilsvarende robot automatisk finder nogle bestemte informationer i indkomne mails og lægger dem ind i et system, så sagsbehandleren ikke skal gøre det manuelt. Og faktisk kan selskaberne også sagtens lave endnu smartere ting uden at komme i klemme. Forsikringsagenturet Undos kunder lader gerne deres mobiltelefon indsamle data om deres kørselsvaner i ugevis og får dem analyseret af kunstig intelligens for at få en billigere forsikring. Medmindre de kører dårligt – så bliver forsikringen dyrere. Men hvor langt kan man gå? Hvordan bruger branchen teknologien bedst muligt uden at blive presset som Lemonade på Twitter? Det er umuligt at skabe et komplet billede af, hvor hver enkelt kundes grænse går. Men lad os alligevel prøve at se på noget af det, der fik Lemonades kunder til at rejse børster.

1. DÅRLIG GENNEMSIGTIGHED Bliver jeg vurderet på, om jeg ligner en løgner? Uanset hvor god teknologien er, ser det ud til, at folk er skeptiske, hvis det er svært at gennemskue, hvordan beslutningen er truffet. Og selvom kunstig intelligens er virkelig godt til at afsløre forsikringssvindel, er det ret svært at gennemskue, hvordan den kan se på en video, om man er en svindler. Og tænk, hvis den tager fejl. Bliver jeg så frataget min dækning uden gyldig grund?

Et svensk studie har i øvrigt vist, at 63 % er villige til at skifte fra én digital service til en anden, hvis der er større gennemsigtighed om, hvordan deres data bruges. 43 % vil ligefrem gøre det, selvom det bliver dyrere. Om det også gælder forsikring, melder studiet dog ikke noget om.

Desværre er der et dilemma med kunstig intelligens, som er svært at komme uden om. Grunden til, at AI-modeller kan være så hulens præcise, er netop, at de hviler på gigantiske mængder af data. Og indimellem finder de mønstre, som viser noget rigtigt, uden at man fuldt ud kan forklare hvorfor. Forestil dig, at 100.000 kunder hver har leveret 1.500 forskellige data. En god AI-model kan finde mønstre i dem, et menneske ikke kan gennemskue – f.eks. nogle træk, der

Algoritmer og kunstig intelligens

Ikke alle er enige om definitionen af kunstig intelligens (AI). Men det handler som regel om at få computere til at gøre ting, der normalt kræver menneskelig intelligens. F.eks. at spille skak, køre bil, diagnosticere patienter eller føre en samtale. Eller, som i denne artikel, at vurdere risikoen for, at en person får et forsikringsbehov. Den mere avancerede og datadrevne kunstige intelligens, vi har i dag – også kaldet machine learning – kan trænes på store mængder data og benytter træningsalgoritmer til at lære fra eksempler.

En algoritme kan i princippet bestå af et enkelt hvis-såudsagn: ”Hvis der trykkes på denne knap, så skal du udføre denne handling.” Den kan også være en hel stribe af hvisså-udsagn eller en stribe af mere komplekse matematiske ligninger.

Man taler om at ’træne’ en AI-model. Det kan ske ved at fodre den med data, som er opmærkede. Ved at præsentere en AI-model, f.eks. kunstige neurale netværk, for en masse billeder af katte, lærer den at finde fællestrækkene, så den kan skelne katte fra andre ting. Ikke alle synes, at kunstig intelligens er en god betegnelse. Nogle foretrækker det mere neutrale ord machine learning, som netop dækker over, at teknologien kan lære ting – lidt som et menneske også lærer at skelne mellem hunde og katte ved at se nogle eksemplarer af hver race.

ofte kendetegner svindlere. Det er fantastisk smart, men ikke uden bivirkninger. Lemonade overså, at for den almindelige kunde er alene risikoen for at blive anklaget for svindel på baggrund af noget, den anklagende part ikke til fulde er i stand til at forklare, stærkt ubehagelig.

2. FORDOMSFULDE DATA Har jeg dårligere forsikringsvilkår, hvis jeg er sort? Det er ikke uden grund, at nogle af Lemonades kunder blev bekymrede, for der er allerede i dag talrige historier fra USA om, hvordan sorte diskrimineres af algoritmer. Hvis algoritmerne i en AI-model er trænet på data, som viser, at en overvægt af sorte har snydt, ja, så kan alene det, at du er sort, øge sandsynligheden for, at du bliver vurderet til at være en svindler.

Direktøren for Lemonade har forsøgt at belyse dette komplekse og følsomme emne med et eksempel. Han forklarede, at en algoritme, der opkræver jøder mere for brandforsikringer, fordi de tænder flere stearinlys i hjemmet ved højtider, ikke ville være diskriminerende. Den ville jo ikke, skrev han, vurdere dem som en religiøs gruppe, men som enkeltpersoner, der tænder mange stearinlys, og som tilfældigvis er jøder.

Ved samme lejlighed forklarede han, hvad rigtigt er, at ingen til fulde forstår, hvad der foregår inden i deres algoritmer.

Lemonades direktør fik ikke ubetinget god medieomtale ud af sine forklaringer. Men døm selv, om du som enten jøde eller sort i USA ville forsikre dit hus hos nogen, der baserer deres udbetalinger på algoritmers beslutninger.

3. RENE AI-BESLUTNINGER Et tredje angreb på Lemonades tweet gik på skepsis over for beslutninger uden menneskelig indblanding. Den skepsis er udbredt, men kun på nog-

le områder. Hvert tredje solgte produkt på Amazon er f.eks. anbefalet til kunden af et algoritmebaseret system. Folk lader også trygt kunstig intelligens anbefale, hvad de skal se på Netflix, og regner med, at Googles algoritmer finder det, de leder efter, på nettet. På andre områder er der større skepsis. Et flertal af amerikanerne ville ikke føle sig trygge ved at køre i en selvkørende bil, hvis styresystem også hviler på avancerede algoritmer. Heller ikke selvom forskning tyder på, at hurtig indførelse af selvkørende biler kan redde hundredtusindvis af liv.

Et springende punkt ser ud til at være, hvor galt det kan gå. Når alvoren – eller risikoen – er stor nok, vil mange i det mindste gerne have en second opinion fra et menneske. Det gælder i øvrigt på trods af, at mennesker som bekendt også kan lave fejl. Og i mange situationer laver vi flere fejl, end et computersystem nogensinde ville gøre. Dømmer en træt og sulten dommer mon mere retfærdigt i en retssag end en fordomsfuld AI-model?

FOLKEDOMSTOLEN ER UMULIG at helgardere sig mod, og det gælder naturligvis også i forhold til AI. Folk er uforudsigelige og ovenikøbet gerne inkonsekvente i deres kritik. Folk vred sig f.eks. over at blive analyseret af en AI-model, som måske fejlagtigt ville sige, at de var svindlere. Men mon ikke de fleste synes, det er o.k. at bruge AI til at afsløre svindel, hvis det betyder, at deres præmie bliver lavere? Folk vred sig også over rene AI-beslutninger. Men mon ikke det primært ses som problematisk, hvis de er forkerte? Hvis en AI-model viser, at du skal betale en lav præmie, foretrækker mange sikkert den. Men hvis den smarte teknologi hiver dig en kategori op, vil de fleste nok gerne have tjekket beregningen efter af et menneske.

Flere branchefolk har fremhævet, at hvis man laver en præcis og individuel risikoprofil på alle, går den solidariske idé, der bærer forsikring, tabt. Såkaldt mikrotarifering, hvor man fastsætter den enkeltes præmie præcist ud fra risiko, kan være godt og rimeligt. Men en grad af uvidenhed om, hvem der får et forsikringsbehov, er samtidig nødvendig, hvis forretningsmodellen skal virke. Hvis man helt kan udelukkes fra at få et forsikringsbehov, er der i sagens natur ikke grund til at forsikre sig, mens et forsikringsselskab, der alene forsikrer folk, der får stjålet deres bil inden for fem år, hurtigt ville få økonomiske vanskeligheder. Der er også fare for, at den mest risikoudsatte del af samfundet helt fravælger forsikring, fordi det bliver for dyrt.

Måske er algoritmisk præcise, individuelle risikovurderinger lettere at acceptere på nogle områder end på andre. Det, der går med bilforsikringer, går måske ikke med sundhed. Vicedirektør i Forbrugerrådet Tænk Vagn Jelsøe har sagt til FinansWatch. dk, at det værste er en situation, hvor

Thomas Telving

Selvstændig konsulent samt forfatter og foredragsholder med speciale i etik og kunstig intelligens. Han har skrevet talrige artikler om emnet og er i øjeblikket aktuel med den internationale bogudgivelse ’Killing Sophia – Consciousness, Empathy, and Reason in the Age of Intelligent Robots’, udgivet på Syddansk Universitetsforlag. dem, der har et godt helbred og en lav risiko, kan få en billigere forsikring, og dem, der har dårligt helbred, kan komme til at betale kassen.

Synspunktet er sympatisk og hviler måske på, at man i højere grad er herre over skader på sin bil end på sin krop. Men er man nu også det? I dag ved vi så meget om sundhed, at vi hver især i høj grad kan påvirke statistikken for vores livslængde. Vi kan naturligvis blive ramt af masser af ting, vi ikke kan påvirke. Men det kan biler i trafikken også. Og er der i øvrigt ikke også noget om, at det ikke er muligt at blive medlem af Sygeforsikringen Danmark, hvis man har visse typer kroniske sygdomme? Sygdomme, man ikke selv har haft indflydelse på? Jovist. Det er bare ikke rart at tale om. Og sådan er det nogle gange med indsigter – ikke mindst når de er så præcise som dem, vi kan få fra AI-modeller. Med data nok kan AI-modeller gennemskue årsagssammenhænge: Hvem bliver biltyve? Hvem får bilen stjålet? Hvem bliver syge? Hvem bliver kriminelle? Hvem dør tidligt? Selskabet Iapetus tilbyder i dag at beregne kunders livsforsikring ved at lade kunstig intelligens analysere en selfie. Ved at sammenligne nok ansigter kan systemet afsløre folks risikoadfærd.

PÅ FLERE OMRÅDER ER noget, der før lignede tilfældigheder, på vej til at blive noget, vi kan forudsige og derfor kan være etisk forpligtet til at handle på. Men det er svært og nogle gange umuligt at træffe de beslutninger på en måde, alle finder rimelig. I dag diskuterer vi de beslutninger som svære, nye etiske dilemmaer. Men noget af det allermest mærkelige er, at årsagssammenhængene jo altid har været der. Det er ikke noget nyt, der leder frem til, at nogle bliver biltyve, nogle bankmænd, og nogle kronisk syge. Det nye er, at vi på mange områder kan forudsige det, og det tvinger os til at tage stilling til noget, der er svært. Hvis vores AI-model fortæller os, at en 25-årig mand om tre år med 99,9 % sandsynlighed vil slå en person ihjel i et biluheld, er vi så forpligtet til at gribe ind? Eller bør vi respektere det frie valg og privatlivets fred og håbe, at systemet tager fejl?