Hvordan finder man de skjulte dilemmaer i AI og hjælper med at balancere hensynet til kunderne med valg om dataindsamling og modellering? Og hvordan forklarer man en datadrevet løsning til kunderne? Brancheorganisationen F&P har i samarbejde med medlemmerne udgivet to værktøjer, som skal hjælpe med at give svar.
Data er forudsætningen for, at vi har et forsikrings- og pensionssystem. Vi bruger data til at forstå og analyse kundernes risici, når vi designer og tilbyder forsikringer og pensionsordninger. Derudover er data brændstoffet i en digital verden, særligt når vi taler om kunstig intelligens, hvor løsningerne er dybt afhængige af de data, vi lægger ind.
Derfor har Forsikring og Pension, brancheorganisationen for forsikrings- og pensionsselskaber i Danmark, tidligere undersøgt, hvordan danskerne ser på branchens databrug. Og det er ikke dyrere forsikringer, som danskerne er mest bekymrede for, hvis de deler flere data. Det er heller ikke en bekymring for at yderligere data gør dem sværere at forsikre, som fylder mest. Nej, den bekymring flest danskere peger på i forhold til data, er faktisk, at det er uklart for dem, hvordan den bliver brugt. Herefter kommer bekymringer i forhold til privatliv og videresalg.
Det positive er, at dette er en bekymring, vi kan imødegå ved at kommunikere tydeligere om dataanvendelsen i vores digitale løsninger. Derfor har F&P udviklet et værktøj, der skal hjælpe med at skabe klarhed for kunderne om, hvordan data bruges i branchens datadrevne løsninger.
Værktøjet hedder ”Knæk koden til gennemsigtig databrug – transparens for kunderne”, og er udarbejdet i samarbejde med repræsentanter fra både forsikrings- og pensionsselskaber. Det tager afsæt i seks overordnede spørgsmål til en datadrevet løsning som fx formål, hvilke data som indgår og hvilke konsekvenser løsningen har for kunden.
Sammen med en række ”hjælpespørgsmål” udgør spørgsmålene en skabelon for, hvordan selskaberne på en ensartet måde kan forklare deres AI- og datadrevne løsninger til kunderne. Den samlede beskrivelse til kunden vil fylde cirka ½ A4-side, som man kan linke til fra konkrete løsninger eller placere i en samlet oversigt over kundevendte løsninger.
Derudover kan det også være relevant at benytte skabelonen internt, så fx en sagsbehandler med afsæt i skabelonen kan forstå og forklare en datadrevet proces til kunderne på en let forståelig måde.
Tillid til brugen af kunstig intelligens
Ét er kunderne, noget andet er, hvordan vi internt i branchen opbygger de bedst mulige processer og sikrer tillid til løsningerne, når vi implementerer kunstig intelligens. Fordi det på sigt vil øge mulighederne for dataanvendelse, hvis kunderne tror på og kan se, at det sker på en ansvarlig måde.
I vores branche træffer medarbejderne hele tiden beslutninger, og nogle af dem har ikke et fuldkommen klart svar – det kunne fx være, når der gives et skøn. Vi kan som mennesker sagtens vurdere to næsten ens sager ret forskelligt. Men når vi implementerer en AI-løsning, vil den systematisk køre ud fra de regler, vi har defineret for den, og de data vi har lagt ind.
Udfordringen er at få de overvejelser, som hver dag vægtes, når vores medarbejdere træffer beslutninger afspejlet i de regler, som skal styre en AI-løsning, Det kræver, at vi får skabt synlighed omkring, hvilke elementer der er skal være definerende for, hvordan AI opleves og opfører sig.
Derfor giver det mening, at man ved implementeringen af AI bruger ekstra tid på at identificere elementer, hvor der sker et trade-off mellem forskellige hensyn, fordi vores ”svar” bliver systematiseret i løsningen. Er vi fx 100% afklarede om, hvornår vi skal vægte præcision via fx mere dataindsamling over privatliv (og mindre dataindsamling)?
Hvordan får vi så de ”skjulte” overvejelser frem? Det har F&P set på sammen med forskere fra det danske ”Algoritmer, Data og Demokrati”-projekt.
Udfordringen er, at ord som dataindsamling, dataprocessering og modellering ikke umiddelbart leder tankerne hen på menneskelige konsekvenser. Men de beslutninger, som tages, når man udvikler AI, kan få indflydelse på folks liv, fordi modeller i stigende grad bidrager til beslutninger, som vedrører mennesker – også på følsomme områder.
Derfor er det afgørende, at vi som branche er bevidste om at få afdækket de mulige de ”skjulte” dilemmaer og konsekvenser ved at tilføje AI til en proces.
Etisk trade-off mapping
F&P samlede derfor sammen med forskere fra ”Algoritmer, Data og Demokrati”-projektet en række eksperter fra forsikrings- og pensionsbranchen for at drøfte fire konkrete AI-user-cases i branchen.
Det kom ikke bag på nogen, at der var åbenlyse dilemmaer i alle cases. Det interessante var, at dilemmaerne i stort omfang tog afsæt i modstridende overvejelser - trade-offs, som i hovedtræk kunne fordeles på tre områder: Data og dataindsamling, kundens oplevelse og modellering.
I samme case kan der eksempelvis være gode argumenter for at minimere dataindsamlingen for at øge hensynet til kundernes privatliv. Omvendt kunne man samtidig argumentere for at bruge flere data, fordi det giver en mere ”fair” model og reducerer risikoen for uønskelig bias. Afvejningen af de to elementer afdækker et ”skjult” dilemma, hvor der ikke findes et svar med 2 streger under.
For at få disse dilemmaer frem i lyset kan man i implementeringen af AI afsætte tid til at identificere elementer, hvor der sker et trade-off mellem forskellige hensyn. En indsats som er ekstra vigtig i tilfælde, hvor outputtet bliver systematiseret efterfølgende.
For at understøtte denne drøftelse har F&P og Algoritmer, Data og Demokrati med afsæt i drøftelserne med medlemmerne udarbejdet et værktøj, som kan hjælpe forsikring- og pensionsselskaber med mere systematisk at identificere områder i AI-implementeringen, hvor der kan være skjulte dilemmaer eller ske markante trade-offs, og dermed sikre, at man tager de relevante drøftelser, inden man sætter to streger under sin AI.
Med andre ord handler det om, at vi skal få de ”skjulte” overvejelser og konsekvenser frem, så vi kan afveje hensynet til dem, som vores AI-modeller påvirker med beslutninger om data, dataindsamling og modellering.
Etisk dilemmakortlægning af AI-løsninger For at adressere de etiske dilemmaer, der kan være en integreret del af arbejdet med AI, har F&P og Alexander Gamerdinger, ph.d.-studerende hos ADD-projektet, udviklet en Etisk Trade-off Mapping, der kan bruges til at identificere skjulte etiske overvejelser i AI løsninger og tilpasse systemerne efter behov. · Rapporten og værktøjet kan downloades her Arbejdet bag F&P har i samarbejde med projektet Algoritmer, Data og Demokrati, afholdt en workshop med 36 data scientists, aktuarer, jurister og compliance-specialister fra 16 danske forsikrings- og pensionsselskaber. Her drøftede vi fire AI-user cases: - Brug af telematik og AI i bilforsikring Drøftelserne dannede grundlæg for det videre arbejde med rapport og værktøj. |
Knæk koden til gennemsigtig databrug – transparens for kunderne "Knæk koden” skal hjælpe kunderne med at få klarhed over, hvordan data bruges i konkrete datadrevne løsninger. Værktøjet er udarbejdet som led i F&P og medlemmernes arbejde med AI & dataetik. Arbejdet har været forankret i en projektgruppe for dataetik, mens den konkrete udformning af materialerne er sket i en arbejdsgruppe bestående af: - PKA |
Danskernes holdning til branchens databrug og kunstig intelligens F&P har I samarbejde med Epinion spurgt 1.559 danskere om deres holdninger til brug af data, algoritmer og kunstig intelligens.
· Ni ud af 10 danskere synes, det er vigtigt, at de virksomheder de er kunder hos bruger data etisk og ansvarligt · Syv ud af 10 danskere vil fravælge eller har allerede fravalgt en virksomhed på grund af deres brug af data. · Syv ud af 10 danskere oplever, at forsikring- og pensionsbranchen bruger data etisk og ansvarligt. · Når danskerne deler data med deres pensions- eller forsikringsselskab, er deres største bekymring, hvis der er uklarhed om, hvordan deres data bliver brugt Læs hele analysen: · Danskernes holdning til data, algoritmer og kunstig intelligens |