Kunstig intelligens og menneskelig etikk

Kunstig intelligens og menneskelig etikk

“Data er den nye oljen” sto det på forsiden av The Economist i mai 2017. De store internett-selskapene utnytter data for å få innsikter i kundemassen og tilby skreddersydde opplevelser for den enkelte kunde. Det er kunstig intelligens som muliggjør dette. En maskin er i stand til å prosessere store mengder data, og generalisere basert på de underliggende strukturene.

Kunstig intelligens og menneskelig etikk

Innsamling og bruk av personlige data kan innebære juridiske og etiske dilemmaer. Potensialet for betydelig samfunnsgevinst må veies opp mot grunnleggende personvernhensyn. I mange tilfeller er det sensitive persondata som også har høyest verdi for private selskaper, siden de gir innsikt i oppførsel og preferanser. Samtidig vil feilaktig bruk av de mest sensitive persondataene, som genetisk sammensetning eller arvelige disposisjoner, bryte ned tilliten i befolkningen og hindre folk i å dele data. Dette vil igjen begrense forskere, private aktører og offentlig sektorer som kan utvikle kunstig intelligente tjenester for å løse viktige samfunnsproblemer.

Derfor må personvern bygges inn i teknologien – vi må utvikle bedre rutiner, retningslinjer og etiske prinsipper for behandling av personlige data som vil stimulere privatpersoner til å dele data for å skape innsikt gjennom forskning, innovasjon og næringsutvikling med utgangspunkt i nye teknologiske muligheter innen kunstig intelligens.

Etiske dilemma i praksis


Siden data brukes til å trene opp kunstig intelligente modeller, vil ikke modellen være bedre enn de dataene den får servert. Det vil si at hvis det er skjevheter eller fordommer i datasettet, vil den kunstig intelligente modellen også ha disse skjevhetene. Historiske data inneholder ofte skjevheter, og utviklere av kunstig intelligens må være påpasselig for å redusere eller fjerne slike svakheter i datasettene.

Dette er spesielt viktig ved bruk av kunstig intelligente modeller fordi det ofte ikke er så lett å forklare hvordan disse modellene resonnerer. I den metodikken som er omringet av mest hype nå for tiden, dyp læring, er selve modellen en stor mengde tall som påvirker hverandre. Kunnskapen er altså distribuert, og kan ikke enkelt forklares - det kalles en svart boks. Det forskes på verktøy og metoder for å forklare de indre mekanismene i slike modeller, men inntil de er klare må man være ekstra nøye med at datasettet ikke inneholder skjevheter eller andre svakheter som nevnt ovenfor.

I USA er det et eksempel hvor rettsvesenet brukte kunstig intelligens for å lage risikoprofiler av domfelte, for å vurdere gjentakelsesfare. Ikke bare er skjulte algoritmer en trussel mot åpenhet, men det viste seg at de historiske dataene og de skjulte algoritmene reproduserte sosiale ulikheter - blant annet slik at svarte menn vurderes urettferdig strengt, fordi dataene de baserer seg på stammer fra et system sårbart for rasediskriminering.

akselsen-tideman-stn-18-750x400 Forsker Telenor Research, Axel Tidemann, Seniorforsker Telenor Research, Sigmund Akselsen

Hensyn til svakheter i datasettene er spesielt viktig for modeller som utvikles for å forutsi oppførsel, og som kan begrense friheten til enkeltindivider. Om en person viser seg å ha en veldig risikabel kjørestil kan det være greit av forsikringsselskapet å kreve høyere premie, men det kan være feil å nekte personen og ha førerkort. Slik kan altså sensitive data og det at modellen er en svart boks spille inn på en persons rettigheter. Den nye GDPR (Global Data Protection Regulation) inneholder da også en klausul mot bruk av automatisert saksbehandling for områder som får konsekvenser for individet. Disse områdene trenger derfor forklaringsmodeller hvis dem skal ta i bruk kunstig intelligens basert på for eksempel dyp læring.

Kunstig intelligens er spådd å få en stor innvirkning på arbeidsmarkedet. Mange overvurderer kunstig intelligens og ordlegger seg som om det skapes kunstig bevissthet, men feltet er i realiteten veldig langt unna å oppnå slike kognitive egenskaper. Likevel er teknologien moden nok til at mange rutinemessige, enkle oppgaver vil automatiseres. Dette vil kreve en kraftig omstilling i arbeidslivet, både på kort og lang sikt. Noen yrker vil bli nærmest overflødige, som for eksempel sjåfører, mens andre vil oppleve en effektivisering, for eksempel leger som kan støtte seg på kunstig intelligens for mer nøyaktig og oppdaterte diagnoser innenfor noen områder. Denne utviklingen er uunngåelig, og bør ikke hindres av regulering. I stedet bør fokuset være på videreutdanning og omstillingstiltak for å spesialisere arbeidsstokken på det mennesker er gode på - omsorg, kreativitet og tverrfaglighet.

Ansvarlig innovasjon, myndighetenes rolle og anbefalinger


I Norge har befolkningen tradisjonelt hatt stor tillit til at myndighetene ivaretar enkeltmenneskets rettigheter. Ulike tilsyn og interesseorganisasjoner spiller en viktig rolle i denne sammenheng. Datatilsynet har nylig gitt sine anbefalinger til myndighetene i en rapport om kunstig intelligens og personvern. De trekker fram offentlig sektor som rollemodell med høy bevissthet rundt etikk og personvernkonsekvensene ved å anvende kunstig intelligens. Videre må midler bevilges til forskning som sikrer at teknologien håndterer personopplysningene i samsvar med personvernregelverket, tilsynsmyndighetene må utvikle nødvendig kompetanse for regulering, og lovgivningen må holde følge med den teknologiske utviklingen. Anbefalingene er betimelige, men myndighetene har også et ansvar for å stimulere til forskning, innovasjon og næringsutvikling med utgangspunkt i nye teknologiske muligheter. Telenor har påpekt behovet for en nasjonal strategi for kunstig intelligens. En aksjon fra myndighetenes side vil kunne være utvikling av etiske retningslinjer og tiltak for å legge bedre til rette for åpenhet og deling av data innen viktige samfunnsområder som f.eks. helse og havbruk for forskning på kunstig intelligens (etter modell av Storbritannia og deres “Data Trusts”). Dette vil også være i tråd med den europeiske lovgivningen på området som åpner opp for tilgang til persondata for vitenskaplig og næringsrettet forskning og utvikling. Vi er positive til at den utvidete regjeringen i sin politiske plattform slår fast at de vil “utvikle retningslinjer og etiske prinsipper for bruk av kunstig intelligens”, og vil følge spent med på dette arbeidet.

Konklusjon


Kunstig intelligens har stort potensiale for verdiskaping innenfor offentlig og privat sektor, og til å gi bedre og mer persontilpassede tjenester til nytte for privatpersoner og samfunnet som helhet. Som nasjon trenger Norge å utvikle mer egen kompetanse på kunstig intelligens for å ta del i verdiskapningen på våre data. Men vi må gjøre dette innenfor lovens rammer, og med etiske betraktninger som fundament.

Dette betyr:
  1. styrke bevisstheten rundt skjevheter i datasett for kunstig intelligens og hvordan omgå disse,
  2. økt fokus på innebygd personvern for kunstig intelligens,
  3. fokus på videreutdanning og omstilling for å redusere negative konsekvenser av effektivisering fra kunstig intelligens.