Stil krav til algoritmerne
EU's nye persondataregler giver større gennemsigtighed, men vi må ikke glemme selv at tage stilling til, hvordan vores data bliver brugt, skriver Rasmus Pagh, professor i datalogi ved IT-Universitetet. Debatindlægget er bragt i Weekendavisen fredag den 1. juni 2018.
Skrevet 1. juni 2018 07:33 af Rasmus Pagh
Algoritmer har større og større indflydelse på vores hverdag. I sundhedsvæsenet eksperimenterer man med at lade algoritmer hjælpe til at diagnosticere patienter ud fra scanningsbilleder.
Sagsbehandling og kundesupport kan delvist automatiseres ved hjælp af algoritmer (som for eksempel i SKATs vision om større automatisering af skatteinddrivelse og Nordeas satsning på chatbotter). Netbutikker bruger algoritmer til at vise potentielle kunder personligt tilpassede anbefalinger af varer. Algoritmer hjælper med at finde rejser, der passer til vores kriterier, og sørger for at matche publikum på streamingtjenesterne med film og musik, de synes om.
Og ikke at forglemme: Googles algoritmer hjælper os med at finde frem til præcis den information, vi er på jagt efter, når vi bruger deres søgemaskine.
Samtidig ser vi eksempler på, at samspillet mellem it-systemer og mennesker let kan gå galt. Algoritmer der fungerer perfekt i én sammenhæng kan begynde at lave utilsigtede fejl, hvis omstændighederne er nye.
Som for eksempel da Google Translate lavede oversættelser, der afspejlede kønsstereotyper. Eller da IBM’s prestigeprojekt Watson, der kan slå de bedste mennesker i verden i Jeopardy, troede at Toronto var en amerikansk by.
Elnettet, vandforsyningen og transportsektoren er underlagt klare regler og hyppig myndighedskontrol. Men på trods af, at vores samfund og kultur i større og større grad bygger på en infrastruktur, hvor algoritmer er centrale, er algoritmerne langt fra underkastet samme nøje granskning.
Når entreprenører opfører nye huse, er der strenge regler for brandsikkerhed. Elnettet, vandforsyningen og transportsektoren er underlagt klare regler og hyppig myndighedskontrol. Men på trods af, at vores samfund og kultur i større og større grad bygger på en infrastruktur, hvor algoritmer er centrale, er algoritmerne langt fra underkastet samme nøje granskning.
EU’s nye persondataforordning (GDPR) træder i kraft den 25. maj er dog et skridt i retning af, at den almindelige borger bedre skal kunne navigere i det digitale farvand – blandt andet gennem større gennemsigtighed om, hvordan en algoritme er nået frem til en bestemt beslutning.
Fremover skal virksomheder og organisationer gøre rede for, hvordan de opsamler og behandler personlige data. Borgerne får mere kontrol over, hvad deres personlige data bliver brugt til, og skal have mulighed for at anke beslutninger, der er truffet automatisk. Direktivet gælder alle virksomheder, der driver forretning i EU – altså også de amerikanske internetgiganter.
GDPR betyder langt fra, at vi kan læne os tilbage og regne med, at udviklingen nu er på rette kurs.
Men GDPR betyder langt fra, at vi kan læne os tilbage og regne med, at udviklingen nu er på rette kurs. GDPR giver kun en begrænset mulighed for indsigt i de algoritmer, der behandler vores data.
Og måske er fuld indsigt ikke engang nok, for sandheden er, at selv eksperter i algoritmer har en begrænset forståelse af de algoritmer, der bruges. Det skyldes delvist, at analyse af algoritmer er en ung disciplin (vi arbejder på det!), men også at det er komplekst at forstå, hvad der sker, når algoritmer behandler data fra en rodet, nogle gange kaotisk virkelighed.
Uanset hvor umage vi gør os, kommer algoritmernes råd, diagnoser og anbefalinger, ligesom menneskers, til at være behæftet med usikkerhed. Facebook har ikke altid ret, når dit ansigt genkendes på et billede. En automatisk analyse af din kreditværdighed eller din sundhed kan være fejlagtig. I nogle sammenhænge kan vi måske acceptere fejl og usikkerhed til gengæld for at få nye muligheder, men når det eksempelvis gælder vores økonomi, demokrati og sundhed, bør vi stille krav.
Vi skal holde øje med, at algoritmerne ikke utilsigtet bidrager til at øge ulighed og diskrimination ved at behandle befolkningsgrupper forskelligt. Det bliver kun vigtigere i takt med at algoritmiske beslutninger indføres på flere og flere områder.
Vi må finde den rigtige balance mellem på den ene side at sikre fairness og gennemskuelighed og på den anden side at gøre ny, værdiskabende teknologi mulig.
En start kunne være at stille krav om at den usikkerhed, der ligger i analysen af vores data, bliver synlig og kvantificérbar. I nogle sammenhænge bør det fx være muligt at få at vide, hvor ofte en algoritmes beslutninger er fejlagtige. Og vi skal holde øje med, at algoritmerne ikke utilsigtet bidrager til at øge ulighed og diskrimination ved at behandle befolkningsgrupper forskelligt. Det bliver kun vigtigere i takt med at algoritmiske beslutninger indføres på flere og flere områder.
Endelig skal vi huske, at selv om GDPR giver os nye muligheder for at få indsigt i og bestemme over, hvordan vores data bliver brugt, ændrer tingenes tilstand sig kun, hvis vi hver især gør brug af vores nyvundne indsigt i, hvad der sker med data.
Vi skal stemme på politikere, der tager ansvar for den digitale udvikling. Vi skal undgå virksomheder, der bruger vores data på måder, vi ikke stoler på.
Og sidst men ikke mindst må vi indse, at det kræver en folkeoplysningsindsats at ruste os til at forstå det algoritmiske samfund.
Rasmus Pagh, professor, telefon +45 7218 5284, email pagh@itu.dk