Seks bud fra en forsker: Hvordan sikrer man etisk kunstig intelligens?
Kunstig intelligens har et næsten uudtømmeligt potentiale til at forbedre samfundet, men teknologien er også forbundet med en række utilsigtede konsekvenser. Postdoc Per Rådberg Nagbøl, der er aktuel ved årets Digital Tech Summit, arbejder med kvalitetssikring og evaluering af brug af kunstig intelligens i det offentlige. Her giver han seks bud på, hvordan kunstig intelligens-udvikling kan styre udenom etiske faldgruber.
Skrevet 17. oktober 2023 07:17 af Theis Duelund Jensen
Kunstig intelligens (KI) har et stort potentiale til at forbedre vores samfund på mange forskellige måder og kan bruges til at løse komplekse problemer, automatisere opgaver og give os nye muligheder. Men KI er også forbundet med en række utilsigtede konsekvenser. Systemer og værktøjer baseret på KI kan fx forstærke bias og diskrimination – det er der allerede set tilfælde af.
”Man har med fordel brugt KI til at detektere hudkræft hos patienter – problemet er bare, at nogle KI systemer ikke fungerer lige så godt på personer med mørk hud, som på personer med lys hud,” siger Per Rådberg Nagbøl, der er postdoc ved Institut for Business IT på IT-Universitetet i København og i sin forskning arbejder med informationssystemer og kvalitetssikring af KI-løsninger.
I samarbejde med Erhvervsstyrelsen, der ifølge EU-Kommissionen har den mest avancerede praksis i forhold til etisk data governance i den offentlige sektor i EU relateret til KI, har Per Rådberg Nagbøl udviklet det såkaldte X-RAI framework, der gennem en række nøgleaktiviteter er designet til at minimere risici og utilsigtede negative konsekvenser i udviklingen af KI-værktøjer.
Her er seks punkter, der ifølge forskeren kan hjælpe os med at sikre udvikling af etisk og ansvarlig KI, som minimerer utilsigtede konsekvenser:
- Når man udvikler og anvender KI, er der behov for kontinuerligt at kvalitetssikre og minimere risici og utilsigtede negative konsekvenser igennem hele KI systemets livscyklus. Udviklingen går stærkt, og verden kan se helt anderledes ud, når produktet er klar til lancering eller i dets levetid. Man skal også holde sig for øje, at brugen af KI kan forandre arbejdsgange, mens træningsdatagrundlaget kan stamme fra arbejdsgange uden brug af KI.
- Kvalitetssikring bør understøttes af et mangfoldigt tværfagligt blik på processen, der som minimum inddrager domænespecialister og datascientists – i det offentlige kan man med fordel involvere interessenter som jurister eller borgere.
- Vurderingen skal ikke kun foretages ud fra performancemetrikker, men være holistisk. På den måde kan man sikre, at brugsscenariets krav til f.eks. forretningsværdi, transparens/forklarlighed, effekt, data, konsekvenser, identificering af bias, mitigering og fairness opfyldes.
- KI bør ikke idriftsættes, hvis der ikke er ressourcer til evaluering. Det er vigtigt at indtænke omgivelserne. Er der sæsonudsving eller begivenheder, der kan påvirke den kunstige intelligens? Hvor længe kan vi fx leve med, at den kunstige intelligens performer dårligt? De spørgsmål skal indtænkes i evalueringsplanlægningen.
- Der skal løbende afsættes ressourcer til ansvarlig KI. Det er f.eks. ofte ikke nok at kvalitetssikre i forhold til bias og fairness før ibrugtagelse – bias kan opstå via proxy. Det skal gøres igennem hele systemets livscyklus.
- Det kan være nødvendigt ved brug af flere KI-systemer at supplere den manuelle kvalitetssikring med automatiseret overvågning af KI-systemerne.
Theis Duelund Jensen, presseansvarlig, +45 25 55 04 47, thej@itu.dk