Varför är transparens viktig inom AI och vilka viktiga frågor påverkas av transparens – och vilka risker innebär transparens för AI-system?
icon

I. Transparens inom AI

Transparensprincipen

Föreställ dig ett ansiktsigenkänningssystem, vi kan kalla det för MYFACE. MYFACE används för säkerhetsändamål på flygplatsen. Vanligtvis fungerar det utan problem, men en dag börjar det felkategorisera personer som potentiellt farliga. Det resulterar i att ett flertal oskyldiga personer anhålls. Skulle det vara betydelsefullt att få reda på varför systemet begick dessa misstag? Behöver vi kunna förklara varför misstagen begicks? Varför är detta viktigt?

myface

Många av dagens maskininlärningssystem är s.k. ”svarta lådor” och vi kan inte se hur de fungerar. Denna opacitet, eller brist på insyn, kan bli ett problem om vi använder systemen för att fatta beslut som påverkar människor.

Alla har rätt att veta hur kritiska beslut fattas om till exempel vem som godkänns för ett lån, vem som får villkorlig frigivning eller vem som anställs. Detta har fått många att efterlysa en mer transparent AI.

Transparens inom AI

Transparens är en systemegenskap som gör det möjligt att få tillgång till viss information om systemets inre funktionalitet. Vilken information det rör sig om, och huruvida den är etiskt relevant, beror till stor del på den etiska fråga vi försöker besvara. Transparens är i sig själv etiskt neutral och utgör inte ett etiskt begrepp. Det handlar snarare om ett ideal. Transparens kommer i många olika skepnader, och kan ge en lösning på underliggande etiska problem. Det innebär att frågan om transparens är relevant för åtminstone följande tre frågor:

1) Rättfärdigande av beslut. En god styrelseform i offentlig och privat sektor kräver att beslut inte är godtyckliga. Detta gäller för alla typer av beslutsfattande som har en etiskt eller juridiskt relevant påverkan på individer. Kravet på avsaknad av godtycklighet innebär att vi ska ha tillgång till förklaringar av varför och på vilka grunder ett visst beslut fattades? Därutöver är det särskilt i offentliga sektorn viktigt att det går att bestrida och överklaga beslutet. Det representerar en begäran att korrigera felaktigheter.

2) Rätt att veta. Enligt de mänskliga rättigheterna har människor rätt att få förklaringar för hur beslut har fattats så att de på riktigt kan bibehålla sin agens, frihet och integritet. (Mer information om mänskliga rättigheter hittar du i kapitel 5.) Frihet har att göra med rätten att få svar på frågor av typen ”hur spåras jag?”, ”vilken typ av slutledningar dras om mig?” och ”exakt hur har ni kommit fram till dessa slutledningar?”.

3) Moralisk förpliktelse att förstå konsekvenserna av våra handlingar. Som samhälle har vi även ett ansvar att hantera risker. Vi har till en viss rimlig nivå en moralisk förpliktelse att förstå och förutse konsekvenserna av de typer av teknik vi framställer. Det innebär att ”vi kan inte idag förstå vad den kommer att användas för i framtiden” inte är ett giltigt argument för att släppa kontrollen över ett system som orsakar skada. Det är tvärtom vår moraliska skyldighet att utforska möjliga risker.

Alla dessa tre punkter kan sammanfattas som en efterfrågan på tillräcklig information. Vet vi om och i vilken utsträckning det här algoritmbaserade beslutet är rättfärdigat? Vet jag hur slutledningar om mig görs? I vilken utsträckning är jag ansvarig för systemets handlingar, och hur mycket behöver jag veta om systemets inre funktioner för att kunna ta detta ansvar?

Du har nått slutet på det här avsnittet.

Fortsätt till nästa avsnitt