Vad innebär egentligen ansvar och hur används begreppet inom AI-etik? Vi kommer även att tala om vad moralisk handlingsfrihet och moraliskt ansvar innebär, och svårigheten att skuldbelägga någon.
icon

I. Algoritmer och ansvar

Parkeringskontrolltjänsten är ett exempel på hur algoritmer används alltmer för att automatisera offentliga tjänster. Eftersom algoritmer är exakta, snabba och noggranna ger de ofta förbättrad effektivitet, tillförlitlighet och konsekvens. Paradoxalt nog kan algoritmer även leda till systemfel, vara partiska och orsaka allvarlig skada. Till exempel kan det vara fel på ett avläsningssystem. Det kan göra misstag och föreslå parkeringsböter på ogiltig grund. Vem ska ta ansvaret när något sådant händer, och varför?

Även om vi säger saker som ”ja, det var algoritmens fel och det är den som bär ansvaret för att fel beslut togs”, menar vi inte bokstavligen att moderna algoritmer är moraliskt skyldiga. Det är snarare så att algoritmerna är kausala faktorer som ligger till grund för besluten. Orsaker är dock något annat än moraliskt ansvar.

Även om algoritmerna inte i sig själva kan hållas ansvariga – eftersom de inte är agenter i moralisk eller rättslig mening – så kan de organisationer som utformar och använder algoritmerna genom styrningsstrukturer ses som moraliskt ansvariga. I exemplet från Amsterdam är det den mänskliga parkeringskontrollanten som tar det slutliga beslutet, och det är därmed hen som är ansvarig. Det kan dock hända att även den mänskliga kontrollanten så småningom ersätts av algoritmer. Vem blir då ansvarig?

Du har nått slutet på det här avsnittet.

Fortsätt till nästa avsnitt