Mitä vastuullisuus oikeastaan tarkoittaa, ja miten sitä sovelletaan tekoälyn etiikkaan? Lisäksi tarkastelemme moraalisen toimijuuden ja vastuun merkitystä sekä vastuullisen osoittamisen vaikeutta.
icon

I. Algoritmit ja vastuullisuus

Pysäköinninvalvontapalvelut ovat esimerkki siitä, miten algoritmeja käytetään yhä enemmän julkisten palvelujen automatisointiin. Koska algoritmit ovat tarkkoja ja nopeita, ne lisäävät usein palvelun tehokkuutta, luotettavuutta ja johdonmukaisuutta. Paradoksisesti algoritmit voivat myös tehdä järjestelmällisiä virheitä, olla vinoutuneita ja aiheuttaa vakavia haittoja. Esimerkiksi skannausjärjestelmiin voi tulla toimintahäiriö tai ne voivat sisältää ohjelmavirheitä. Järjestelmät voivat tehdä virheitä ja ehdottaa sakkojen antamista pätemättömin perustein. Kenen pitäisi näissä tapauksissa ottaa vastuu – ja millä perusteella?

Vaikka voimme sanoa esimerkiksi ”kyllä, se oli algoritmin vika, ja algoritmi on vastuussa väärästä päätöksestä”, emme tarkoita kirjaimellisesti, että nykyiset algoritmit olisivat moraalisesti syyllisiä. Sen sijaan algoritmit ovat päätösten taustalla olevia syy-yhteyteen liittyviä tekijöitä. Pelkät syyt eroavat kuitenkin moraalisesti vastuullisista teoista.

Vaikka algoritmeja itseään ei voida pitää vastuullisina, koska ne eivät ole moraalisia tai juridisia toimijoita, algoritmeja suunnittelevia ja käyttäviä organisaatioita voidaan pitää moraalisesti vastuullisina hallintorakenteiden kautta. Näin ollen Amsterdamin kaupungin tapauksessa lopullisen päätöksen tekee ihmistarkastaja – ja hän on myös vastuussa päätöksestä. Jonain päivänä ihmistarkastajakin saatetaan kuitenkin korvata algoritmeilla. Kuka sitten ottaa vastuun?

Olet päässyt tämän osan loppuun!

Seuraava osa: