IV. Vastuiden erottelun ongelma
Vastuullisuutta pidetään usein yksilön tai organisaation oikeudellisena ja eettisenä velvoitteena ottaa vastuu tekoälyjärjestelmien käytöstä ja julkistaa tulokset avoimesti. Tämä muotoilu edellyttää ”voimasuhdetta”. Sillä yksilöidään, kuka on vastuussa ja ketä on syytettävä.
Tunnetusti on kuitenkin osoittautunut vaikeaksi asettaa erityisiä kriteerejä sille, miten vastuut tarkalleen ottaen olisi jaettava, kohdistettava ja määriteltävä. Näistä kysymyksistä käydään keskusteluja monissa maissa. Kansainväliset toimijat, kuten Euroopan unioni ja G7-maat, ovat käsitelleet näitä kysymyksiä ratkaisemattomina haasteina.
Miksi on niin vaikeaa asettaa kriteerejä sille, kuka on vastuussa?
-
Ensinnäkin vastuiden laatu vaihtelee. Toimija on vastuussa tietystä teosta tai tekemättäjätöstä, mutta vastuun laatu riippuu sidosryhmästä. Vaikka valitsemalla tietyn teon voit saada vastuun, vastuun laatu riippuu myös ominaisuuksistasi. Älykkäät teknologiat monimutkaistavat tätä kysymystä entisestään.
Kun annamme yhä enemmän päätöksentekotehtäviä ja -toimintoja algoritmeille, muokkaamme myös päätöksentekorakenteita. Tekoäly lisää älykkyyttämme antamalla meille enemmän laskentatehoa, mahdollistamalla paremmat ennusteet ja parantamalla anturilaitteitamme. Ihmisistä ja koneista tulee kognitiivisia hybridejä. Ihmiset ja koneet tekevät kognitiivista (ajattelu) ja episteemistä (tieto) yhteistyötä sekä yksilötasolla että kollektiivisella tasolla. Näin syntyy systeemisiä ominaisuuksia.
Usein ajatellaan riittävän, että ihminen osallistuu prosessiin (human-in-the-loop) tai voi osallistua siihen (human-on-the-loop) – mikä tarkoittaa, että jossain päätöksenteon vaiheessa ihmisyksilö pystyisi valvomaan tekoälyjärjestelmää tai puuttumaan sen toimintaan. Kun algoritmit osallistuvat päätöksentekoon esimerkiksi julkishallinnossa, yhteinen päätöksenteko voi kuitenkin olla hyvin monimutkaista ja hyvin hajautettua. Tekijöiden erottaminen toisistaan ja niihin puuttuminen tavalla, joka takaisi, että ihminen osallistuu prosessiin tai voi osallistua siihen, voi olla todella vaikeaa.
-
Toiseksi teknologia voi myös olla suostuttelukykyistä: se vaikuttaa ihmisiin ja ohjaa heitä. Klassinen esimerkki on turvavöiden piippaava ääni. Jos turvavyötä ei ole kiinnitetty, se aiheuttaa monissa autoissa jatkuvan piippauksen. Tätä voidaan pitää eräänlaisena ohjaavana vaikutusvaltana – tässä tapauksessa eräänlaisena pakottamisena. Kuljettaja voi lopettaa äänen vain kiinnittämällä turvavyön. Nykyisillä algoritmisilla sovelluksilla voi olla yhä enemmän tällaisia ominaisuuksia – algoritmit ehdottavat, suosittavat ja rajoittavat vaihtoehtoja.
Teko kuitenkin tehdään vapaaehtoisesti vain, jos se tehdään tarkoituksellisesti (se, joka toimii, päättää asiasta) ja ohjailevat vaikutteet eivät vaikuta siihen. Onko kuljettaja riippumaton ohjailevista vaikutteista, jos turvavyöjärjestelmä pakottaa hänet reagoimaan piippaukseen? Entä olemmeko vapaita ohjailusta, jos algoritmit päättävät, kenen kuvia näemme treffisivustoilla tai mitä musiikkia aiomme kuunnella? Mikä tarkalleen ottaen on ero algoritmisen ehdotuksen, hallinnan tai manipuloinnin välillä?
Suostuttelukykyisen teknologian olisi luonnollisesti täytettävä vapaaehtoisuutta koskeva vaatimus autonomian takaamiseksi. Algoritmit monimutkaistavat tätä kysymystä, koska vapaaehtoisuus edellyttää riittävää ymmärrystä tietyn teknologian käytöstä. Mitä ”ymmärtää” itse asiassa tarkoittaa, ja mikä on riittävää? Millä ”ymmärrettävyyttä” mitataan – ”läpinäkyvyydellä”, ”selitettävyydellä” vai ”tarkastettavuudella”? Kuinka paljon käyttäjän tarkalleen ottaen pitäisi ymmärtää tekniikkaa, ja mitä hänen pitäisi ymmärtää siitä? Milloin voidaan aidosti arvioida, haluavatko käyttäjät käyttää kyseistä teknologiaa vai eivät? Tarkastelemme tätä aihetta tarkemmin luvussa 4.
Olet päässyt tämän osan loppuun!
Seuraava osa: