Miksi tekoälyn läpinäkyvyys on tärkeää, ja mihin pääkysymyksiin läpinäkyvyys vaikuttaa? Entä mitä riskejä liittyy tekoälyjärjestelmien läpinäkyvyyteen?
icon

III. Läpinäkyvyys ja avoimuuden riskit

Läpinäkyvyys tarkoittaa usein modernia, eettis-sosio-oikeudellista ”ihannetta” (Koivisto 2016), normatiivista vaatimusta teknologian hyväksyttävälle käytölle yhteiskunnissamme. Läpinäkyvyys ilmentää ”avoimuuden” ihannetta, joka koskee ”avointa hallintoa”, ”avointa dataa”, ”avointa lähdekoodia/koodia/saatavuutta” ja ”avointa tiedettä” (Larsson 2020). Läpinäkyvyyttä koskevia näkökohtia tarvitaan tällä tavoin helpottamaan tieteellisten edistysaskelten tasapuolista jakautumista, jotta tekoälyn kehityksen hyödyt ovat kaikkien ihmisten saatavilla.

Kokoavasti voidaan todeta, että vaikka tekoälyä varten on kehitettävä läpinäkyvämpiä käytäntöjä, lisäksi on kehitettävä käytäntöjä, jotka voivat auttaa välttämään väärinkäytöksiä. Vaikka läpinäkyvyys voi auttaa lieventämään eettisiä ongelmia – kuten oikeudenmukaisuuteen tai vastuullisuuteen liittyviä pulmia – läpinäkyvyys aiheuttaa myös eettisesti merkittäviä riskejä. Liiallinen avoimuus väärässä yhteydessä voi tehdä tyhjäksi tekoälyn mahdollistamien prosessien myönteisen kehityksen. Kaiken kaikkiaan on selvää, että algoritmien täydellisen läpinäkyvyyden ihannetta olisi pohdittava huolellisesti ja että turvallisuus- ja läpinäkyvyysnäkökohtien välillä on löydettävä tasapaino.

Olet päässyt tämän osan loppuun!

Seuraava osa: