Mitä haasteita tekoälyn etiikalla on nykyisin? Mikä asema tekoälyä koskevilla ohjeilla on keskustelun muovaamisessa, ja millaista tuleva kehitys saattaisi olla?
icon

III. Etiikan kehittäminen

Jos siirrytään eettisiä ohjeita pidemmälle, miten tekoälyn etiikan pitäisi ilmetä tulevaisuudessa? Millaisia keskusteluja tekoälyn etiikasta pitäisi käydä? Entä millaisilla toimilla ja tavoilla etiikkaa pitäisi toteuttaa käytännössä? Tähän kysymykseen on vaikea vastata, mutta joitakin vihjeitä voidaan löytää tarkastelemalla, mitä tähän mennessä on jäänyt edellä käsiteltyjen tekoälyä koskevien ohjeiden ulkopuolelle.

Oikeudenmukaisuus, vastuullisuus ja läpinäkyvyys ovat nousseet etualalle tekoälyn etiikkaa koskevassa keskustelussa. Niitä vastaavat englanninkieliset sanat esiintyvät myös eettistä tekoälyä käsittelevän suurimman tieteellisen konferenssin nimessä: Conference on Fairness, Accountability, and Transparency eli FAccT. Kuten AuroraAI osoittaa, apua, hyvinvointia sekä valtion ja kansalaisten välisiä suhteita koskevat kysymykset ovat kuitenkin moraalisia peruskysymyksiä. Niitä olisi pohdittava kaikissa valtioissa, jotka pyrkivät hyödyntämään tekoälyä julkisen sektorin palveluissaan.

Nämä arvot eivät kuitenkaan usein näy eettisissä ohjeissa. Miltä sitten näyttäisi, jos tekoälyn etiikkaa tarkasteltaisiin hoivaetiikan näkökulmasta? Hoivaetiikan mukaan on otettava huomioon yksilöiden väliset monimutkaiset ja keskinäiset riippuvuudet sekä se, miten toimien seuraukset leviävät ja vaikuttavat heikoimmassa asemassa oleviin ja miten luonto ja ekologia kietoutuvat näihin prosesseihin.

Siirryttäessä uusista näkökulmista uusiin käytäntöihin on syytä tarkastella, miten kansalaisten ja kansalaisyhteiskunnan sekä yritysten olisi osallistuttava entistä oikeudenmukaisemman tekoälyn luomiseen. Eettisen tekoälyn luominen käytännössä tarkoittaa siirtymistä hyvien aikomusten julkaisemisesta niihin moniin tapoihin, joilla yhteiskunnalliset toimijat voivat osallistua erilaisten tulevaisuuksien toteuttamiseen.

Ada Lovelace Instituten johtaja Carly Kind kutsuu tätä tekoälyn etiikan kolmanneksi aalloksi ja esittää, että olemme siirtymässä uuteen yhteiskunnallisen sitoutumisen muotoon:

  • ”Tekoälyn etiikan kolmannen aallon aikana hollantilainen tuomioistuin on lopettanut algoritmisen petosten havaitsemisjärjestelmän toiminnan, opiskelijat ovat lähteneet Yhdistyneessä kuningaskunnassa kaduille protestoimaan algoritmien avulla päätettyjä tenttituloksia vastaan ja yhdysvaltalaiset yritykset ovat rajoittaneet vapaaehtoisesti kasvojentunnistusteknologiansa myyntiä. Tämä vie meidät periaatteellisia ja teknisiä kysymyksiä pidemmälle käytännön mekanismeihin, joilla korjataan vallan epätasapainoa ja saavutetaan yksilöllinen ja yhteiskunnallinen oikeudenmukaisuus.”

    -Carly Kind

Loppupäätelmä: nyt on sinun vuorosi

Tekoälyjärjestelmiä koskevat eettiset kysymykset liittyvät tekoälyjärjestelmän elinkaaren kaikkiin vaiheisiin. Elinkaaren ymmärretään tässä käsittävän kaiken tutkimuksesta, suunnittelusta ja kehittämisestä käyttöönottoon ja käyttöön, mukaan lukien ylläpito, toiminta, kauppa, rahoitus, seuranta ja arviointi, validointi, käytön päättyminen, purkaminen ja lopettaminen.

Tässä yhteydessä tekoälyalan toimijat voidaan määritellä toimijoiksi, jotka osallistuvat vähintään yhteen tekoälyn elinkaaren vaiheeseen. Toimijat voivat olla luonnollisia henkilöitä tai oikeushenkilöitä, kuten tutkijoita, ohjelmoijia, insinöörejä, datatieteilijöitä, loppukäyttäjiä, suuria teknologiayrityksiä, pk-yrityksiä, startup-yrityksiä, korkeakouluja tai julkisyhteisöjä.

Tekoäly kehittyy nopeasti. Vaikka kukaan ei voi sanoa varmasti, miten tekoäly vaikuttaa elämäämme tulevaisuudessa, voimme silti vaikuttaa asiaan. Kuten useimpiin kehittyviin teknologioihin, tekoälyyn liittyy todellisia riskejä. Jos tekoälyä kehitetään ja käytetään eettisesti kestävällä tavalla, tekoälyllä voi kuitenkin olla monia myönteisiä seurauksia – ei vain yksilöille tai yhteiskunnille, vaan koko maapallolle. Kehityksen suunta riippuu kuitenkin vain meistä.

Valinta, ei sattuma, määrää kohtalosi.”

-Aristotle

Future

Olet päässyt tämän osan loppuun!