Tekoälystä pitää torjua syrjivät algoritmit

Alkuperäinen julkaisu Helsingin Sanomien Vieraskynässä 20.7.2019.

Tekoäly on tervetullut apu sosiaali- ja terveydenhuollon uudistamisessa. Sen avulla voidaan tehostaa ennalta ehkäiseviä toimia ja hillitä kustannuksia. Espoossa on onnistuttu ennustamaan lasten­suojelun tarvetta ja riskitekijöitä, mikä mahdollistaa ennalta ehkäisevän työn tehokkaamman kohdentamisen.

Tekoäly perustuu koneoppimiseen, joka on perusperiaatteiltaan puhdasta matematiikkaa: jono peräkkäisiä laskutoimituksia, joita ohjaa tietty toimintaohje eli algoritmi. Näiden algoritmien avulla saadaan aikaan lajitteluja ja ennustuksia, jotka hyödyttävät meitä monilla eri elämänalueilla. Terveydenhuollossa koneoppimisen avulla voidaan diagnosoida syöpä mikroskooppikuvista jo 92,5 prosentin tarkkuudella.

Algoritmit voivat kuitenkin tuottaa syrjiviä lajitteluja ja ennusteita, joiden logiikka jää helposti näkymättömiin. Koneoppimisessa algoritmia opetetaan tekemään valintoja historiallisen datan avulla. Tämä niin kutsuttu opetusdata voi jo valmiiksi sisältää tiettyjä ihmisryhmiä syrjiviä rakenteita. Kun algoritmi opetetaan toimimaan tällaisen datan avulla, lukitaan samalla syrjivät rakenteet osaksi algoritmia.

Yhdysvalloissa huomattiin rekrytointiin liittyvän syrjivän logiikan syntyvän juuri opetusdatan sisältämästä inhimillisestä vinoumasta. Rekrytoijat tarkastelivat samansisältöisiä ansioluetteloita, joista toisessa oli valkoihoiselta ja toisessa tummaihoiselta kuulostava nimi. Rekrytoijat valikoivat jatkoon enemmän valkoihoiselta kuulostavia. Kun tällaista dataa käytetään algoritmin kouluttamiseen, myös algoritmi päätyy suosimaan valkoihoiselta kuulostavia nimiä.

Suomessa on noussut esille automaattisiin luotonantopäätöksiin liittyvää syrjintää. Yhdenvertaisuus- ja tasa-arvolautakunta kielsi luotto­yhtiöltä tilastollisten menetelmien syrjivän käytön. Luottoyhtiön järjestelmä teki hakijan taustatietoihin perustuvia automaattisia päätöksiä ja asetti hakijat eriarvoiseen asemaan esimerkiksi äidinkielen, sukupuolen ja asuinpaikan perusteella.

Syrjivien algoritmien syntyä voidaan ehkäistä. Opetusdatan valinnassa on käytettävä ryhmiä kuvaavien kategoristen taustatietojen sijaan yksittäisten ihmisten käyttäytymistä kuvaavaa prosessidataa.

Esimerkiksi luotonantopäätöksessä on parempi käyttää päätöksen kohteena olevan henkilön taloudellista käyttäytymistä koskevaa dataa ryhmien keskimääräistä käyttäytymistä koskevan datan sijaan.

Toisena keinona on algoritmien vaikutusten simulointi. Ennen kuin algoritmi otetaan käyttöön esimerkiksi automaattisessa päätöksen­teossa, voidaan laskennallisesti tarkastella, miten se vaikuttaa erilaisiin vähemmistöihin.

Lisäksi algoritmit tulee altistaa jatkuvalle kriittiselle tarkastelulle julkaisemalla ne avoimesti. Algoritmeja voidaan korjata ja päivittää sitä mukaa, kun epäkohtia havaitaan.

Tekoälyn etiikan vaatimukset ovat erilaisia toimintaympäristöstä riippuen. Erityisesti sosiaali- ja terveydenhuollossa on tärkeää välttää ­ste­reotyyppisiä profilointeja sekä varmistaa vähemmistöryhmiä koskevien määrittelyiden kriittinen ja avoin tarkastelu.

Tekoälyyn liittyvän eettisen ohjeistuksen tulee pysyä kehityksen vauhdissa, jottei sillä toisinneta eriarvoisuutta esimerkiksi palveluissa. Kehitystyön pitää rakentua vastuulliselle pohjalle, joka ei heikennä kenenkään yhdenvertaisuutta tai ihmisarvoa.

Myönteisiä merkkejä omatoimisesta vastuullisuudesta on jo näkyvissä. Useat yritykset Suomessa laativat tekoälyn eettisen hyödyntämisen periaatteitaan. Helsingin Sanomat julkaisi eduskuntavaalien vaalikoneensa algoritmin avoimesti. Myös EU-tason asiantuntijaryhmissä sekä kansallisessa tekoälyohjelmassa pohditaan vastaavia asioita.

Tekoälyn syvällinen hahmottaminen on vielä harvojen, lähinnä teknis-luonnontieteellisten asiantuntijoiden varassa. Tekoälyn hyödyntämisen lisääntyessä esiin nousee yhä enemmän yhteiskuntaan ja inhimillisyyteen liittyviä kysymyksiä.

Eettisten kysymysten takia myös suuren yleisön pitää pystyä seuraamaan tekoälyn logiikkaa. Uhka­kuvien sijaan on olennaista lisätä arkiymmärrystä tekoälystä ja sen mahdollisista vinoumista.

Jenni Wessman ja Joonas Pesonen

Wessman on projektipäällikkö yhdenvertaisuus ja osallisuus -yksikössä Terveyden ja hyvinvoinnin laitoksella. Pesonen on datatieteilijä Rapida oy:ssä.