Tekoälykin voi olla ennakkoluuloinen. Tunnettuja esimerkkejä on useampia: Sciendossa julkaistussa tutkimuksessa huomattiin, että Googlessa korkeapalkkaisen työn mainosta näytettiin moninkertaisesti enemmän miehille kuin naisille. Microsoftin chatbot oppi hetkessä rasistiksi ja Googlen kuva-algoritmi “tunnisti” tummaihoiset gorilloiksi. Science-lehdessä julkaistussa tutkimuksessa taas todettiin, että kone oppi datasta sana-assosiaatioiden mukana ihmismäisiä ennakkoluuloja. Tuntuu vähän ahdistavalta. Eikö tekoälyteknologioista voisi vain, niinku, tehdä intersektionaalisia feministejä?

TEKSTI Ripsa Niemi ja Heidi Puomisto KUVITUS Katri Astala

TEKOÄLY ON NYT joku pöhinän aihe ja asia, josta ainakin pitäisi olla kiinnostunut. Tiivistettynä junaan nyt hyppääville: algoritmit, jotka hyödyntävät tekoälyä, ovat sairaan nopeita ja sairaan tehokkaita. Ne voivat käydä läpi niin paljon dataa sellaisessa vilauksessa, että vastaus kysymykseen, johon ennen meni jopa vuosikymmeniä vastata, voidaan saada jopa sekunneissa.

Aiemmin automatisoitiin päässälaskenta, koska sitä ei ollut mitään järkeä jättää ihmisten tehtäväksi. Nyt tekoälyn kyydissä mennään taas etiäppäin.

Mutta siis tekoälyä soveltavissa teknologioissa ei ole kyse tietenkään vain jostain erityisen nopeista laskimista. Ne pystyvät paitsi analysoimaan dataa, myös luomaan uutta. Kun Spotify suosittelee uutta musiikkia, sen algoritmi tekee päätelmän aiemman tiedon pohjalta. Koska kuuntelit Bon Iverin Skinny Loven vuonna 2009 noin 540 kertaa, ohjelma osaa arvella, että voisit pitää tästä uudesta, toisenlaisesta indieulinasta.

Nyt on tietojenkäsittelytieteen professorin Hannu Toivosen sanoin kyse taas vain uusien toimintojen automatisoimisesta. Muutos on merkittävä, mutta ei tee sen enempää dystopioista kuin utopioistakaan totta. Algoritmit pyrkivät yksinkertaisesti automatisoimaan sen, että havaintojen pohjalta tehdään yleistyksiä. Ettei ihmisen tarvitsisi.

MITÄS SITTEN JOS ne yleistykset ovat seksistisiä? Tai vaikka hiukkasen rasistisia, ableistisia tai muuten vähemmistöjä sortavia?

Algoritmien tekemille valinnoille ei saa perusteluja, ja koodi on usein osa liikesalaisuutta. Yksittäinen koodari ei tosin ole tässä kohtaa yhtään paremmassa asemassa – hän saattaa tietää suuntaviivoja jonkin algoritmin toiminnasta, mutta prosessissa on niin paljon ja niin hienovaraisia yksittäisiä askelia, ettei sitä ole mahdollista seurata taaksepäin.

Päätelmän jäljittäminen olisi yksinkertaisesti niin työlästä, ettei sitä käytännössä voida tehdä. Tähän viitataan usein sanomalla, että algoritmit ovat mustia laatikoita emme voi katsoa konepellin alle. Miten yksittäinen ihminen voi puolustaa oikeuksiaan, jos ei voida tietää, millä perusteella hänestä tehdään päätöksiä?

Miten määritellä käsitteet kuten syrjintä tai sukupuoli niin, että konekin ymmärtäisi?

VASTUUN KANTAVAT KUITENKIN aina ihmiset. Jos haluamme reilun tekoälyn, pitää sitä suunnittelevien ihmisten, eli devaajien ja koodarien, intresseissä olla eettisyys.

“Tekoäly näyttää tekijöiltään ja algoritmeja koodaavien organisaatioiden tavoitteilta. Se ei ole yhtään sen parempi tai huonompi kuin sen tekijätkään”, muistuttaa Suomen Tekoälyohjelman etiikka-alatyöryhmän puheenjohtaja ja Saidot.ai:n toimitusjohtaja Meeri Haataja.

It-ala on kuitenkin yhä vahvasti sukupuolittunut. Tivin alkuvuodesta tekemän kyselyyn vastanneiden alan yritysten työvoimasta vain noin 27 prosenttia on naisia. Wired-lehti taas uutisoi elokuussa tekemästään arviosta, jonka mukaan johtavista tekoälytutkijoista naisia on vain noin joka kahdeksas. Näyttääkö tekoäly suurimmaksi osaksi miehiltä?

“Tietynlaisen teknologian kehittäminen on toki valinta, ja tietotekniikassa on aika kauhea sukupuolten epätasapaino”, Aalto-yliopiston professori ja tietotekniikan tutkija Jaakko Lehtinen sanoo.  

“Ei kuitenkaan ole oikein vetää negatiivisia johtopäätöksiä, koska kaikkien tieteentekijöiden motivaatio on tehdä hyvää. He voivat olla siiloutuneita, mutta eivät haluaisi olla”, hän jatkaa. “Siksi se, että keskustellaan avoimesti ja yhdessä eri näkökulmista on tässä hommassa tosi tärkeää.”

PERINTEINEN TAPA LÄHESTYÄ ongelmia on säännellä niitä, niin myös tekoälyn kohdalla. Rajataan mahdollisuutta toimia miten vain ja pienennetään siten epämiellyttävien seurauksien riskiä. Tuttu juttu.

Joidenkin tutkijoiden mielestä tekoälyfirmoja tulisikin säännellä kuten rakennusalaa eiväthän arkkitehdit saa muotoilla kaupunkia taiteellisen visionsa mukaan, vaan he työskentelevät kaupunkisuunnittelijoiden kanssa ja kaavoitusten ja lisenssien rajoissa. Tutkijaryhmä ehdottaa kolmatta osapuolta, jonkinlaista järjestelmiä valvovaa ja sääntelevää elintä.

Suomessa sääntelyä lähestytään nyt alhaalta ylöspäin. Työ- ja elinkeinoministeriön vetämä Tekoälyaika haastaa yrityksiä laatimaan omat tekoälyn eettiset periaatteet. Riittääkö se, jos kaikki eivät halua olla vapaaehtoisesti reiluja?

“Lainsäädäntö on ehdottomasti relevantti vaihtoehto. Tekoälyä on kuitenkin vaikeaa säädellä lailla, sillä se on aiheena niin abstrakti. Lainsäädäntöä tulee pohtia, mutta sääntely ei saa olla hätiköityä”, sanoo hankkeessa vaikuttava Haataja.

Haataja korostaa ongelmien ratkaisemisessa konkretiaa. “Peräänkuulutan konkreettisten ratkaisujen tunnistamista, sillä se vie asioita nopeammin eteenpäin. Mielestäni organisaatioita pitää auttaa ottamaan konkreettisia askeleita kohti eettistä tekoälyä.”

Feministinen teoria ja tekoäly esiintyvät tutkimuskentällä yhdessä nousevissa määrin. Myös monet niistä periaatteista, joita peräänkuulutetaan tekoälyn etiikan kentällä, voidaan ymmärtää feministisinä tai ainakin yhteensopivina feministisen ajattelun kanssa.

Esimerkiksi EU-komissio valmistelee vuoden loppuun mennessä tekoälyn eettisiä linjauksia, jotka perustuvat EU:n ihmisoikeuskirjaan ja The European Group on Ethics in Science and New Technologies -ryhmän (EGE) tekemään raporttiin. EGE:n esittämien perusperiaatteiden mukaan tekoäly ei saa loukata ihmisen luontaista oikeutta kunnioitukseen.  Myös Suomessa valtiovarainministeriön tietopoliittisessa selonteossa todetaan: ”Etenkin datavalintoihin tulee kiinnittää huomiota, etteivät ihmisajattelun vääristymät ja vinoumat kopioidu algoritmeihin.”

Laskeminen automatisoitiin, koska tietokone on yksinkertaisesti tehokkaampi. Voisiko kone olla myös eettisissä valinnoissa ihmistä parempi?

VALTIONVARAINMINISTERIÖ ON OIKEILLA jäljillä, sillä vinoumia ratkoessa katse kääntyy dataan. Juuri data voi saada aikaan sen, että algoritmi ei tunnista tummaihoista ihmiseksi tai naista päteväksi kandidaatiksi kovapalkkaiseen työhön.  

Lehtisen sanoin: emme ole niin kivoja kuin haluaisimme olla. Ronskisti yleistäen: koska maailma on epätasa-arvoisen vino, niin sitä on myös siitä kerätty data. Syrjivän maailman vinoumat opettavat koneenkin syrjimään.

Esimerkiksi kolmea yleisesti käytettyä kasvontunnistusalgoritmia tarkastelleen tutkimuksen mukaan järjestelmän tarkkuus oli huonompi tummien naisten kuin valkoisten miesten kohdalla. Tutkimuksen mukaan pääasiallinen syy sille, että algoritmit eivät osaa tunnistaa eri ihmisryhmiä samalla tavalla, oli opetusdatassa. Kasvontunnistusalgoritmien datassa ei vain ollut tarpeeksi kaikkia sukupuolia ja ihonväriä edustavia esimerkkejä, joiden pohjalta algoritmi olisi voinut oppia.

“Harkitsemattomat datavalinnat voivat luoda uusia vinoumia”, sanoo myös Haataja.

Mainiota! Taas yksi radikaali potentiaali tukahdutettu, sanoisi Brian Winston.

JOTTA PAHIMMAT MOKAT vältettäisiin, tekoälykehittäjien pitäisi valita, kategorisoida ja luokitella dataa paremmin. Feministinen lähestyminen voisi auttaa rekrytointiehdotuksia tekevän algoritmin suunnittelussa valitsemaan, mikä tieto hakijoista on olennaista. Esimerkiksi tieto sukupuolesta tai etnisestä taustasta voidaan poistaa kokonaan algoritmin käyttämästä datasta. Tällaiset datavalinnat ja -luokittelut vaikuttavat suoraan siihen, mitä algoritmi oppii.

Opetusdata lieneekin vinoumien kannalta kriittisin alue. ”En usko, että on mahdollista saada dataa, jolla opettaa koneita, joka ei sisällä biaksia (vinoumia)”, Lehtinen sanoo.

“Datasta ei välttämättä näe päälle, onko se syrjivää vai ei. Esimerkiksi luottopäätöksiä tekevä algoritmi voisi hypoteettisesti ottaa huomioon muuttujina vain tulot, koulutuksen ja postinumeron. Jos kaupunginosat olisivat kuitenkin vahvasti etnisesti eriytyneitä, päätyisi algoritmi todennäköisesti syrjimään etnisyyden perusteella, vaikka se ei olisikaan mukana muuttujana.”

Jotta algoritmi pystyisi olemaan syrjimättä, sille pitäisi pystyä kertomaan tyhjentävästi, mitkä kaikki muuttujat vaikuttavat siihen. Sosiaalisten ongelmien kohdalla puhumme kuitenkin vaikeasti määriteltävistä termeistä. Miten määritellä käsitteet kuten syrjintä tai sukupuoli niin, että konekin ymmärtäisi?

“Meidän ihmisten pitää määritellä, mikä on hyväksyttyä ja mikä ei. Eihän tällaisen määritteleminen ole helppoa, ei ihminen ole sillä tavalla looginen”, Lehtinen sanoo. “Toisaalta, mehän piirrämme hyväksytyn rajaa jatkuvasti lainsäädännössä. Tässä tekoäly tulee mielenkiintoisella tavalla ihmisten tontille.”

“On avoin ja aktiivinen tutkimuskysymys, miten tällaisia biaksia voidaan havaita datasta, ja millä tavalla voidaan muotoilla sellaisia algoritmisia, ohjelmallisia reiluuden määritelmiä.”

Suomessa sääntelyä lähestytään nyt alhaalta ylöspäin. Riittääkö se, jos kaikki eivät halua olla vapaaehtoisesti reiluja?

PALATAANPA IDEAAN TEKOÄLYTEKNOLOGIOIDEN taustalla. Laskeminen automatisoitiin, koska ihminen on erehtyväinen ja tietokone yksinkertaisesti tehokkaampi. Voisiko kone olla myös eettisissä valinnoissa ihmistä parempi?

Ainakin Lehtinen uskoo tekoälyn mahdollisuuteen tuoda esille syrjiviä rakenteita.

“Jos kehittäisimme menetelmän, joka ei todistettavasti syrjisi, voisimme verrata sen tekemiä päätöksiä ihmisten tekemiin. Jos päätöksissä sitten olisi eroja, voisimme saada todistusaineistoa siitä, että ihminen teki syrjivän päätöksen.”

Lehtinen jatkaa: “Jos pystyisimme opettamaan koneelle edes sen, että sukupuolella ei saa olla vaikutusta päätöksiin, niin se voisi pystyä oikeasti tekemään parempia päätöksiä kuin ihminen.”

Ehkä tekoälyn avulla voisimme nähdä enemmän myös itsestämme.

Juttua varten haastateltiin myös opinnoissaan tekoälyn filosofiaan erikoistunutta Otto Sahlgrenia, joka on ollut mukana ROSE-tutkimushankkeessa sekä kehittää parhaillaan Turku AI Societyn kanssa tekoälyn eettisiä ohjeita.