Kategoriat
2022 Ilmiöt Relevantit VALKOINEN

Valkoinen laatikko

Tekoälyä kuvataan usein mustaksi laatikoksi. Määritelmä saattaa ärsyttää koneoppimisen asiantuntijoita, mutta suurimmalle osalle ihmisistä kuvaus on osuva. Tiedämme hälyttävän vähän teknologiasta, joka ohjaa digitaalista ympäristöämme – ja meitä. Keskustelulle on tarvetta, mutta saako mustasta valkoista?

Teksti & kuvitus: Ella Palo

TIEDÄTKÖ, MITÄ SINUSTA TIEDETÄÄN?

Dataa voi kuvailla nykyajan kullaksi. Erona on vain se, että dataa ei tarvitse erikseen kaivaa – ihmiset luovuttavat tietonsa mielihyvin tuntemattomiin käsiin.

Shoshana Zuboff kuvaa kirjassaan The Age of Surveillance Capitalism (2019) datan analysoinnin ja käytön synnyttämää markkinadynamiikkaa. Zuboffin teorian ytimessä on käsite vallan epäsymmetriasta, joka syntyy datan hallitsijoiden ja luovuttajien välille. Jokainen verkkoselailu, sosiaalisen median päivitys ja arkipäiväinen googlaus on kaupankäyntiä. Sinä myyt dataa, vastineeksi saat haluamasi tiedon tai palvelun.

Monien suhtautuminen aiheeseen on neutraali. Mitäpä väliä sillä on, että saa hiukan osuvampia mainoksia?

Aalto-yliopiston informaatioverkostojen ohjelman akatemiatutkija Johanna Ylipulli korostaa, ettei ongelma ole aivan näin yksinkertainen: “Digitalisaation ja digitaalisten teknologioiden vaikutukset yhteiskunnalliseen tasa-arvoon ovat todella moninaisia ja monimutkaisia. Lisäksi ne ovat monin tavoin kietoutuneet yhteen konventionaalisten yhteiskunnallista eriarvoisuutta tuottavien rakenteiden, kuten koulutuksen, luokan ja sukupuolen kanssa. Voisi sanoa, että ilmiöön on kyllä herätty, mutta tutkimusta ja toimia tarvitaan todella paljon lisää”, Ylipulli toteaa.

Kysymys ei ole vain siitä, markkinoidaanko henkilölle vaellustarvikkeita vai korkokenkiä. Dataa ja algoritmeja käytetään paitsi tuotteiden myyntiin ja mainosten kohdentamiseen, myös esimerkiksi lainojen ja vakuutusten luottoluokitusten laskentaan, työhakemusten arviointiin ja terveyspalvelujen kehittämiseen. Pitkällä aikavälillä Zuboffin kuvaama vallan epäsymmetria voi heikentää kansalaisten itsemääräämisoikeutta ja horjuttaa demokratiaa.

Data ei nimittäin kohtele meitä kaikkia yhtä hyvin.

Datan puolueettomuuteen ja objektiivisuuteen olisi tietysti mukava uskoa. Sen on helppo mieltää olevan vain numeroita, bittejä jonossa. Mielikuva on yleinen, mutta epätosi. Ongelma on, että datan valinta ja rajaus määräytyvät teknologian kehittäjien tai heidän edustamiensa yritysten arvojen, ajatusmallien ja tiedostamattomien puolueellisuuksien mukaan. Monet tekoälyn avulla kehitetyt kasvojentunnistusjärjestelmät eivät esimerkiksi tunnista tummaihoisia kasvoja, sillä algoritmi on koulutettu puutteellisella datalla, joka ei edusta kaikkia teknologian mahdollisia käyttäjiä. Jos datan valintaa ei tarkastella kriittisesti jo kehittämisvaiheessa, on potentiaali puolueellisuudelle suuri. Tekoälyn kohdalla virheitä voi olla erityisen hankala paikantaa.

Tekoälyn kriittisin ero tavalliseen tietokoneohjelmaan on se, että konetta ei erikseen käsketä noudattamaan tiettyä toimintaohjetta. Sen sijaan järjestelmään syötetään paljon dataa, jota se alkaa siihen ohjelmoitujen algoritmien avulla käsitellä ja järjestellä loogisiksi kategorioiksi ja lopulta yksityiskohtaisiksi tuloksiksi. Tekoälyn älykkyys liittyy sen kykyyn etsiä ratkaisuja luovasti, ikään kuin ihminen oppiessaan. Käytetyt parametrit ovat toki tiedossa, mutta algoritmin reitti “oikeaan” vastaukseen on ainakin osittain tuntematon. Ilmiötä on syntynyt kuvaamaan mustan
laatikon (black box) käsite.

MISTÄ ÄLYKKYYS ALKAA?

Algoritmiaktivisti ja kirjailija Cathy O’Neil on kuvannut algoritmeja osuvasti koodatuiksi mielipiteiksi. Hänen mukaansa kaikki algoritmit ovat lähtökohtaisesti puolueellisia. Algoritmien “älykkyys” on myös mielipidekysymys. Tekoälyn toimivuus riippuu siitä, mitä halutaan mitata. Valitettavasti yleensä on kannattavampaa optimoida voittoja kuin tasavertaisuutta. Lopputuloksena eri ihmisryhmät voivat kokea perusteetonta syrjintää, kuten muutama vuosi sitten julkisuuteen noussut Amazonin naishakijoita syrjivä työnhakujärjestelmä osoittaa. Koska ohjelmointiala on kauttaaltaan miesvaltainen, tekoälyjärjestelmä yhdisti menestyksen miessukupuoleen ja antoi miinuspisteitä naisille, joiden hakemuksista löytyi maininta esimerkiksi naisten urheilujoukkueissa pelaamisesta. Suoran syrjinnän lisäksi digitaaliset teknologiat voivat vahvistaa haitallisia stereotypioita esimerkiksi hakukonetuloksien kautta, kuten Safiya Umoja Noblen kirja Algorithms of Oppression (2018) osoittaa.

Pahinta on, ettemme usein tiedä tästä mitään.

Vaikka monet mediaan nousseet esimerkit aiheesta keskittyvät Yhdysvaltoihin, on aiheeseen syytä kiinnittää huomiota myös Suomessa. Yle uutisoi toukokuussa 2020 kuuden suomalaisen vakuutusyhtiön keräävän ja käyttävän sekä sijaintidataa että kolmannen osapuolen tarjoamia tietoja palveluissaan. Vakuutusyhtiö Lähi-Tapiola jopa tarjoaa älyhenkivakuutusta, “joka kannustaa asiakasta terveellisiin elämäntapoihin”. Suomalaisista pankeista erityisesti Osuuspankki on tuonut tekoälyn kehittämistä vahvasti esille.

Tekoälyn ja massadatan käyttäminen ei kuitenkaan rajoitu vain yksityiseen sektoriin. Digitalisaatiosta ja älykkään teknologian käytöstä käydään kilpaa niin valtioiden kuin kaupunkienkin kesken. Euroopan Unionin mukaan “tekoäly vahvistaa Euroopan potentiaalia kansainvälisessä kilpailussa”, ja Suomi taas haluaa osoittaa paikkansa maailman “tekoälyn suunnannäyttäjäna”

Julkisten toimien digitalisaatio nostaa esille aivan
uudenlaisia kysymyksiä läpinäkyvyydestä, vastuusta ja luotettavuudesta. Briteissä maahanmuuttohakemuksista päättävää tekoälyjärjestelmää on syytetty syrjiväksi ja ihmisoikeusaktivistit ovat vaatineet sen algoritmin toimintajärjestelmän julkista avaamista. Yhdysvalloissa julkiset koulut ovat joutuneet erottamaan opettajia, jotka algoritmi on määritellyt “epäpäteviksi”, vaikka muut opettajat ja oppilaat olisivat tyytyväisiä työn tuloksiin. Molemmissa tapauksissa algoritmi oli salattu asianosaisilta.

Myös Suomessa tekoälyä halutaan lisätä julkisella sektorilla, esimerkiksi työvoimapalveluissa. Konsultointiyritys Deloitten mukaan kaksi kolmasosaa julkisen sektorin organisaatioista tutkii tai kokeilee tekoälyn implementointia organisaation toimintaan.

ALGORITMIT ESIIN!

On huolestuttavaa, että julkisilla toimijoilla on mahdollisuus käyttää järjestelmiä, joita kansalaiset eivät ymmärrä. Tekoäly julkisessa päätöksenteossa nostaa ainakin omaan kehooni kylmiä väreitä. Luotan kyllä teknologiaan, mutta en maailmaan sen ympärillä.

Miksi politiikassa ei sitten puhuta algoritmeista? Nykyään lapsia opetetaan koodaamaan jo alakoulussa, mutta tarjoaako koulu ymmärrystä digitalisaatioon ja tekoälyyn liittyvistä haasteista? Digitaalisen maailman säännöt luodaan nyt, mutta suurimmalla osalla suomalaisista ei ole harmainta aavistusta siitä, mitä bittiaitojen takana tapahtuu.

Digitaalisen maailman säännöt luodaan nyt, mutta suurimmalla osalla suomalaisista ei ole harmainta aavistusta siitä, mitä bittiaitojen takana tapahtuu.

“Digitaalinen lukutaito tulisi ymmärtää nykyistä laajemmin kriittisenä kansalaistaitoa, joka ei vain sopeuta ihmisiä vallitsevaan teknologiseen todellisuuteen, vaan antaa myös välineitä arvioida, kritisoida ja muuttaa kehityskulkuja. Se, minkälaisia teknologioita suunnitellaan ja otetaan käyttöön ja millä ehdoin, liittyy syvällisesti myös arvoihin – siihen, millaisia yhteiskuntaa ja yhteisöjä oikeastaan olemme rakentamassa”, kertoo Johanna Ylipulli.

Ylipulli korostaa, että teknologiat tulisi suunnitella niin, että ne pohjaavat todellisiin yhteiskunnallisiin ongelmiin eivätkä pelkkiin teknologisiin mahdollisuuksiin. “Teknologia ei automaattisesti kehity kohti yhä parempia muotoja”, hän jatkaa. “Tähän liittyvät myös kysymykset ihmisten mahdollisuuksista osallistua heitä koskevien teknologioiden suunnitteluun
sekä mahdollisuus hallita esimerkiksi omaa dataa.”

Teknologian kehitykseen tarvitaan yhteiset ja selkeät säännöt, jotka ovat ymmärrettäviä kaikille yhteiskunnan jäsenille. Instituutioihin ja lainsäädäntöön vaikuttaminen ei kuitenkaan ole mahdollista ilman poliittista painetta ja julkisen tiedon kasvattamista aiheesta.

Entä jos oletusarvo tekoälystä olisi mustan laatikon sijaan läpinäkyvä, valkoinen laatikko? Jos päätöksenteon taustoja ja prosesseja ei voida avata julkiselle keskustelulle ja altistaa kritiikille, on hyvä kysyä, kannattaako yhteiskunnallisessa päätöksenteossa käyttää tekoälyä ollenkaan.

JUTUN TAUSTALLA:


Algorithmic Justice League. 2020. Mission, Team and Story – The Algorithmic Justice League. https://www.ajl.org/about.


Hintz, A., Dencik, L., & Wahl-Jorgensen, K. 2017. Digital citizenship and surveillance society — introduction. International Journal of Communication, 11(9), s. 731–739. https://ijoc.org/index.php/ijoc/article/view/5521.


O’Neil, C. 2017. Matikkatuhoaseet (Suom. Kimmo Pietiläinen). Helsinki, Suomi: Terra Cognita. 232 s. ISBN: 978-952-5697-82-7.


Ylipulli, J., Luusua, A. 2020. Smart cities with a Nordic twist? Public sector digitalization in Finnish data-rich cities. Telematics and Informatics, 55, s. 101457. DOI: 10.1016/j.tele.2020.101457.


Zuboff, S. 2019. The age of surveillance capitalism: the fight for the future at the new frontier of power. London, United Kingdom: Profile
Books. 691 s. ISBN 978-1-78125- 684-8

Vastaa

Sähköpostiosoitettasi ei julkaista.