Kategoriat
2022 Ilmiöt Relevantit VALKOINEN

Valkoinen laatikko

Teksti & kuvitus: Ella Palo

TIEDÄTKÖ, MITÄ SINUSTA TIEDETÄÄN?

Dataa voi kuvailla nykyajan kullaksi. Erona on vain se, että dataa ei tarvitse erikseen kaivaa – ihmiset luovuttavat tietonsa mielihyvin tuntemattomiin käsiin.

Shoshana Zuboff kuvaa kirjassaan The Age of Surveillance Capitalism (2019) datan analysoinnin ja käytön synnyttämää markkinadynamiikkaa. Zuboffin teorian ytimessä on käsite vallan epäsymmetriasta, joka syntyy datan hallitsijoiden ja luovuttajien välille. Jokainen verkkoselailu, sosiaalisen median päivitys ja arkipäiväinen googlaus on kaupankäyntiä. Sinä myyt dataa, vastineeksi saat haluamasi tiedon tai palvelun.

Monien suhtautuminen aiheeseen on neutraali. Mitäpä väliä sillä on, että saa hiukan osuvampia mainoksia?

Aalto-yliopiston informaatioverkostojen ohjelman akatemiatutkija Johanna Ylipulli korostaa, ettei ongelma ole aivan näin yksinkertainen: “Digitalisaation ja digitaalisten teknologioiden vaikutukset yhteiskunnalliseen tasa-arvoon ovat todella moninaisia ja monimutkaisia. Lisäksi ne ovat monin tavoin kietoutuneet yhteen konventionaalisten yhteiskunnallista eriarvoisuutta tuottavien rakenteiden, kuten koulutuksen, luokan ja sukupuolen kanssa. Voisi sanoa, että ilmiöön on kyllä herätty, mutta tutkimusta ja toimia tarvitaan todella paljon lisää”, Ylipulli toteaa.

Kysymys ei ole vain siitä, markkinoidaanko henkilölle vaellustarvikkeita vai korkokenkiä. Dataa ja algoritmeja käytetään paitsi tuotteiden myyntiin ja mainosten kohdentamiseen, myös esimerkiksi lainojen ja vakuutusten luottoluokitusten laskentaan, työhakemusten arviointiin ja terveyspalvelujen kehittämiseen. Pitkällä aikavälillä Zuboffin kuvaama vallan epäsymmetria voi heikentää kansalaisten itsemääräämisoikeutta ja horjuttaa demokratiaa.

Data ei nimittäin kohtele meitä kaikkia yhtä hyvin.

Datan puolueettomuuteen ja objektiivisuuteen olisi tietysti mukava uskoa. Sen on helppo mieltää olevan vain numeroita, bittejä jonossa. Mielikuva on yleinen, mutta epätosi. Ongelma on, että datan valinta ja rajaus määräytyvät teknologian kehittäjien tai heidän edustamiensa yritysten arvojen, ajatusmallien ja tiedostamattomien puolueellisuuksien mukaan. Monet tekoälyn avulla kehitetyt kasvojentunnistusjärjestelmät eivät esimerkiksi tunnista tummaihoisia kasvoja, sillä algoritmi on koulutettu puutteellisella datalla, joka ei edusta kaikkia teknologian mahdollisia käyttäjiä. Jos datan valintaa ei tarkastella kriittisesti jo kehittämisvaiheessa, on potentiaali puolueellisuudelle suuri. Tekoälyn kohdalla virheitä voi olla erityisen hankala paikantaa.

Tekoälyn kriittisin ero tavalliseen tietokoneohjelmaan on se, että konetta ei erikseen käsketä noudattamaan tiettyä toimintaohjetta. Sen sijaan järjestelmään syötetään paljon dataa, jota se alkaa siihen ohjelmoitujen algoritmien avulla käsitellä ja järjestellä loogisiksi kategorioiksi ja lopulta yksityiskohtaisiksi tuloksiksi. Tekoälyn älykkyys liittyy sen kykyyn etsiä ratkaisuja luovasti, ikään kuin ihminen oppiessaan. Käytetyt parametrit ovat toki tiedossa, mutta algoritmin reitti “oikeaan” vastaukseen on ainakin osittain tuntematon. Ilmiötä on syntynyt kuvaamaan mustan
laatikon (black box) käsite.

MISTÄ ÄLYKKYYS ALKAA?

Algoritmiaktivisti ja kirjailija Cathy O’Neil on kuvannut algoritmeja osuvasti koodatuiksi mielipiteiksi. Hänen mukaansa kaikki algoritmit ovat lähtökohtaisesti puolueellisia. Algoritmien “älykkyys” on myös mielipidekysymys. Tekoälyn toimivuus riippuu siitä, mitä halutaan mitata. Valitettavasti yleensä on kannattavampaa optimoida voittoja kuin tasavertaisuutta. Lopputuloksena eri ihmisryhmät voivat kokea perusteetonta syrjintää, kuten muutama vuosi sitten julkisuuteen noussut Amazonin naishakijoita syrjivä työnhakujärjestelmä osoittaa. Koska ohjelmointiala on kauttaaltaan miesvaltainen, tekoälyjärjestelmä yhdisti menestyksen miessukupuoleen ja antoi miinuspisteitä naisille, joiden hakemuksista löytyi maininta esimerkiksi naisten urheilujoukkueissa pelaamisesta. Suoran syrjinnän lisäksi digitaaliset teknologiat voivat vahvistaa haitallisia stereotypioita esimerkiksi hakukonetuloksien kautta, kuten Safiya Umoja Noblen kirja Algorithms of Oppression (2018) osoittaa.

Pahinta on, ettemme usein tiedä tästä mitään.

Vaikka monet mediaan nousseet esimerkit aiheesta keskittyvät Yhdysvaltoihin, on aiheeseen syytä kiinnittää huomiota myös Suomessa. Yle uutisoi toukokuussa 2020 kuuden suomalaisen vakuutusyhtiön keräävän ja käyttävän sekä sijaintidataa että kolmannen osapuolen tarjoamia tietoja palveluissaan. Vakuutusyhtiö Lähi-Tapiola jopa tarjoaa älyhenkivakuutusta, “joka kannustaa asiakasta terveellisiin elämäntapoihin”. Suomalaisista pankeista erityisesti Osuuspankki on tuonut tekoälyn kehittämistä vahvasti esille.

Tekoälyn ja massadatan käyttäminen ei kuitenkaan rajoitu vain yksityiseen sektoriin. Digitalisaatiosta ja älykkään teknologian käytöstä käydään kilpaa niin valtioiden kuin kaupunkienkin kesken. Euroopan Unionin mukaan “tekoäly vahvistaa Euroopan potentiaalia kansainvälisessä kilpailussa”, ja Suomi taas haluaa osoittaa paikkansa maailman “tekoälyn suunnannäyttäjäna”

Julkisten toimien digitalisaatio nostaa esille aivan
uudenlaisia kysymyksiä läpinäkyvyydestä, vastuusta ja luotettavuudesta. Briteissä maahanmuuttohakemuksista päättävää tekoälyjärjestelmää on syytetty syrjiväksi ja ihmisoikeusaktivistit ovat vaatineet sen algoritmin toimintajärjestelmän julkista avaamista. Yhdysvalloissa julkiset koulut ovat joutuneet erottamaan opettajia, jotka algoritmi on määritellyt “epäpäteviksi”, vaikka muut opettajat ja oppilaat olisivat tyytyväisiä työn tuloksiin. Molemmissa tapauksissa algoritmi oli salattu asianosaisilta.

Myös Suomessa tekoälyä halutaan lisätä julkisella sektorilla, esimerkiksi työvoimapalveluissa. Konsultointiyritys Deloitten mukaan kaksi kolmasosaa julkisen sektorin organisaatioista tutkii tai kokeilee tekoälyn implementointia organisaation toimintaan.

ALGORITMIT ESIIN!

On huolestuttavaa, että julkisilla toimijoilla on mahdollisuus käyttää järjestelmiä, joita kansalaiset eivät ymmärrä. Tekoäly julkisessa päätöksenteossa nostaa ainakin omaan kehooni kylmiä väreitä. Luotan kyllä teknologiaan, mutta en maailmaan sen ympärillä.

Miksi politiikassa ei sitten puhuta algoritmeista? Nykyään lapsia opetetaan koodaamaan jo alakoulussa, mutta tarjoaako koulu ymmärrystä digitalisaatioon ja tekoälyyn liittyvistä haasteista? Digitaalisen maailman säännöt luodaan nyt, mutta suurimmalla osalla suomalaisista ei ole harmainta aavistusta siitä, mitä bittiaitojen takana tapahtuu.

Digitaalisen maailman säännöt luodaan nyt, mutta suurimmalla osalla suomalaisista ei ole harmainta aavistusta siitä, mitä bittiaitojen takana tapahtuu.

“Digitaalinen lukutaito tulisi ymmärtää nykyistä laajemmin kriittisenä kansalaistaitoa, joka ei vain sopeuta ihmisiä vallitsevaan teknologiseen todellisuuteen, vaan antaa myös välineitä arvioida, kritisoida ja muuttaa kehityskulkuja. Se, minkälaisia teknologioita suunnitellaan ja otetaan käyttöön ja millä ehdoin, liittyy syvällisesti myös arvoihin – siihen, millaisia yhteiskuntaa ja yhteisöjä oikeastaan olemme rakentamassa”, kertoo Johanna Ylipulli.

Ylipulli korostaa, että teknologiat tulisi suunnitella niin, että ne pohjaavat todellisiin yhteiskunnallisiin ongelmiin eivätkä pelkkiin teknologisiin mahdollisuuksiin. “Teknologia ei automaattisesti kehity kohti yhä parempia muotoja”, hän jatkaa. “Tähän liittyvät myös kysymykset ihmisten mahdollisuuksista osallistua heitä koskevien teknologioiden suunnitteluun
sekä mahdollisuus hallita esimerkiksi omaa dataa.”

Teknologian kehitykseen tarvitaan yhteiset ja selkeät säännöt, jotka ovat ymmärrettäviä kaikille yhteiskunnan jäsenille. Instituutioihin ja lainsäädäntöön vaikuttaminen ei kuitenkaan ole mahdollista ilman poliittista painetta ja julkisen tiedon kasvattamista aiheesta.

Entä jos oletusarvo tekoälystä olisi mustan laatikon sijaan läpinäkyvä, valkoinen laatikko? Jos päätöksenteon taustoja ja prosesseja ei voida avata julkiselle keskustelulle ja altistaa kritiikille, on hyvä kysyä, kannattaako yhteiskunnallisessa päätöksenteossa käyttää tekoälyä ollenkaan.

JUTUN TAUSTALLA:


Algorithmic Justice League. 2020. Mission, Team and Story – The Algorithmic Justice League. https://www.ajl.org/about.


Hintz, A., Dencik, L., & Wahl-Jorgensen, K. 2017. Digital citizenship and surveillance society — introduction. International Journal of Communication, 11(9), s. 731–739. https://ijoc.org/index.php/ijoc/article/view/5521.


O’Neil, C. 2017. Matikkatuhoaseet (Suom. Kimmo Pietiläinen). Helsinki, Suomi: Terra Cognita. 232 s. ISBN: 978-952-5697-82-7.


Ylipulli, J., Luusua, A. 2020. Smart cities with a Nordic twist? Public sector digitalization in Finnish data-rich cities. Telematics and Informatics, 55, s. 101457. DOI: 10.1016/j.tele.2020.101457.


Zuboff, S. 2019. The age of surveillance capitalism: the fight for the future at the new frontier of power. London, United Kingdom: Profile
Books. 691 s. ISBN 978-1-78125- 684-8

Kategoriat
2018 Pitkät

Ihminen syrjii, tekoäly toistaa

Tekoälykin voi olla ennakkoluuloinen. Tunnettuja esimerkkejä on useampia: Sciendossa julkaistussa tutkimuksessa huomattiin, että Googlessa korkeapalkkaisen työn mainosta näytettiin moninkertaisesti enemmän miehille kuin naisille. Microsoftin chatbot oppi hetkessä rasistiksi ja Googlen kuva-algoritmi “tunnisti” tummaihoiset gorilloiksi. Science-lehdessä julkaistussa tutkimuksessa taas todettiin, että kone oppi datasta sana-assosiaatioiden mukana ihmismäisiä ennakkoluuloja. Tuntuu vähän ahdistavalta. Eikö tekoälyteknologioista voisi vain, niinku, tehdä intersektionaalisia feministejä?

TEKSTI Ripsa Niemi ja Heidi Puomisto KUVITUS Katri Astala

TEKOÄLY ON NYT joku pöhinän aihe ja asia, josta ainakin pitäisi olla kiinnostunut. Tiivistettynä junaan nyt hyppääville: algoritmit, jotka hyödyntävät tekoälyä, ovat sairaan nopeita ja sairaan tehokkaita. Ne voivat käydä läpi niin paljon dataa sellaisessa vilauksessa, että vastaus kysymykseen, johon ennen meni jopa vuosikymmeniä vastata, voidaan saada jopa sekunneissa.

Aiemmin automatisoitiin päässälaskenta, koska sitä ei ollut mitään järkeä jättää ihmisten tehtäväksi. Nyt tekoälyn kyydissä mennään taas etiäppäin.

Mutta siis tekoälyä soveltavissa teknologioissa ei ole kyse tietenkään vain jostain erityisen nopeista laskimista. Ne pystyvät paitsi analysoimaan dataa, myös luomaan uutta. Kun Spotify suosittelee uutta musiikkia, sen algoritmi tekee päätelmän aiemman tiedon pohjalta. Koska kuuntelit Bon Iverin Skinny Loven vuonna 2009 noin 540 kertaa, ohjelma osaa arvella, että voisit pitää tästä uudesta, toisenlaisesta indieulinasta.

Nyt on tietojenkäsittelytieteen professorin Hannu Toivosen sanoin kyse taas vain uusien toimintojen automatisoimisesta. Muutos on merkittävä, mutta ei tee sen enempää dystopioista kuin utopioistakaan totta. Algoritmit pyrkivät yksinkertaisesti automatisoimaan sen, että havaintojen pohjalta tehdään yleistyksiä. Ettei ihmisen tarvitsisi.

MITÄS SITTEN JOS ne yleistykset ovat seksistisiä? Tai vaikka hiukkasen rasistisia, ableistisia tai muuten vähemmistöjä sortavia?

Algoritmien tekemille valinnoille ei saa perusteluja, ja koodi on usein osa liikesalaisuutta. Yksittäinen koodari ei tosin ole tässä kohtaa yhtään paremmassa asemassa – hän saattaa tietää suuntaviivoja jonkin algoritmin toiminnasta, mutta prosessissa on niin paljon ja niin hienovaraisia yksittäisiä askelia, ettei sitä ole mahdollista seurata taaksepäin.

Päätelmän jäljittäminen olisi yksinkertaisesti niin työlästä, ettei sitä käytännössä voida tehdä. Tähän viitataan usein sanomalla, että algoritmit ovat mustia laatikoita emme voi katsoa konepellin alle. Miten yksittäinen ihminen voi puolustaa oikeuksiaan, jos ei voida tietää, millä perusteella hänestä tehdään päätöksiä?

Miten määritellä käsitteet kuten syrjintä tai sukupuoli niin, että konekin ymmärtäisi?

VASTUUN KANTAVAT KUITENKIN aina ihmiset. Jos haluamme reilun tekoälyn, pitää sitä suunnittelevien ihmisten, eli devaajien ja koodarien, intresseissä olla eettisyys.

“Tekoäly näyttää tekijöiltään ja algoritmeja koodaavien organisaatioiden tavoitteilta. Se ei ole yhtään sen parempi tai huonompi kuin sen tekijätkään”, muistuttaa Suomen Tekoälyohjelman etiikka-alatyöryhmän puheenjohtaja ja Saidot.ai:n toimitusjohtaja Meeri Haataja.

It-ala on kuitenkin yhä vahvasti sukupuolittunut. Tivin alkuvuodesta tekemän kyselyyn vastanneiden alan yritysten työvoimasta vain noin 27 prosenttia on naisia. Wired-lehti taas uutisoi elokuussa tekemästään arviosta, jonka mukaan johtavista tekoälytutkijoista naisia on vain noin joka kahdeksas. Näyttääkö tekoäly suurimmaksi osaksi miehiltä?

“Tietynlaisen teknologian kehittäminen on toki valinta, ja tietotekniikassa on aika kauhea sukupuolten epätasapaino”, Aalto-yliopiston professori ja tietotekniikan tutkija Jaakko Lehtinen sanoo.  

“Ei kuitenkaan ole oikein vetää negatiivisia johtopäätöksiä, koska kaikkien tieteentekijöiden motivaatio on tehdä hyvää. He voivat olla siiloutuneita, mutta eivät haluaisi olla”, hän jatkaa. “Siksi se, että keskustellaan avoimesti ja yhdessä eri näkökulmista on tässä hommassa tosi tärkeää.”

PERINTEINEN TAPA LÄHESTYÄ ongelmia on säännellä niitä, niin myös tekoälyn kohdalla. Rajataan mahdollisuutta toimia miten vain ja pienennetään siten epämiellyttävien seurauksien riskiä. Tuttu juttu.

Joidenkin tutkijoiden mielestä tekoälyfirmoja tulisikin säännellä kuten rakennusalaa eiväthän arkkitehdit saa muotoilla kaupunkia taiteellisen visionsa mukaan, vaan he työskentelevät kaupunkisuunnittelijoiden kanssa ja kaavoitusten ja lisenssien rajoissa. Tutkijaryhmä ehdottaa kolmatta osapuolta, jonkinlaista järjestelmiä valvovaa ja sääntelevää elintä.

Suomessa sääntelyä lähestytään nyt alhaalta ylöspäin. Työ- ja elinkeinoministeriön vetämä Tekoälyaika haastaa yrityksiä laatimaan omat tekoälyn eettiset periaatteet. Riittääkö se, jos kaikki eivät halua olla vapaaehtoisesti reiluja?

“Lainsäädäntö on ehdottomasti relevantti vaihtoehto. Tekoälyä on kuitenkin vaikeaa säädellä lailla, sillä se on aiheena niin abstrakti. Lainsäädäntöä tulee pohtia, mutta sääntely ei saa olla hätiköityä”, sanoo hankkeessa vaikuttava Haataja.

Haataja korostaa ongelmien ratkaisemisessa konkretiaa. “Peräänkuulutan konkreettisten ratkaisujen tunnistamista, sillä se vie asioita nopeammin eteenpäin. Mielestäni organisaatioita pitää auttaa ottamaan konkreettisia askeleita kohti eettistä tekoälyä.”

Feministinen teoria ja tekoäly esiintyvät tutkimuskentällä yhdessä nousevissa määrin. Myös monet niistä periaatteista, joita peräänkuulutetaan tekoälyn etiikan kentällä, voidaan ymmärtää feministisinä tai ainakin yhteensopivina feministisen ajattelun kanssa.

Esimerkiksi EU-komissio valmistelee vuoden loppuun mennessä tekoälyn eettisiä linjauksia, jotka perustuvat EU:n ihmisoikeuskirjaan ja The European Group on Ethics in Science and New Technologies -ryhmän (EGE) tekemään raporttiin. EGE:n esittämien perusperiaatteiden mukaan tekoäly ei saa loukata ihmisen luontaista oikeutta kunnioitukseen.  Myös Suomessa valtiovarainministeriön tietopoliittisessa selonteossa todetaan: ”Etenkin datavalintoihin tulee kiinnittää huomiota, etteivät ihmisajattelun vääristymät ja vinoumat kopioidu algoritmeihin.”

Laskeminen automatisoitiin, koska tietokone on yksinkertaisesti tehokkaampi. Voisiko kone olla myös eettisissä valinnoissa ihmistä parempi?

VALTIONVARAINMINISTERIÖ ON OIKEILLA jäljillä, sillä vinoumia ratkoessa katse kääntyy dataan. Juuri data voi saada aikaan sen, että algoritmi ei tunnista tummaihoista ihmiseksi tai naista päteväksi kandidaatiksi kovapalkkaiseen työhön.  

Lehtisen sanoin: emme ole niin kivoja kuin haluaisimme olla. Ronskisti yleistäen: koska maailma on epätasa-arvoisen vino, niin sitä on myös siitä kerätty data. Syrjivän maailman vinoumat opettavat koneenkin syrjimään.

Esimerkiksi kolmea yleisesti käytettyä kasvontunnistusalgoritmia tarkastelleen tutkimuksen mukaan järjestelmän tarkkuus oli huonompi tummien naisten kuin valkoisten miesten kohdalla. Tutkimuksen mukaan pääasiallinen syy sille, että algoritmit eivät osaa tunnistaa eri ihmisryhmiä samalla tavalla, oli opetusdatassa. Kasvontunnistusalgoritmien datassa ei vain ollut tarpeeksi kaikkia sukupuolia ja ihonväriä edustavia esimerkkejä, joiden pohjalta algoritmi olisi voinut oppia.

“Harkitsemattomat datavalinnat voivat luoda uusia vinoumia”, sanoo myös Haataja.

Mainiota! Taas yksi radikaali potentiaali tukahdutettu, sanoisi Brian Winston.

JOTTA PAHIMMAT MOKAT vältettäisiin, tekoälykehittäjien pitäisi valita, kategorisoida ja luokitella dataa paremmin. Feministinen lähestyminen voisi auttaa rekrytointiehdotuksia tekevän algoritmin suunnittelussa valitsemaan, mikä tieto hakijoista on olennaista. Esimerkiksi tieto sukupuolesta tai etnisestä taustasta voidaan poistaa kokonaan algoritmin käyttämästä datasta. Tällaiset datavalinnat ja -luokittelut vaikuttavat suoraan siihen, mitä algoritmi oppii.

Opetusdata lieneekin vinoumien kannalta kriittisin alue. ”En usko, että on mahdollista saada dataa, jolla opettaa koneita, joka ei sisällä biaksia (vinoumia)”, Lehtinen sanoo.

“Datasta ei välttämättä näe päälle, onko se syrjivää vai ei. Esimerkiksi luottopäätöksiä tekevä algoritmi voisi hypoteettisesti ottaa huomioon muuttujina vain tulot, koulutuksen ja postinumeron. Jos kaupunginosat olisivat kuitenkin vahvasti etnisesti eriytyneitä, päätyisi algoritmi todennäköisesti syrjimään etnisyyden perusteella, vaikka se ei olisikaan mukana muuttujana.”

Jotta algoritmi pystyisi olemaan syrjimättä, sille pitäisi pystyä kertomaan tyhjentävästi, mitkä kaikki muuttujat vaikuttavat siihen. Sosiaalisten ongelmien kohdalla puhumme kuitenkin vaikeasti määriteltävistä termeistä. Miten määritellä käsitteet kuten syrjintä tai sukupuoli niin, että konekin ymmärtäisi?

“Meidän ihmisten pitää määritellä, mikä on hyväksyttyä ja mikä ei. Eihän tällaisen määritteleminen ole helppoa, ei ihminen ole sillä tavalla looginen”, Lehtinen sanoo. “Toisaalta, mehän piirrämme hyväksytyn rajaa jatkuvasti lainsäädännössä. Tässä tekoäly tulee mielenkiintoisella tavalla ihmisten tontille.”

“On avoin ja aktiivinen tutkimuskysymys, miten tällaisia biaksia voidaan havaita datasta, ja millä tavalla voidaan muotoilla sellaisia algoritmisia, ohjelmallisia reiluuden määritelmiä.”

Suomessa sääntelyä lähestytään nyt alhaalta ylöspäin. Riittääkö se, jos kaikki eivät halua olla vapaaehtoisesti reiluja?

PALATAANPA IDEAAN TEKOÄLYTEKNOLOGIOIDEN taustalla. Laskeminen automatisoitiin, koska ihminen on erehtyväinen ja tietokone yksinkertaisesti tehokkaampi. Voisiko kone olla myös eettisissä valinnoissa ihmistä parempi?

Ainakin Lehtinen uskoo tekoälyn mahdollisuuteen tuoda esille syrjiviä rakenteita.

“Jos kehittäisimme menetelmän, joka ei todistettavasti syrjisi, voisimme verrata sen tekemiä päätöksiä ihmisten tekemiin. Jos päätöksissä sitten olisi eroja, voisimme saada todistusaineistoa siitä, että ihminen teki syrjivän päätöksen.”

Lehtinen jatkaa: “Jos pystyisimme opettamaan koneelle edes sen, että sukupuolella ei saa olla vaikutusta päätöksiin, niin se voisi pystyä oikeasti tekemään parempia päätöksiä kuin ihminen.”

Ehkä tekoälyn avulla voisimme nähdä enemmän myös itsestämme.

Juttua varten haastateltiin myös opinnoissaan tekoälyn filosofiaan erikoistunutta Otto Sahlgrenia, joka on ollut mukana ROSE-tutkimushankkeessa sekä kehittää parhaillaan Turku AI Societyn kanssa tekoälyn eettisiä ohjeita.