Kategoriat
2019 Pitkät

Syrjintää ja esteitä yliopistoyhteisössä

Sörnai gushan laulaminen on valtsikassa asetettu kyseenalaiseksi tänä keväänä. Turvallisten tilojen ja yhdenvertaisuuden puolesta on kuitenkin mahdollista tehdä enemmän.

TEKSTI Aku Houttu KUVITUS Katri Astala & Rosa Lehtokari

YLIOPPILASLEHTI UUTISOI VUONNA 2008 venäläisen dosentin Andrei Gurtovin eduskunnan apulaisoikeusasiamiehelle tehdystä kantelusta, joka koski filosofisen tiedekunnan promootioretkellä jaetun kirjasen juomalaulua. Kyseisellä retkellä loukkaavaa laulua ei laulettu, mutta hyvin usein kappale lauletaan opiskelijoiden sitseillä tai vuosijuhlilla vielä tänä päivänä. Siitäkin huolimatta, että tuolloinen Helsingin yliopiston kansleri Ilkka Niiniluoto kommentoi laulua epäasialliseksi ja tasa-arvovastaava Terhi Saarikoski kehotti miettimään, kannattaako loukkaavia lauluja laulaa ylipäänsä.

Sörnai gusha on yksittäisenä sitsilauluna syrjivä eikä yliopistomaailmassa tapahtuva ulossulkeminen missään nimessä lopu siihen. Suoraa rasismia näkyy yliopistoyhteisössä, ja lisäksi syrjintää ja ulossulkemista löytyy rakenteista. Sosiaalitieteiden opiskelija Aracelis Correa nostaa esiin esimerkkejä rasismista yliopisto- ja opiskelijamaailmassa: “Opiskelijat saattavat heittää rasistisia vitsejä tai kommentteja, jotka eivät ole ihan loppuun mietittyjä”. Konkreettisesti ulossulkeminen näkyy niin, että ei-valkoisille opiskelijoille puhutaan englantia olettamalla heidät esimerkiksi vaihto-oppilaiksi eikä suomalaisiksi.

Räikeimmillään rasismi näkyy yliopistoyhteisössä järjestöissä ja niiden ulostuloissa. “HYY:n alla on rasistisia järjestöjä, esimerkiksi Helsingin Akateemiset Perussuomalaiset (HAPSU). Sen kannanotot ovat olleet räikeän rasistisia. Hiljattain kuvattiin luonnolliseksi eri kansalaisuuksien tunnistamista ulkonäön perusteella ja väitettiin, ettei ulkomaalaisia saisi päästää yliopistolla päättäviin elimiin”, Correa sanoo. Suomalaisuus liitetään vain valkoisuuteen, mitä se ei missään nimessä ole.

Kannanoton jälkeen HYY tiedotti, ettei HAPSU:n ulostulo vastaa sen yhdenvertaisuuteen liittyviä arvoja. HAPSU:n suunnalta on aiemminkin tullut selkeästi rasistisia lausuntoja, mutta ongelmana on ollut niiden julkaisu yksityishenkilöltä eikä järjestöltä itseltään, jolloin HYY:n kädet toimia ovat olleet sidotut. Nyt järjestöltä tullut kannanotto on kuitenkin käsittelyssä, kun ylioppilaskunnan edustajiston alainen talousjohtokunta arvioi HAPSU:n jäsenyyttä HYY:n piirissä. [HAPSU on sittemmin poistettu HYY:n järjestörekisteristä, toim. huom.]

RASISMIN SIETÄMINEN OMASSA YHTEISÖSSÄ on ongelmallista. Esimerkkinä Correa antaa vaalipaneelin sisältävän HYY:n tapahtuman, jonka järjestämisessä hän on ollut mukana. Yhdenvertaisuuteen ja turvallisen tilan periaatteisiin sitoutuneen HYY:n tapahtumaan hän on yrittänyt etsiä perussuomalaisten ehdokasta, joka ei olisi tehnyt jotakin ihmisryhmää syrjivää tai loukkaavaa ulostuloa. Ehdokkaan etsiminen on tuottanut vaikeuksia, ja Correa pohtii, voiko rasismiin vahvasti liitettyä puoluetta edes edustaa ilman liitosta siihen. Yliopistoyhteisön pitäisi tuntua turvalliselta kaikille, joten hän toivoisi, että tapahtumia suunnitellessa kaikki voisivat kokea tulleensa huomioiduksi.

Yleisemmin valkoisuus näkyy normina yliopistolla. Sekä yliopiston hallinnossa että opetushenkilökunnassa representaatio on Correan mukaan puutteellista. Opetuksessa toistuu eurosentrisyys. Samat asiat pätevät myös ylioppilaskunnassa ja järjestökentässä sekä niiden järjestämissä tapahtumissa. “Itsensä näköisiä opiskelijoita näkee kovin vähän ja siksi välillä miettii, että kuulunko edes tänne”, Correa pohtii. Omia kokemuksia ei myöskään välttämättä pääse jakamaan samassa tilanteessa olevien kanssa.

”Minun ei tulisi olla se, joka heittelee ilmoille ehdotuksia tilanteen parantamiseksi.”

Correa katsoo, että päivittäin Suomessa kohdattavan syrjinnän takia tuki on tarpeen. “Ajattelen, että niin kauan kuin Suomessa on rasismia ja joudumme kohtaamaan ennakkoluuloja, ulossulkemista sekä räikeää vihapuhetta, tarvitsemme erityistä tukea.” Tämän takia hän nosti valtsikalaisille tarkoitetussa Facebook-ryhmässä esiin halunsa perustaa järjestö tuen takaamiseksi. “Haluaisin järjestöllä luoda representaatiota pitämällä esimerkiksi lukupiirejä ja leffailtoja, jotka rikkovat sitä valkoisuuden ja eurosentrisyyden kuplaa, jossa elämme yliopistolla ja yhteiskunnassamme.”

Olennaista on myös tarjota vertaistukea ja muistuttaa siitä, ettei kukaan ole ajatustensa kanssa yksin. Facebookissa Correa mainitsee, että jäseneksi haluavalle ei ole mitään ulkonäöstä, taustasta, uskonnollisesta vakaumuksesta tai kansalaisuudesta johtuvaa rajoitetta, vaan kyse on siitä, miten identifioituu itse. Toistaiseksi varsinaista järjestöä ei siis vielä ole, mutta jonkin verran ihmisiä on ilmaissut halunsa lähteä mukaan. “Heidän kanssaan aletaan pohtia, mihin suuntaan järjestöä luodaan. Myös järjestön nimi on vielä pohdinnan alla.”

KEINOT RASISMIN KITKEMISEEN on otettava tosissaan. Correa korostaa etenkin rakenteellisen rasismin tiedostamista ja oman toiminnan reflektointia: “Minun ei tulisi olla se, joka heittelee ilmoille ehdotuksia tilanteen parantamiseksi.” Hän nostaakin esiin yliopistolla toimivat tahot, joiden tehtävä olisi puuttua vallitsevaan ilmapiiriin ja kehittää yhdenvertaisuutta. ”Henkilökunnalla tulee olla työkalut toimia, kun joku ilmoittaa kokeneensa rasismia.” Tähän tarvitaan koulutusta. Luennoitsijoiden ja muiden järjestävien toimijoiden tulisi huomioida eri taustoista tulevat opiskelijat, kun suunnitellaan opetusta tai muuta toimintaa yliopistoilla.

Olennaista on tarjota vertaistukea ja muistuttaa siitä, ettei kukaan ole ajatustensa kanssa yksin.

Näin ei kuitenkaan aina ole, ja Correa nostaakin esimerkiksi tilanteen sosiologian kurssin luennolta, jolla näytettiin väkivaltainen video Rodney Kingin pahoinpitelystä. Afroamerikkalainen King tuli tunnetuksi, kun poliisit pahoinpitelivät hänet vuonna 1991 Los Angelesissa, mutta heitä ei koskaan tuomittu oikeudenkäynnissä, jossa valamiehistö koostui vain valkoisista. Seurauksena oli suuria mellakoita. Correa kyseenalaistaa sen, miksi video tuli näyttää luennolla ilman suoraa tarkoitusta tai sisältövaroituksia. Videota ei purettu muuten kuin keskustelemalla vierustoverin kanssa. Correa oli yhteydessä luennoitsijaan kysyäkseen asiasta, mutta ei saanut vastausta.

CORREAN MUKAAN RESURSSEJA tulisi käyttää sen selvittämiseksi, miksi suhteellisesti pienempi osa maahanmuuttajataustaisista päätyy yliopistoon kuin valtaväestöstä, jotta tasa-arvoiset kouluttautumismahdollisuudet voidaan taata. Samaa on pohtinut Turun yliopiston sosiologian dosentti Elina Kilpi-Jakonen tutkimuksissaan. Uutistamo.fi-sivustolla julkaistussa tekstissään hän nostaa esiin, ettei koulutuksen yhdenvertaisuus toteudu Suomessa.

Huomattavia eroja näkyy oppimistuloksissa ja arvosanoissa, joiden takia syntyy erilaisia mahdollisuuksia edetä koulutusjärjestelmässä. Kilpi-Jakonen nostaa esiin myös sen, että monesti niiden perusteella on mahdollista arvioida menestystä toisella asteella sekä todennäköisyys jatkaa korkea-asteelle. Maahanmuuttotausta vaikuttaa kuitenkin kaksijakoisesti, sillä huolimatta negatiivisista yhteyksistä on eurooppalaisissa tutkimuksissa havaittu myös maahanmuuttajaperheistä löytyvän enemmän koulutuksellista kunnianhimoa. Useissa tapauksissa muuhun väestöön verrattuna koulussa yhtä hyvin pärjänneet maahanmuuttajataustaiset nuoret etenevät korkeakouluun muita todennäköisemmin. Maahanmuuttajataustaiseksi on tässä yhteydessä määritelty henkilö, jolla on kaksi ulkomailla syntynyttä vanhempaa.

AINEISTOISTAAN KILPI-JAKONEN KUITENKIN huomaa eriarvoisuutta aiheuttavan seikan. Maahanmuuttajataustaiset nuoret päättävät peruskoulunsa heikommin arvosanoin kuin valtaväestöön kuuluvat. Tämä vaikeuttaa heidän jatko-opiskelumahdollisuuksiaan toisella asteella. Toiselle asteelle edenneistä valtaväestön nuorista 67 prosenttia suorittaa tutkintonsa loppuun, kun maahanmuuttajataustaisten kohdalla luku on vain 53 prosenttia Kilpi-Jakosen aineistossa, joka on kerätty Tilastokeskukselta vuosilta 2000–2004.

Kilpi-Jakonen nostaa selittäväksi tekijäksi perhetaustan. Maahanmuuttajataustaisten vanhemmat kykenevät antamaan vähemmän tiedollista ja taloudellista tukea kouluttautumiselle, vaikka henkinen tuki voi olla korkealla. Perhetaustalla on merkitystä, mutta ratkaisuja on löydyttävä erilaisista taustoista löytyville myös koulutusjärjestelmän sisällä, jotta yhdenvertaiset mahdollisuudet voidaan taata. Kilpi-Jakonen nostaa keinoiksi esimerkiksi opettajien kielitaitoisuuden lisäämistä, joilla voidaan parantaa maahanmuuttajataustaisten nuorten oppimistuloksia ja koulutuksesta läpipääsyä. Kannustus opiskeluun läpi elämän on myös olennaista.

Yliopistoyhteisössä on siis tehtävää yhdenvertaisuuden puolesta edelleen, vaikka paljon on saavutettu. Suomalainen yhteiskunta torjuu eriarvoisuutta, mutta koulutuspolitiikan keinoin erityistilanteita voitaisiin huomioida enemmän. Järjestelmätason ongelmien lisäksi jokaisen oma itsereflektio eri tilanteissa voi muuttaa ympäristöä.

Kategoriat
2018 Pitkät

Ihminen syrjii, tekoäly toistaa

Tekoälykin voi olla ennakkoluuloinen. Tunnettuja esimerkkejä on useampia: Sciendossa julkaistussa tutkimuksessa huomattiin, että Googlessa korkeapalkkaisen työn mainosta näytettiin moninkertaisesti enemmän miehille kuin naisille. Microsoftin chatbot oppi hetkessä rasistiksi ja Googlen kuva-algoritmi “tunnisti” tummaihoiset gorilloiksi. Science-lehdessä julkaistussa tutkimuksessa taas todettiin, että kone oppi datasta sana-assosiaatioiden mukana ihmismäisiä ennakkoluuloja. Tuntuu vähän ahdistavalta. Eikö tekoälyteknologioista voisi vain, niinku, tehdä intersektionaalisia feministejä?

TEKSTI Ripsa Niemi ja Heidi Puomisto KUVITUS Katri Astala

TEKOÄLY ON NYT joku pöhinän aihe ja asia, josta ainakin pitäisi olla kiinnostunut. Tiivistettynä junaan nyt hyppääville: algoritmit, jotka hyödyntävät tekoälyä, ovat sairaan nopeita ja sairaan tehokkaita. Ne voivat käydä läpi niin paljon dataa sellaisessa vilauksessa, että vastaus kysymykseen, johon ennen meni jopa vuosikymmeniä vastata, voidaan saada jopa sekunneissa.

Aiemmin automatisoitiin päässälaskenta, koska sitä ei ollut mitään järkeä jättää ihmisten tehtäväksi. Nyt tekoälyn kyydissä mennään taas etiäppäin.

Mutta siis tekoälyä soveltavissa teknologioissa ei ole kyse tietenkään vain jostain erityisen nopeista laskimista. Ne pystyvät paitsi analysoimaan dataa, myös luomaan uutta. Kun Spotify suosittelee uutta musiikkia, sen algoritmi tekee päätelmän aiemman tiedon pohjalta. Koska kuuntelit Bon Iverin Skinny Loven vuonna 2009 noin 540 kertaa, ohjelma osaa arvella, että voisit pitää tästä uudesta, toisenlaisesta indieulinasta.

Nyt on tietojenkäsittelytieteen professorin Hannu Toivosen sanoin kyse taas vain uusien toimintojen automatisoimisesta. Muutos on merkittävä, mutta ei tee sen enempää dystopioista kuin utopioistakaan totta. Algoritmit pyrkivät yksinkertaisesti automatisoimaan sen, että havaintojen pohjalta tehdään yleistyksiä. Ettei ihmisen tarvitsisi.

MITÄS SITTEN JOS ne yleistykset ovat seksistisiä? Tai vaikka hiukkasen rasistisia, ableistisia tai muuten vähemmistöjä sortavia?

Algoritmien tekemille valinnoille ei saa perusteluja, ja koodi on usein osa liikesalaisuutta. Yksittäinen koodari ei tosin ole tässä kohtaa yhtään paremmassa asemassa – hän saattaa tietää suuntaviivoja jonkin algoritmin toiminnasta, mutta prosessissa on niin paljon ja niin hienovaraisia yksittäisiä askelia, ettei sitä ole mahdollista seurata taaksepäin.

Päätelmän jäljittäminen olisi yksinkertaisesti niin työlästä, ettei sitä käytännössä voida tehdä. Tähän viitataan usein sanomalla, että algoritmit ovat mustia laatikoita emme voi katsoa konepellin alle. Miten yksittäinen ihminen voi puolustaa oikeuksiaan, jos ei voida tietää, millä perusteella hänestä tehdään päätöksiä?

Miten määritellä käsitteet kuten syrjintä tai sukupuoli niin, että konekin ymmärtäisi?

VASTUUN KANTAVAT KUITENKIN aina ihmiset. Jos haluamme reilun tekoälyn, pitää sitä suunnittelevien ihmisten, eli devaajien ja koodarien, intresseissä olla eettisyys.

“Tekoäly näyttää tekijöiltään ja algoritmeja koodaavien organisaatioiden tavoitteilta. Se ei ole yhtään sen parempi tai huonompi kuin sen tekijätkään”, muistuttaa Suomen Tekoälyohjelman etiikka-alatyöryhmän puheenjohtaja ja Saidot.ai:n toimitusjohtaja Meeri Haataja.

It-ala on kuitenkin yhä vahvasti sukupuolittunut. Tivin alkuvuodesta tekemän kyselyyn vastanneiden alan yritysten työvoimasta vain noin 27 prosenttia on naisia. Wired-lehti taas uutisoi elokuussa tekemästään arviosta, jonka mukaan johtavista tekoälytutkijoista naisia on vain noin joka kahdeksas. Näyttääkö tekoäly suurimmaksi osaksi miehiltä?

“Tietynlaisen teknologian kehittäminen on toki valinta, ja tietotekniikassa on aika kauhea sukupuolten epätasapaino”, Aalto-yliopiston professori ja tietotekniikan tutkija Jaakko Lehtinen sanoo.  

“Ei kuitenkaan ole oikein vetää negatiivisia johtopäätöksiä, koska kaikkien tieteentekijöiden motivaatio on tehdä hyvää. He voivat olla siiloutuneita, mutta eivät haluaisi olla”, hän jatkaa. “Siksi se, että keskustellaan avoimesti ja yhdessä eri näkökulmista on tässä hommassa tosi tärkeää.”

PERINTEINEN TAPA LÄHESTYÄ ongelmia on säännellä niitä, niin myös tekoälyn kohdalla. Rajataan mahdollisuutta toimia miten vain ja pienennetään siten epämiellyttävien seurauksien riskiä. Tuttu juttu.

Joidenkin tutkijoiden mielestä tekoälyfirmoja tulisikin säännellä kuten rakennusalaa eiväthän arkkitehdit saa muotoilla kaupunkia taiteellisen visionsa mukaan, vaan he työskentelevät kaupunkisuunnittelijoiden kanssa ja kaavoitusten ja lisenssien rajoissa. Tutkijaryhmä ehdottaa kolmatta osapuolta, jonkinlaista järjestelmiä valvovaa ja sääntelevää elintä.

Suomessa sääntelyä lähestytään nyt alhaalta ylöspäin. Työ- ja elinkeinoministeriön vetämä Tekoälyaika haastaa yrityksiä laatimaan omat tekoälyn eettiset periaatteet. Riittääkö se, jos kaikki eivät halua olla vapaaehtoisesti reiluja?

“Lainsäädäntö on ehdottomasti relevantti vaihtoehto. Tekoälyä on kuitenkin vaikeaa säädellä lailla, sillä se on aiheena niin abstrakti. Lainsäädäntöä tulee pohtia, mutta sääntely ei saa olla hätiköityä”, sanoo hankkeessa vaikuttava Haataja.

Haataja korostaa ongelmien ratkaisemisessa konkretiaa. “Peräänkuulutan konkreettisten ratkaisujen tunnistamista, sillä se vie asioita nopeammin eteenpäin. Mielestäni organisaatioita pitää auttaa ottamaan konkreettisia askeleita kohti eettistä tekoälyä.”

Feministinen teoria ja tekoäly esiintyvät tutkimuskentällä yhdessä nousevissa määrin. Myös monet niistä periaatteista, joita peräänkuulutetaan tekoälyn etiikan kentällä, voidaan ymmärtää feministisinä tai ainakin yhteensopivina feministisen ajattelun kanssa.

Esimerkiksi EU-komissio valmistelee vuoden loppuun mennessä tekoälyn eettisiä linjauksia, jotka perustuvat EU:n ihmisoikeuskirjaan ja The European Group on Ethics in Science and New Technologies -ryhmän (EGE) tekemään raporttiin. EGE:n esittämien perusperiaatteiden mukaan tekoäly ei saa loukata ihmisen luontaista oikeutta kunnioitukseen.  Myös Suomessa valtiovarainministeriön tietopoliittisessa selonteossa todetaan: ”Etenkin datavalintoihin tulee kiinnittää huomiota, etteivät ihmisajattelun vääristymät ja vinoumat kopioidu algoritmeihin.”

Laskeminen automatisoitiin, koska tietokone on yksinkertaisesti tehokkaampi. Voisiko kone olla myös eettisissä valinnoissa ihmistä parempi?

VALTIONVARAINMINISTERIÖ ON OIKEILLA jäljillä, sillä vinoumia ratkoessa katse kääntyy dataan. Juuri data voi saada aikaan sen, että algoritmi ei tunnista tummaihoista ihmiseksi tai naista päteväksi kandidaatiksi kovapalkkaiseen työhön.  

Lehtisen sanoin: emme ole niin kivoja kuin haluaisimme olla. Ronskisti yleistäen: koska maailma on epätasa-arvoisen vino, niin sitä on myös siitä kerätty data. Syrjivän maailman vinoumat opettavat koneenkin syrjimään.

Esimerkiksi kolmea yleisesti käytettyä kasvontunnistusalgoritmia tarkastelleen tutkimuksen mukaan järjestelmän tarkkuus oli huonompi tummien naisten kuin valkoisten miesten kohdalla. Tutkimuksen mukaan pääasiallinen syy sille, että algoritmit eivät osaa tunnistaa eri ihmisryhmiä samalla tavalla, oli opetusdatassa. Kasvontunnistusalgoritmien datassa ei vain ollut tarpeeksi kaikkia sukupuolia ja ihonväriä edustavia esimerkkejä, joiden pohjalta algoritmi olisi voinut oppia.

“Harkitsemattomat datavalinnat voivat luoda uusia vinoumia”, sanoo myös Haataja.

Mainiota! Taas yksi radikaali potentiaali tukahdutettu, sanoisi Brian Winston.

JOTTA PAHIMMAT MOKAT vältettäisiin, tekoälykehittäjien pitäisi valita, kategorisoida ja luokitella dataa paremmin. Feministinen lähestyminen voisi auttaa rekrytointiehdotuksia tekevän algoritmin suunnittelussa valitsemaan, mikä tieto hakijoista on olennaista. Esimerkiksi tieto sukupuolesta tai etnisestä taustasta voidaan poistaa kokonaan algoritmin käyttämästä datasta. Tällaiset datavalinnat ja -luokittelut vaikuttavat suoraan siihen, mitä algoritmi oppii.

Opetusdata lieneekin vinoumien kannalta kriittisin alue. ”En usko, että on mahdollista saada dataa, jolla opettaa koneita, joka ei sisällä biaksia (vinoumia)”, Lehtinen sanoo.

“Datasta ei välttämättä näe päälle, onko se syrjivää vai ei. Esimerkiksi luottopäätöksiä tekevä algoritmi voisi hypoteettisesti ottaa huomioon muuttujina vain tulot, koulutuksen ja postinumeron. Jos kaupunginosat olisivat kuitenkin vahvasti etnisesti eriytyneitä, päätyisi algoritmi todennäköisesti syrjimään etnisyyden perusteella, vaikka se ei olisikaan mukana muuttujana.”

Jotta algoritmi pystyisi olemaan syrjimättä, sille pitäisi pystyä kertomaan tyhjentävästi, mitkä kaikki muuttujat vaikuttavat siihen. Sosiaalisten ongelmien kohdalla puhumme kuitenkin vaikeasti määriteltävistä termeistä. Miten määritellä käsitteet kuten syrjintä tai sukupuoli niin, että konekin ymmärtäisi?

“Meidän ihmisten pitää määritellä, mikä on hyväksyttyä ja mikä ei. Eihän tällaisen määritteleminen ole helppoa, ei ihminen ole sillä tavalla looginen”, Lehtinen sanoo. “Toisaalta, mehän piirrämme hyväksytyn rajaa jatkuvasti lainsäädännössä. Tässä tekoäly tulee mielenkiintoisella tavalla ihmisten tontille.”

“On avoin ja aktiivinen tutkimuskysymys, miten tällaisia biaksia voidaan havaita datasta, ja millä tavalla voidaan muotoilla sellaisia algoritmisia, ohjelmallisia reiluuden määritelmiä.”

Suomessa sääntelyä lähestytään nyt alhaalta ylöspäin. Riittääkö se, jos kaikki eivät halua olla vapaaehtoisesti reiluja?

PALATAANPA IDEAAN TEKOÄLYTEKNOLOGIOIDEN taustalla. Laskeminen automatisoitiin, koska ihminen on erehtyväinen ja tietokone yksinkertaisesti tehokkaampi. Voisiko kone olla myös eettisissä valinnoissa ihmistä parempi?

Ainakin Lehtinen uskoo tekoälyn mahdollisuuteen tuoda esille syrjiviä rakenteita.

“Jos kehittäisimme menetelmän, joka ei todistettavasti syrjisi, voisimme verrata sen tekemiä päätöksiä ihmisten tekemiin. Jos päätöksissä sitten olisi eroja, voisimme saada todistusaineistoa siitä, että ihminen teki syrjivän päätöksen.”

Lehtinen jatkaa: “Jos pystyisimme opettamaan koneelle edes sen, että sukupuolella ei saa olla vaikutusta päätöksiin, niin se voisi pystyä oikeasti tekemään parempia päätöksiä kuin ihminen.”

Ehkä tekoälyn avulla voisimme nähdä enemmän myös itsestämme.

Juttua varten haastateltiin myös opinnoissaan tekoälyn filosofiaan erikoistunutta Otto Sahlgrenia, joka on ollut mukana ROSE-tutkimushankkeessa sekä kehittää parhaillaan Turku AI Societyn kanssa tekoälyn eettisiä ohjeita.