Tekoäly tarvitsee ihmisen apua: kolme syytä opiskella sen perusteet nyt

Tekoäly ei tuhoa meitä, mutta se voi saada meidät syrjimään toisiamme, sanoo tietojenkäsittelytieteen apulaisprofessori Teemu Roos. Nämä kolme ja muita faktoja tekoälystä voi ottaa haltuun kaikille avoimella Elements of AI -verkkokurssilla.

1. Tekoäly on vielä tyhmä

Tekoälyn kehityksen vauhtia liioitellaan. Tekoälymenetelmät ovat vielä tyhmiä, Teemu Roos sanoo. Hän vetää Helsingin yliopistossa koneoppimiseen erikoistunutta tutkimusryhmää, jonka tutkimushankkeet pureutuvat big dataan ja tekoälysovelluksiin kvanttifysiikassa ja lääketieteessä.

Kun tietokone voittaa ihmisen shakissa, se ei tarkoita sitä, että tekoäly on ylittänyt ihmisen älykkyyden. Kyse on siitä, että ohjelma on optimoitu shakin pelaamiseen. Toinen ohjelma osaa ennustaa talouden käänteitä, kolmas tunnistaa kasvoja ja neljäs etsii relevantteja dokumentteja suurista datajoukoista.

– Nykymenetelmät osaavat siis hoitaa melko kapeita tehtäviä. Esimerkiksi paljon julkisuutta saanut IBM:n Watson on joukko toisistaan irrallisia menetelmiä, jotka tekevät omia juttujaan, ei yksi ja sama monitaitoinen tekoäly, Roos sanoo.

Eri menetelmiä voidaan kuitenkin yhdistää samaan sovellukseen, kuten itseään ajavaan autoon. Roos uskoo, että kymmenen vuoden sisällä niillä liikkuminen on Helsingissä rutiinia.

– Onnettomuusriski on olemassa, mutta luultavasti se on pienempi kuin silloin, kun ihminen on ratissa, Roos sanoo.

2. Tekoälyltä puuttuu kulttuuri

Tekoäly ei ole mikään olio, joka tulee koko ajan viisaammaksi, ryhtyy tietoiseksi itsestään ja valtaa maailman, Roos sanoo. Vaikka tietokoneiden kapasiteetti kasvaa, niiden ongelmanratkaisukyky ei kehity eksponentiaalisesti.

Jotta tekoäly pystyisi itsenäisesti kehittämään itseään, koneen pitäisi myös ratkaista yhä monimutkaisempia ongelmia. Ihminenkin on joutunut sopeutumaan siihen, että tieteen kehitys vaikeutuu koko ajan, koska tiedon kasvaessa ongelmat monimutkaistuvat. Roosin mukaan olemme kuitenkin tottuneet tähän ja käytämme ongelmanratkaisuun myös kulttuurista ymmärrystämme.

– On epätodennäköistä, että tekoäly ylittäisi ihmisten kollektiivisen älykkyyden, Roos toteaa.

Uhkia maalailee myös niin kutsuttu klemmaritehdasongelma, joka on usein käytetty esimerkki tekoälyyn liittyvistä kauhuskenaarioista. Siinä tekoälyllä toimivan tehtaan pitää tuottaa mahdollisimman paljon klemmareita mahdollisimman edullisesti. Jossain vaiheessa tekoäly tulkitsee tilastoista, että mitä vähemmän ihmisiä kilpailee sen kanssa raaka-aineesta, sitä enemmän se saa tehtyä klemmareita. Sitten se alkaa tappaa ihmisiä optimoidakseen tuotantoa.

Roosin mukaan skenaario on epärealistinen.

– Jotta tekoäly kykenisi karkaamaan ihmisen hallinnasta, sen täytyisi myös ymmärtää ihmistä niin hyvin, että se tajuaisi, ettemme me tavoittele elämässä pelkkiä klemmareita.  

3. Tekoäly voi olla syrjivä

Roosin mukaan nyt olisi tärkeää miettiä algoritmien harjoittamaa syrjintää. Voimme opettaa algoritmin esimerkiksi poimimaan tuhannen CV:n joukosta potentiaalisia työnhakijoita. Algoritmi alkaa aiempien rekrytointien perusteella huomata datasta, että tiettyä kansallisuutta edustavat ihmiset tulevat valituiksi muita harvemmin. Sitten algoritmi alkaa perata heitä pois aineistosta. Eli jos raakadata sisältää syrjintää, myös järjestelmä oppii syrjimään.

– Vaikka poistaisimme ansioluetteloista hakijan nimen, sukupuolen ja kansallisuuden, algoritmi voi silti oppia syrjiväksi. Se voi tehdä hakijan sanavalinnoista tai muista pienitä vihjeistä päätelmiä sukupuolesta ja etnisyydestä, Roos sanoo.

Syrjintää on Roosin mukaan silti helpompi perata datasta kuin ihmisen käytöksestä, koska data ei kaunistele käytöstään.

Erään tutkimuksen mukaan Google-haku näytti naisille huonommin palkattuja työpaikkailmoituksia kuin miehille. Naiset olivat ehkä klikanneet näitä ilmoituksia aiemmin, ja algoritmi oppi nostamaan niitä hauissa. Lopulta on vaikeaa huomata parempipalkkaisia työpaikkoja, koska haku ei koskaan tarjoa niitä.

– Nämä ilmiöt johtuvat siitä, että elämme yhteiskunnassa, jossa on syrjintää. On hyvä, että toukokuussa 2018 voimaan tulevan Euroopan tietosuoja-asetuksen vuoksi myös koneoppimisalgoritmit pitää pystyä perustelemaan. Näin voimme tunnistaa syrjinnän syitä, Roos sanoo.

Roosin mielestä on harmi, että tekoälykeskustelussa pääsevät ääneen ääripäät: yltiöpäiset optimistit ja tuomiopäivän maalailijat.

– Muotisanojen ja kauhukuvien sijaan tarvitsemme maltillista ymmärrystä tekoälyn mahdollisuuksista, ja tähän pyrimme myös Elements of AI -kurssilla.

Ilmoittaudu Elements of AI -kurssille

Lue lisää aiheesta: Datatiede