Tekoäly on hyvä renki mutta huono isäntä - näin algoritmit muuttavat yhteiskuntaa ja arkeamme
Kissa jää koukkuun hiiripeleihin ja kansa katoaa kupliin. Voivatko tutkijat pestä kätensä keksintöjensä seurauksista?

Vuoden 2020 lopulla professori Teemu Roos osallistui alansa tärkeimpään konferenssiin NeurIPSiin, joka kokoaa yhteen tekoälytutkimuksen kermaa ympäri maailmaa.

Konferenssin järjestäjät vaativat ensimmäistä kertaa osallistujia arvioimaan esittelemiensä sovellusten laajemmat yhteiskunnalliset vaikutukset. Tästä syntyi haloo. Jotkut tutkijat pitivät vaatimusta sensuurina tai politiikan tuomisena tieteeseen.

— Monia siltoja poltettiin. En muista ikinä keskustelleeni niin intohimoisesti alani asioista. Aihe oli todella tulenarka, Roos sanoo.

Itse hän on vankasti sen kannalla, että tutkijoilla ja insinööreillä ei ole varaa pestä käsiään keksintöjensä seurauksista. Tekoäly koskettaa nykyään lähes jokaista.

Törmäämme tekoälyyn kaikkialla. Verkkokaupat, suoratoistopalvelut, vaalikoneet, hakukoneet, sosiaalinen media ja deittisovellukset käyttävät sitä. Ja vaikka et itse avaisikaan elämääsi algoritmeille, tietojasi kerää ja käsittelee vähintään julkishallinnon tekoäly.

— On nähty niin paljon tekoälysovellusten haitallisia vaikutuksia, tahallisia tai tahattomia. Algoritmit ovat suositelleet naisille matalapalkkaisempia töitä ja kasvontunnistusohjelmat eivät ole toimineet tummaihoisille. Tällaisten asioiden takia on tärkeää pohtia laajempia yhteyksiä, Roos toteaa.

Kiihdyttävä koukuttaa

Parhaimmillaan tekoäly sujuvoittaa arkea, helpottaa työtä ja auttaa päätöksenteossa. Kaiken runsauden ja kaaoksen keskeltä se valikoi juuri sinulle sopivan aineksen. Se on automaattista tiedonkäsittelyä sanan varsinaisessa merkityksessä.

Moni ei kuitenkaan tule ajatelleeksi, että samalla, kun algoritmi ehdottaa jotain, se myös rajaa jotain pois. Valinnat se tekee sen mukaan, miten se on kirjoitettu ja millä datalla se on opetettu, ei minkään objektiivisen luonnonlain mukaan.

Pahimmillaan algoritmit ohjaavat ääriajatteluun ja yhteiskunnan polarisaatioon. Ei siksi, että kukaan olisi halunnut sellaista, vaan siksi, että sosiaalisen median alustojen tavoitteena on maksimoida niiden parissa vietettyä aikaa. Koska ihmiset viihtyvät kiihdyttävän sisällön parissa, somealgoritmit näyttävät sellaista.

Koukuttava sisältö voi olla harhaanjohtavaa tai valheellista, joskus silkkaa vihapuhetta. Myanmarissa rohingya-vähemmistön vaino yltyi kansanmurhaksi Facebookissa levitettyjen valeuutisten vuoksi. Yhdysvalloissa vuoden 2016 presidentinvaaleihin vaikutettiin manipuloimalla äänestäjiä Facebookissa.

Teemu Roos pitää tekoälyn suurimpina vaikutuksina yhteiskuntaan tiedonhaun muuttumista ja sosiaalisen median luomia kuplia.

— Sillä on valtava merkitys, jos algoritmi suosittaa ääriajattelua ja väärää tietoa. Suosittelumenetelmiä pitäisi oppia suitsimaan ja haittavaikutuksia hillitsemään, sanoo Roos.

Ongelma vain on, että tällä hetkellä hillitseminen ei ole taloudellisesti kannattavaa sosiaalisen median alustoille.

Kissan hiiripelit

Olisi parempi kuluttaa sisältöä, joka haastaa omat käsitykset, mutta ihmisen pää ei toimi niin. Aivot eivät pysty käsittelemään kaikkia vaihtoehtoja, ja siksi suodatamme esiin asiat, jotka tukevat omaa ajatteluamme. Sosiaalisen median algoritmit on rakennettu tälle perustalle.

— Somealgoritmit vahvistavat tiedonkäsittelyjärjestelmämme perusominaisuuksia. Ihminen on laiska etsimään omalle kannalleen vastakkaisia mielipiteitä, toteaa kognitiotieteen yliopistonlehtori Anna-Mari Rusanen.

Mieluisa sisältö koukuttaa, jopa eläimiä. Rusanen testasi ilmiötä kissallaan, joka haluaisi nyt koko ajan pelata YouTuben hiiripelejä. Se odottaa television äärellä kärsivällisesti, kunnes peli käynnistetään, huitoo tassuillaan hiiriä ja yrittää päästä ruudun sisään.

— YouTube tarjoilee jatkuvasti meitä miellyttävää sisältöä ja vetoaa kognitiivisen järjestelmän heikkouksiin. Mekanismi on yllättävän tehokas, jos se toimii eläimilläkin. Ymmärtävätköhän vanhemmat, että YouTube Kidsin ainoa päämäärä on saada heidän lapsensa viettämään sen parissa mahdollisimman paljon aikaa?

Aiemmin suomalaisessa yhtenäiskulttuurissa lähes kaikki katsoivat Yleisradion uutisia. Oli valinta, jos päätti perustaa maailmankuvansa oman puolueensa lehteen.

— Nyt ei tehdä valintaa, vaan sosiaalinen media tuuttaa, mitä katsoo sinulle hyväksi. Lillumme tiedon virrassa, jota emme itse valitse. Jos muita tiedonlähteitä ei ole, samankaltaisen materiaalin jatkuva kuluttaminen alkaa muokata ajattelutapaa, Rusanen sanoo.

10 000 ihmistä vai yksi botti?

Sosiaalisessa mediassa ihmiset kirjoittavat asioita, joita eivät koskaan sanoisi ääneen. Kun samanhenkiset ihmiset tuodaan yhteen, he pääsevät lietsomaan toisiaan ja kuplassaan he kuvittelevat, että koko maailma on samaa mieltä.

— 20 vuotta sitten luulimme ruusuisesti, että internet yhdistää ja voimme keskustella kenen tahansa kanssa. Sen sijaan ollaan sitten näissä klikeissä, harmittelee tietojenkäsittelytieteen professori Petri Myllymäki.

Verkkokeskusteluihin osallistuu myös botteja eli jotain asiaa edistäviä tietokoneohjelmia. Ne saattavat vyöryttää kantojaan aggressiivisesti, ihmisinä esiintyen.

— Ei ole oikein, jos luulemme, että on olemassa 10 000 samaa mieltä olevaa ihmistä, jos oikeasti heitä on vain yksi. Tällä hetkellä botteja rajoittavaa sääntelyä ei ole olemassa, Myllymäki sanoo.

Myllymäki kaipaa internetin villiin länteen sheriffiä. Myös digitaalinen maailma on osa yhteiskuntaa ja samoja arvoja pitää kunnioittaa sielläkin.

— Jos jokin asia on väärin, se on väärin riippumatta siitä, mitä teknologiaa käytetään. Meillä on lait ja arvot, jotka määräävät, ettei ketään saa syrjiä ja ettei yksityisyyttä saa loukata. Fyysisessä maailmassa tätä pidetään itsestään selvänä.

Teknojätit kahmivat tietoa

Kun käyttää sosiaalista mediaa tai hakukoneita, joutuu usein luovuttamaan tietojaan. Niitä sitten jaellaan eri palvelusta toiseen. Jos etsit pesukonetta Googlesta, saat kohta pesukonemainoksia Facebookissa. Tämä voi olla kätevää, tai sitten ärsyttävää. Myllymäen mukaan palvelut voisivat ainakin kysyä, hyväksyykö asiakas tietojen siirron.

Useimmille ihmisille internet on yhtä kuin Google. Se on silti yritys, joka voi poistaa palvelustaan muita yrityksiä tai vaikka valtioita, jos näin sattuu päättämään.

Teknojäteillä on valtaa ja rahaa. Jotkut niistä tarjoavat valtioille julkisen sektorin tekoälysovelluksia ilmaiseksi, jos nämä luovuttavat kansalaisten dataa. Tämä ei Myllymäestä ole hyvä idea – hän näkisi mieluummin, että julkishallinto kehittäisi omia tekoälysovelluksiaan.

— Sosiaalisen elämämme olemme jo suurelta osin luovuttaneet teknologiajäteille, mutta niille ei pidä antaa yhteiskunnan dataa, joka liittyy esimerkiksi terveyteen, koulutukseen ja liikenteeseen. Nyt pitää olla hereillä eikä tehdä samaa virhettä uudelleen, toteaa Myllymäki.

Hienojen tekoälysovellusten on totuttu vaativan paljon dataa, paljon rahaa ja paljon sähköä. Myllymäen mukaan näin ei tarvitse olla. Aiemmin on havaittu sähkönkulutuksen haitat ympäristölle. Tekoälyjärjestelmiä voidaan tehdä yrityksille ja julkiselle sektorille myös vähemmällä datalla ja rahalla.

— Tehokkuus sopii suomalaiseen mentaliteettiin. Suomessa onkin tutkittu jo vuosikymmeniä tekoälymenetelmiä, jotka toimivat myös pienemmillä datamäärillä. Siinä olemme edelläkävijöitä.

Algoritmi ja naapurinrouva

Julkishallinnossa hyödynnetään jo nyt tekoälyä. Meistä kerätään koko ajan yhä enemmän tietoa, jota käytetään päätöksentekoon muun muassa verotuksessa ja sosiaalietuuksien laskennassa.

Eräät sairaanhoitopiirit keräävät dataa sosiaali- ja terveystiedoista ennakoidakseen riskejä. Etelä-Karjalassa kokeillaan mallia, jossa arvioidaan datan perusteella, onko perheessä lastensuojelun tai mielenterveyspalvelujen tarvetta.

— Jos terveysrekisteristä voi päätellä riskejä, siitä on hyötyä sekä yksilölle että palveluntarjoajalle. Kääntöpuolella on se, kuinka paljon valtio voi edes hyvässä tarkoituksessa tunkeutua ihmisten elämänkohtaloihin, sanoo Anna-Mari Rusanen.

Tekoälyn käyttö nostaakin esiin ikiaikaiset kysymykset itsemääräämisoikeudesta sekä kansalaisen ja valtion suhteesta. Miten valtion rooli valvojana vaikuttaa yksilön vapauteen? Toisaalta, voidaanko valtiota syyttää heitteillejätöstä, jos datan perusteella olisi pitänyt ymmärtää toimia?

— Yksi ydinkysymyksistä on, onko sillä väliä, tekeekö ennusteen lastensuojelun tarpeesta data-analytiikka vai naapurinrouva, Rusanen toteaa.

Rusasen mukaan elämme aikaa, jolloin uusi teknologia pakottaa pohtimaan, miksi teemme, mitä teemme. Koko yhteiskuntajärjestelmämme joutuu hakemaan perusteluja itselleen.

Eurooppalaisessa ajattelussa ihmisellä on perinteisesti ollut oikeus yksityisyyteen. Se periytyy jo 1600-luvulta ja heijastelee individualismia ja perusoikeuksia, joiden yli valtio ei voi kävellä.

Väärinkäyttöä vaikea estää

Hyvään tarkoitettuja sovelluksia voidaan myös käyttää väärin. Kuvantunnistus auttaa suunnittelemaan autoihin automaattisia jarrutusjärjestelmiä, mutta sen avulla voidaan myös tehdä etnistä profilointia.

Suunnittelija ei voi vaikuttaa siihen, mihin käyttöön sovellus päätyy. Tekoälyalalla tieto on jo teknologiaa. Ydinaseteknologiaa on mahdollista rajoittaa, koska se tarvitsee isoja laitteita, mutta koodinpätkien kulkeutumista maasta toiseen on vaikea estää.

Pitäisikö sitten keskeyttää joidenkin sovellusten kehittäminen sillä perusteella, että on olemassa maita, joissa niitä voidaan käyttää ihmisoikeuksia loukkaaviin tarkoituksiin? Petri Myllymäen mielestä ei. Se ei lopettaisi niiden suunnittelemista muualla.

— Sääntely on usein kieltoja, mutta samalla voi mennä romukoppaan hyviäkin käyttötarkoituksia. Toivoisin innovaatiot mahdollistavia pelisääntöjä. EU:lla on maine, että se pyrkii kieltämään kaiken, ja silloin Kiina ja USA juoksevat nauraen ohi, Myllymäki sanoo.

Teemu Roos taas näkee, että EU on saanut aikaan paljon hyvääkin. Vuonna 2016 voimaan tullut yleinen tietosuoja-asetus on hänen mukaansa toiminut yllättävän hyvin.

— EU:lla on valtaa. Se on myös ainoa, jolla on aitoa kiinnostusta asiaan, Roos sanoo.

Yritykset toimivat markkinamekanismien mukaan, kunnes poliittiset päättäjät ja kansalaiset asettavat rajoja. Lainsäädäntö ei voi olla kansallista, koska ala on kansainvälinen.

—Yritysten itsesääntely ei riitä, se on tiedostettu jo vuosia. Ei ympäristölainsäädäntökään olisi mennyt mihinkään, jos se olisi jätetty isoille öljy-yhtiöille, Roos toteaa.

EU miettii ehtoja

Keväällä EU:n komissio julkisti luonnoksen uudesta tekoälystrategiasta. Kunnianhimoisessa lakipaketissa esitetään kieltoa esimerkiksi tekoälyn avulla tehtävälle joukkovalvonnalle sekä ehtoja muun muassa koulutukseen, rekrytointiin, julkisiin palveluihin ja lainvalvontaan liittyville tekoälysovelluksille.

— On hyvä, että yritetään luoda raamit ihmisoikeuksia kunnioittavalle tekoälyn käytölle. Jotkut ovat kuitenkin kysyneet, onko paketti liiankin raskas ja monimutkainen. Käyttääkö EU lekaa, kun ruuvimeisseli olisi riittänyt, pohtii Anna-Mari Rusanen.

Yliopistonlehtorin työnsä lisäksi Rusanen on valtionvarainministeriössä erityisasiantuntijana osastolla, joka vastaa julkishallinnon digitalisoinnista. Hän avustaa lainvalmistelussa ja EU-sääntelyn tulkitsemisessa.

Rusasen mukaan komission strategialuonnoksessa on hyvää se, että siinä pyritään sääntelemään käyttöä eikä teknologioita. Silti tekoälyn määrittely tuottaa ongelmia: strategiassa esitetty lista tekoälyjärjestelmistä on suppea ja puutteellinen jo nyt.

Syksyllä EU:lta odotetaan lakipaketin toista osaa, joka keskittyy tuote- ja vahingonkorvausvastuuseen. Menee kuitenkin vuosia ennen kuin lait ovat voimassa.

— Tämä on hidas prosessi, joka tulee herättämään paljon keskustelua mutta myös suuria tunteita, lobbausta ja aktivismia, Rusanen toteaa.

Vapaa tahto vaarassa?

Tekoälytutkija Timo Honkela (1962–2020) visioi Rauhankonetta, eli tekoälyä, joka auttaisi sovittelemaan konflikteja. Tekoäly voi myös olla lääkärin apuna kasvaimen tunnistamisessa tai insinöörin tukena tieremontin suunnittelussa. Se voi parantaa päätöksentekoa merkittävästi.

Useimmat haluavat silti, että lopullisen päätöksen tekee ihminen. Onko näin aina silloinkaan, kun ihminen allekirjoittaa päätöksen?

Kun tekoäly tarjoaa ehdotustaan, ihminen päätyy helposti valitsemaan sen. Puolassa huomattiin, että työvoimavirkailijat muuttivat algoritmin ehdotusta alle yhdessä prosentissa tapauksista, toteaa AlgorithmWatchin raportti. Tämä voi kertoa joko algoritmin erinomaisuudesta tai ihmisen laiskuudesta.

Teemme yhä vähemmän päätöksiä itsenäisesti. On mahdollista, että meistä tulee siksi huonompia päätöksentekijöitä. Yleensä taidot, joita ei käytetä, surkastuvat. Jos aina käyttää navigaatiosovellusta, ei välttämättä enää löydä perille ilman sitä.

Onko tekoäly siis isäntä vai renki? Kelpo apulainen vai ovela manipuloija? Olennaista on, käytetäänkö tekoälyä kontrolloidusti ja ymmärtäen, kuinka se toimii, vai annetaanko sen rajoittaa valinnanvapauttamme ja vapaata tahtoamme.

Anna-Mari Rusanen miettii uhkien ja riskien sijasta mieluummin sitä, mitä hyvää tekoälyn avulla voidaan saada aikaan ihmisten ja koko planeetan hyväksi. Kehityksen suunta on omissa käsissämme. Rusasen vetämä tekoälyn etiikka -kurssi päättyykin toiveikkaaseen sitaattiin Aristoteleelta: ”Valinta, ei sattuma, määrää kohtalosi."

Jos siis haluat olla tekoälyn herra, opettele ymmärtämään sitä. Silloin voit kenties valita, mihin haluat sitä käytettävän ja mihin et.

 

Artikkeli on julkaistu Yliopisto-lehdessä 6/2021.

Reiluutta koneoppimiseen

Tekoälyä on kahdenlaista. Perinteisille algoritmeille annetaan kaikki mahdolliset vaihtoehdot ja opetetaan, miten toimia kussakin tapauksessa. Koneoppiva tekoäly puolestaan oppii itse valtavien data-aineistojen perusteella. Se tiivistää annetusta datasta sääntöjä ja vertailee uusia tapauksia vanhoihin yrittäen tehdä hyviä päätöksiä aiemman tiedon pohjalta.

Pitkään ajateltiin, että koneoppiminen on neutraalia, koska siihen ei vaikuta päätöksentekijän mieliala eivätkä hänen mielipiteensä. Algoritmi ei itse syrji, mutta jos historiallinen data, josta se oppii, on vinoutunutta, on sitä myös lopputulos.

— Algoritmi ei osaa kaivaa datasta moraalisia normeja tai korjata vinoumia. Yhteiskunnan arvot on opetettava sille erikseen, sanoo apulaisprofessori Indrė Žliobaitė, joka laati maailman ensimmäisen yliopistokurssin reilusta koneoppimisesta.

Pääperiaate on, että opetusvaiheessa algoritmille kerrotaan yksiselitteisesti, mitä siltä halutaan. Vaikka se oppii itse, oppimista on mahdollista ohjata asettamalla sille tarkempia ehtoja. Muuttujia vaihtamalla testataan, kuinka lopputulos muuttuu, ja optimoidaan sitä lähelle toivottua lopputulosta.

Vinoutunutta dataa ei välttämättä pystytä puhdistamaan, jos siinä näkyy vuosisatojen kulttuurinen syrjintä. Sen sijaan algoritmille voidaan kertoa, että esimerkiksi naisia ja miehiä on maailmassa yhtä paljon, vaikka historiallisessa rekrytointidatassa miehillä olisikin enemmistö.

Koneoppimisen prosesseja voi sertifioida samalla tavalla kuin mitä tahansa työvaiheita. Žliobaitė kannattaakin sosiaalisesti arkaluonteisille sovelluksille ISO-standardeja, jotka varmentaisivat niiden laadun.

— Algoritmit ovat nyt osa kulttuuriamme, kuten tuli ja työkalut. Ne muuttavat tavan, jolla opimme, samalla tavalla kuin lentokoneet muuttivat tavan, jolla liikumme, Žliobaitė pohtii.