Algoritmien lukutaidon ABC

Mitä enemmän yhteiskunta algoritmisoituu, sitä enemmän tarvitsemme algoritmista lukutaitoa. Algoritmiseen lukutaitoon kuuluu myös kyky tarkastella algoritmien hyväksyttävän käytön ehtoja sekä algoritmisaation päämääriä. Arviointi vaatii myös yhteiskunnallista ja eettistä osaamista.

Algoritmien lukutaidolla tarkoitetaan kykyä hahmottaa algoritmien ominaisuuksia, niiden toimintaa ja niiden käytön seurauksia. Lukutaitoa on, että kyetään arvioimaan myös niitä eettisiä periaatteita, joilla sovellusten käytön hyväksyttävyyttä punnitaan. Algoritmien, ja ylipäänsä älykkäiden teknologioiden, etiikka on vielä muotoutumassa, ja sen viitekehys on keskeneräinen. Lukutaitoon kuuluu myös, että tunnistetaan ja yksilöidään tekijät, joiden vuoksi tilanne on moraalisesti merkityksellinen. Se voi olla vaikeaa, koska moraalinen merkityksellisyys syntyy usein monen tekijän yhteisvaikutuksesta.

Politiikkaa ja etiikkaa

Tekoälyn eettisillä ohjeilla viitataan suosituksiin siitä, kuinka tekoälyä ja algoritmeja tulisi kehittää, käyttää ja soveltaa. Suosituksia alettiin laatia, kun kone- ja syväoppimiseen perustuvien kaupallisten sovellusten määrä lisääntyi räjähdysmäisesti 2010-luvun puolivälissä.

Suosituksien laatu vaihtelee. Osa, kuten Unescon vielä valmisteilla olevat ohjeet, on kunnianhimoisia ja monessa suhteessa laadukkaita. Niiden taustalla onkin usein pitkä, harkittu ja monivaiheinen työstämisprosessi, jossa on osallistettu laajalti esimerkiksi etiikan asiantuntijoita. Toiset ohjeet ovat pahimmillaan ovat pelkkiä periaatelistoja, joiden käsitteitä ei määritellä, taustapäättelyitä ei avata, eikä perusteluiksi tarjota teoreettista tai kokeellista tutkimusta. Ohjeita ei myöskään taustoiteta, saati että yksilöitäisiin, miksi juuri tietyt teemat on valittu ohjeiden painopisteiksi. Valintojen tarkoituksenmukaisuutta ei pohdita eikä seurauksia tarkastella.

Ohjeita onkin kritisoitu ylimalkaisuudesta, abstraktiudesta ja käsitteellisestä ohuudesta. Ohjeiden vaikuttavuutta on myös epäilty. Ohjeilla tai suosituksilla ei sinänsä ole mitään varsinaista juridista asemaa, eivätkä ne yleensä sisällä konkreettisia toimintamalleja tai -suosituksia. Onkin vaikeaa arvioida, missä määrin ne ovat vaikuttaneet julkaisijoidensa toimintaan.

Monelta vaikuttavuuden epäilijältä on kuitenkin jäänyt huomaamatta ohjeiden kenties merkityksellisin seuraus: Ne ovat pitkälti luoneet viitekehyksen, jonka sisällä miltei koko viime vuosien keskustelu tekoälyn etiikasta on käyty. Suositukset ovat sanallistaneet periaatteet, joiden nojalla tekoälysovellusten hyväksyttävyyttä arvioidaan, ja ne ovat valikoineet käsitteet, joilla tekoälyn etiikasta keskustellaan.

Eettisistä ohjeista lienee alun perin peräisin esimerkiksi slogan, jonka mukaan tekoälykehityksen päämääränä tulisi olla ”ihmiskeskeinen, eettisesti hyväksyttävä ja luotettava tekoäly”. Ihmiskeskeisestä (human centric) ajattelutavasta kertoo muun muassa se, ettei ohjeissa yleensä juurikaan sivuta ekologisia kysymyksiä tai huomioida, että ihmisen ohella algoritmit muuttavat myös muiden eliölajien elin­olosuhteita. Ympäristö- ja ilmastotietoisuus nousi selkeäksi tekoälyn etiikan teemaksi vasta vuoden 2018 tienoilla, jolloin tavoitteeksi alettiin useammin asettaa ”eettisesti kestävä tekoäly” (sustainable) ”hyväksyttävän tekoälyn” (acceptable) sijaan. Kuitenkin vasta Unescon ohjeissa kestävän kehityksen teemaa avataan yksityiskohtaisemmin, ja sen tueksi esitetään myös konkreettisia toimenpide-ehdotuksia.

Ihmiskeskeisyys ilmenee ohjeissa myös muilla tavoin, kuten niin sanottuna human-in-the-loop-periaatteena. Se tarkoittaa, että tekoäly nähdään ohjeistuksissa ihmistä avustavana tukiälynä, ja erityisesti vastuukysymysten kohdalla painotetaan, kuinka ihmisen täytyy olla viime kädessä vastuussa järjestelmien käytöstä. Tämä edellyttää, että ihminen pidetään sekä tiedollisesti että eettisesti mukana ”luupissa” eli selvillä tekoälyjärjestelmien kehityksestä.

Ihmiskeskeisyyden ohella myös monet muut nykyiset tekoälyn painopisteet, kuten reiluus ja oikeudenmukaisuus (fairness), syrjintä ja vinoumat (discrimination, bias) sekä vastuullisuus (accountability), toistavat eettisten ohjeiden painotuksia ja keskeisiä sisältöjä.

On päätettävä, painotetaanko riskejä vai päämääriä

Kiinnostavin eettisten ohjeiden piirre on, että niissä painopiste on usein ensisijaisesti tekoälyyn liittyvissä uhissa ja riskeissä. Vaikka ohjeiden tavoitteet, kuten esimerkiksi ”eettisesti kestävä tekoäly”, ovat sinänsä myönteisiä, itse periaatelistoissa teknologiaa käsitellään kuitenkin pääasiallisesti riskien ja haittavaikutusten minimoinnin (ns. non-maleficence-periaate) näkökulmasta.

Ohjeissa siis kielletään, rajoitetaan ja ennaltaehkäistään muttei juurikaan pohdita, kuinka teknologian avulla voitaisiin edistää myönteisiä päämääriä (beneficence-periaate). Ohjeissa saatetaan esimerkiksi todeta, että tekoälyä ei tule kehittää tai käyttää tavoilla, jotka johtavat syrjintään. Sitä, kuinka tekoälyn avulla voitaisiin kehittää syrjimätöntä yhteiskuntaa, ei pohdita. Ero on konkreettisella tasolla merkittävä. Kun estetään tekoälyä syrjimästä, keinovalikoima on aivan toinen kuin jos tekoälyä käytettäisiin syrjinnän estämiseen.

Teknologiaa tuotetaan, kehitetään ja käytetään monimutkaisissa rakenteissa, ja pelkästään vastuukysymyksien hahmottaminen on vaikeaa. Kenen vastuulla teknologia on, ja kenen toimintaan sääntely pitäisi kohdistaa? Jos algoritmi syrjii, kuka siitä vastaa – koodari, tuotekehittäjä vai käyttäjä? Ei ole myöskään aivan selvää, mihin sääntelyn, esimerkiksi algoritmisen syrjinnän kiellon, pitäisi kohdistua. Kuten kasvontunnistusalgoritmit osoittavat, täsmälleen samaa algoritmia voidaan käyttää hyväksyttävällä ja ei-hyväksyttävällä tavalla. Sääntely ei siis oikeastaan voi kohdentua itse algoritmiin vaan sen ei-hyväksyttävään käyttöön. Käytön sääntely ei kuitenkaan ole käytännössä kovin yksinkertaista, kun kyseessä on kehittyvä teknologia, jolla on hyvin monenlaisia käyttötapoja ja sovellusaloja.

On myös tärkeää huomata, ettei pelkästään riskejä ja haittoja ennaltaehkäisemällä vielä rakenneta hyvinvointia tai edistetä muita myönteisiä yhteiskunnallisia päämääriä. Riski- ja haittapohjaisuus usein kapeuttaa ajattelua ja estää näkemästä mahdollisuuksia. Kun keskitytään kieltämään, ennaltaehkäisemään ja rajoittamaan, jää huomaamatta, että teknologiaa voidaan käyttää myös edistämään arvokkaita päämääriä.

Algoritmeista on moneksi

Algoritmien avulla voidaan kohentaa koulutuksellista tasa-arvoa, tukea oppimisvaikeuksista kärsivien koulunkäyntiä tai kehittää parempaa opetusteknologiaa. Niiden avulla voidaan edistää vähemmistöjen oikeuksia, kehittää kansalaisvaikuttamisen menetelmiä ja turvata demokratiaa. Niitä voidaan käyttää parantamaan tietosuojaa ja kyberturvallisuutta. Algoritmien avulla voimme myös ehkäistä sairauksia tai sosiaalisten ongelmien kasautumista. Ne voivat myös auttaa, kun etsimme ratkaisuja valtaviin yhteis­kunnallisiin ongelmiin, kuten ilmasto- ja energiakriiseihin, vesipulaan, köyhyyteen tai pandemioihin.

Tekoälyn ympärillä pyörii kymmenien ja satojen miljardien eurojen bisnes, jonka sisäisessä dynamiikassa eettiset linjaukset saattavat vaikuttaa yllättävän paljon. Etiikka on jo nyt, ainakin juhlapuheissa, kilpailukykytekijä – näkökulmasta riippuen joko kilpailukyvyn edistäjä tai haitta. Tekoälyn etiikka kytkeytyy myös moniin maailman­poliittisiin kysymyksiin, kuten globaalin hyvinvoinnin jakautumiseen, teknologiakehityksen polarisoitumiseen, ihmisoikeuksien kehittymiseen ja algoritmisen sodankäynnin sääntöihin.

Tekoälyn etiikassa ei siis enää ole kyse vain teknologian eettisen hyväksynnän arvioinnista vaan myös politiikasta, rahasta ja vallasta. Mitä enemmän ne kietoutuvat osaksi tekoälykehityksen päämääriä, sitä kipeämmin tarvitsemme keskustelua kehityksen tavoitteista. Nykyisen eettisen keskustelun kenties suurin puute onkin, ettei tekoäly- tai algoritmisaatiokehityksen myönteisiä päämääriä ole juurikaan käsitelty analyyttisesti. Enemmän kuin mitään muuta saatamme tulevaisuudessa kuitenkin tarvita harkittuja ja huolellisesti muotoiltuja näkemyksiä siitä, mitä algoritmisaatiolla pohjimmiltaan tavoittelemme. ●

 

Teksti on lyhennetty ja muokattu alun perin Älykäs huominen -Tiedekulma-pokkarissa (Gaudeamus) julkaistusta artikkelista Algoritmien aakkoset

Kuuntele pidempi versio artikkelista.
 

Anna-Mari Rusanen on tekoäly- ja kognitiontutkimukseen erikoistunut tieteenfilosofi. Hän työskentelee kognitiotieteen yliopistonlehtorina Helsingin yliopistossa sekä tekoälytutkimuksen erityisasiantuntijana valtiovarainministeriössä. Hän tutkii älykkäiden järjestelmien tiedonkäsittelyn selittämistä sekä algoritmisaation ja tekoälykehityksen eettisiä ja yhteiskunnallisia seurauksia.

Katso ohesta tallenne Tiedekulman Kenen tekoäly? -keskustelusta 21.9.2021, jolloin Rusanen tutkija Matti Nelimarkan ja tietojenkäsittelytieteen professori Teemu Roosin kanssa pureutuivat tekoälyn kehitystä ohjaaviin eettisiin kysymyksiin ja oletuksiin sekä pohtivat, millaisia valintoja älykkäiden teknologioiden taustalla on.

Lisälukemista

Hagendorff, Thilo (2020). The ethics of AI ethics: An evaluation of guidelines. Minds & Machines 30, 99–120.

Jobin, Anna, Marcello Ienca & Effy Vayena (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence 1:9, 389–399.

 

Ethics of AI. Kaikille avoin verkkokurssi teko­älyn etiikasta. Helsingin yliopisto (Anna-Mari Rusanen, Jukka K. Nurminen, Santeri Räisänen, Sasu Tarkoma & Saara Halmetoja).