Helsingin yliopiston johtama hanke toi tekoälyn eettisen arvioinnin työkalun Suomeen

Data Ethics Decision Aid (DEDA) -työkalu lisää eettistä ymmärrystä ja keskustelua yritysten ja julkishallinnon tekoäly- ja dataprojekteissa. Kansainvälisesti innostanut työkalu on nyt tuotu Suomeen Strategisen tutkimuksen neuvoston rahoittaman REPAIR-tutkimushankkeen ja Digi- ja väestötietoviraston yhteistyönä.

Hankkeessa tutkitaan, mitä teknologiaan liittyvät murtumat ovat, mitä niistä voi oppia, ja miten algoritmisia järjestelmiä voisi korjata ja uudistaa tavalla, joka ottaa lähtökohdaksi hyvinvointiyhteiskunnan keskeiset arvot.

– Tekoälyn kasvava käyttöönotto vaatii järeämpiä välineitä hankkeiden arvopohjan tarkasteluun, toteaa hankkeen johtaja, Helsingin yliopiston Kuluttajatutkimuskeskuksen professori Minna Ruckenstein.

Keskustelupohjainen arviointityökalu DEDA pyrkii ennaltaehkäisemään riskejä ja tunnistamaan jännitteitä. Näin työkalu auttaa selkiyttämään tavoitteita ja eri tahojen vastuita.

Työkalu on alun perin kehitetty Utrechtin yliopiston Data Schoolissa. DEDA-yhteistyötä on tukenut työkalua kehittäneen Mirko Schäferin vierailuprofessuuri Helsingin yliopiston HSSH-instituutissa. Hollannissa tekoälyprojektien riskeihin herättiin vuonna 2019, kun kävi ilmi, että veroviranomaisten käyttämä riskiprofiloinnin algoritmi oli johtanut muun muassa aiheettomiin lasten huostaanottoihin.

Myös Suomessa algoritmisia järjestelmiä hyödynnetään yhä enemmän julkishallinnon päätöksenteossa ja julkisissa palveluissa.

– DEDA:n kaltaisia työkaluja tarvitaan, jotta voidaan tunnistaa osaamisen katvealueita, ennaltaehkäistä syrjiviä käytäntöjä sekä pohtia laajemmin, missä yhteyksissä ja miten tekoälyä kannattaa hyödyntää, Ruckenstein kertoo.

Työkalun suomenkielistä versiota on REPAIR-hankkeen aloitteesta ollut testaamassa joukko julkisen sektorin organisaatioita sekä teknologiayritysten edustajia. Testaajat kokivat työkalun olevan hyvä tuki tekoälyprojektien avoimuuteen, vastuullisuuteen, syrjintään ja riskeihin liittyvissä kysymyksissä.

– Digitalisaatio ei missään tapauksessa ole vain teknologiaa: se on ennen kaikkea ihmisten toimintaa ja toimintatapojen muutosta. Myös tekoälyprojekteissa arvoihin ja eettisiin valintoihin liittyvät kysymykset ovat hankalia ja vievät aikaa. DEDA on oiva työkalu tuoda nämä vaikeat mutta tärkeät kysymykset keskusteluun ja arvioitavaksi, kertoo työkalun suomenkielisen version kehittämisessä mukana ollut DVV:n erityisasiantuntija Joonas Aitonurmi.

DEDA taipuu moneen - myös kaupallisissa organisaatioissa, arvioi REPAIR-hankkeen järjestämään testityöpajaan osallistunut Minna Mustakallio strategia- ja teknologiakonsulttitoimisto Un/knownista.

– Suurin arvo on siinä, että pohditaan yhdessä asioita monipuolisemmin kuin teknologiatiimeissä on totuttu. Työkalu vaikuttaa myös erinomaiselta tavalta tuoda esimerkiksi tietosuoja tai riskienhallinta luontevasti mukaan prosessiin. DEDA sopii varsinkin laajempien vaikutusten tekoälyratkaisuihin, joissa teknologian checklistit eivät riitä, Mustakallio toteaa.

DEDA-työkalun suomenkielinen versio sekä sen oheismateriaalit ovat vapaasti ladattavissa ja käytettävissä REPAIR-tutkimushankkeen verkkosivuilta.

 

Strategisen tutkimuksen neuvoston rahoittamassa REPAIR-hankkeessa tutkitaan, mitä teknologiaan liittyvät murtumat ovat, mitä niistä voi oppia, ja miten algoritmisia järjestelmiä voisi korjata ja uudistaa tavalla, joka ottaa lähtökohdaksi hyvinvointiyhteiskunnan keskeiset arvot. Murtumat toimivat REPAIR-hankkeessa lähtökohtina algoritmisten järjestelmien kehitystyöhön – se, mikä on yhtäältä murtuma, on toisaalta mahdollisuus oppia ja uudistaa.

 

Lisätietoja:

Minna Ruckenstein

Konsortion johtaja

Professori, uudet teknologiat ja yhteiskunta, Kuluttajatutkimuskeskus, Helsingin yliopisto,

minna.ruckenstein@helsinki.fi