Voiko tekoälyn haastaa oikeuteen? Nyt pohditaan, kuka on vastuussa, kun tekoäly päättää

Keskiajalla eläimetkin saattoivat päätyä oikeuteen. Vaaditaanko tulevaisuudessa tekoälyä tilille tekosistaan?

Maalla asuva, suomea puhuva mies ei saanut luottoa rakennustarvikkeiden ostoon. Syynä oli se, että hän oli maalla asuva, suomea puhuva mies.

Päätös perustui tilastolliseen pisteytysjärjestelmään, jonka yhdenvertaisuuslautakunta totesi syrjiväksi. Vastaavia järjestelmiä kuitenkin käytetään muuallakin. Jos dataa luokittelee tekoäly, pisteytyksen perusteita ei ymmärrä välttämättä kukaan.

Harvasta asiasta on kohistu viime vuosina yhtä paljon kuin tekoälystä. Se herättää pelkoa ja nostattaa toiveita. Tekoäly on jo täällä, vaikka monet sen käyttöön liittyvät kysymykset ovat vielä ratkaisematta.

Suomi aikoo tekoälyn soveltamisen kärkimaaksi, vakuuttaa kansallinen tekoälyohjelma. Tammikuussa julkaistiin AlgorithmWatch-kansalaisjärjestön raportti, jonka mukaan algoritmeja käytetään EU:ssa jo monin tavoin päätöksenteon apuna.

VOI OSUA KEHEN HYVÄNSÄ

Raportin Suomen osuutta oli kirjoittamassa apulaisprofessori Minna Ruckenstein Kuluttajatutkimuskeskuksesta. Hänen mukaansa olemme kansalaisina hataralla pohjalla tekoälyyn liittyvissä kysymyksissä niin eettisesti, poliittisesti kuin oikeudellisesti.

Raportissa käsiteltiin myös rakennustarvikeluottoa hakeneen miehen tapausta. Ruckensteinin mukaan se on hyvä esimerkki tilanteesta, jossa ihmisestä tehdään arvio käyttäen tilastollista, ei henkilökohtaista dataa. Verkko-ostoksiinsa luottoa hakeneesta miehestä ei ollut tietoa luottoyhtiön omissa rekistereissä tai luottorekisterissä. Niinpä pisteytysjärjestelmä arvioi hänet iän, sukupuolen, asuinpaikan ja äidinkielen perusteella.

— Tapaus osoittaa, että kuka tahansa voi joutua syrjityksi. Useimmiten luokittelujen kohteena ovat kuitenkin yhteiskunnan vähäosaiset, Ruckenstein toteaa.

VALLANKÄYTÖN VAARAT

Neljän viime vuoden aikana Suomen lainsäädäntö on helpottanut julkishallinnon digitalisaatiota kymmenillä säädöksillä. Tulossa on palveluja, joissa tekoäly arvioi terveystietojen perusteella, onko henkilö syrjäytymisvaarassa. Sitä kaavaillaan käyttöön myös työvoimahallinnossa, maahanmuuttovirastossa ja sähkölaskutietojen hallinnoinnissa.

— Tarkoitus on hyvä, mutta samalla tekoäly antaa työkalun totalitääriseen vallankäyttöön. Suomessa uskotaan, että teknologiasta avautuu taivas. Keskustelu eri näkökulmista on puuttunut, arvioi oikeuskansleri, dosentti Tuomas Pöysti Lakimiesyhdistyksen järjestämässä Oikeus ja digitalisaatio -tilaisuudessa alkuvuodesta.

Tällä hetkellä algoritmit eivät tee päätöksiä itsenäisesti, vaan allekirjoittajaksi tarvitaan ihminen. Tämä vastuunkantaja ei kuitenkaan välttämättä osaa tai ehdi perehtyä asiaan. Esimerkiksi Puolassa huomattiin, että työvoimavirkailijat muuttivat algoritmin ehdotusta alle yhdessä prosentissa tapauksista, AlgorithmWatchin raportti kertoo.

YMMÄRTÄÄKÖ IHMINEN?

Suomessa apulaisoikeusasiamies Maija Sakslin vaati viime vuonna selvitystä Verohallinnon automatisoimista verotuspäätöksistä. Hän epäili niiden vaarantavan hyvän hallinnon ja oikeusturvan. Palvelunumeroissa vastanneet veroneuvojat eivät osanneet avata verovelvollisille ohjelmistorobotin päätöksen perusteita.

Sääntöpohjaiset algoritmit perustuvat siihen, että asiantuntijan tietämys koodataan koneeseen. Ohjelmalle annetaan kaikki mahdolliset vaihtoehdot ja opetetaan, miten toimia kussakin tapauksessa. Tällaista tekoälyä on ollut käytössä jo 1980-luvulta, ja sen päätökset ovat jäljitettävissä.

Uudempi koneoppiva tekoäly puolestaan oppii itse valtavien data-aineistojen perusteella. Se tiivistää annetusta datasta sääntöjä ja vertailee uusia tapauksia vanhoihin yrittäen tehdä hyviä päätöksiä aiemman tiedon pohjalta. Logiikkaa voi olla vaikea purkaa muotoon, joka aukeaisi ihmiselle.

VASTUU JA PAKO

Filosofian tutkijatohtori Raul Haklin mielestä riskinä on, että pakenemme vastuuta vetäytymällä tekoälyn taakse.

— Sanotaan, että se nyt vain päätti noin, voi voi.

Hakli ja hänen kollegansa Pekka Mäkelä ovat pohtineet koneiden vastuuta ja julkaisivat siitä tieteellisen artikkelin The Monist -lehdessä. Heidän johtopäätöksensä on jyrkkä: robotit eivät voi missään oloissa olla vastuussa, vaikka ne kehittyisivät tulevaisuudessa millaisiksi.

Moraalinen vastuu edellyttää kontrollia omasta toiminnasta. Tekoälyllä sitä ei ole, koska se on ohjelmoitu ja toteuttaa ohjelmoijansa tavoitteita, ei omiaan. Tekoäly ei myöskään välitä paheksunnasta, kehuista tai kannustuksesta.

IHMISET HITAITA JA TYHMIÄ

Vastuu tekoälyn töppäyksistä voi olla ohjelmoijalla, jos hän on tehnyt virheen, tai käyttäjällä, jos hän on käyttänyt konetta väärin. Se voi olla myös yhteiskunnalla, joka on sallinut laitteen käyttöönoton. Joskus voi olla, että vastuu ei ole kenelläkään, vaan kyse on silkasta onnettomuudesta. Näissä tapauksissa tarvittaisiin vakuutuksia, jotka korvaisivat kulut vahinkoa kärsineille.

Tietojenkäsittelytiedettä opiskellut mutta filosofian pariin siirtynyt Hakli ymmärtää hyvin, miksi tekoälyä halutaan käyttää yhä enemmän. Se on helppoa ja halpaa, tehokasta, tuottavaa, eikä tee inhimillisiä virheitä.

— Me ihmisethän olemme hitaita, laiskoja ja tyhmiä. Kaiken teknologian käyttöönotossa pitäisi silti arvioida, tekeekö se maailmasta paremman paikan.

PELOTE VOISI TOIMIA

Vaikka tekoäly ei voisikaan kantaa moraalista vastuuta, voisiko sen haastaa oikeuteen? Jos voisi ja se todettaisiin syylliseksi, miten sitä rangaistaisiin?

— Perinteisesti rangaistusta on ajateltu esimerkiksi sovituksena tai pelotteena. Sovitus ei merkitse tekoälylle mitään, mutta pelote voisi toimiakin, pohtii oikeustieteen tutkijatohtori Visa Kurki Helsingin yliopiston tutkijakollegiumista.

Jos pörssikauppaa käyvän algoritmin tavoite on mahdollisimman suuri voitto, se pyrkii siihen keinolla millä hyvänsä. Jos lainsäätäjä haluaa estää sitä hyödyntämästä sisäpiiritietoja, kannattaa siitä määrätä tuomioksi sakko, joka on määrältään moninkertainen ansaittuun voittoon nähden.

Nykyään pörssialgoritmit ovat pankkien työkaluja, ja pankit ovat vastuussa niiden kaupoista. Joskus kauppoja on peruttukin, kun algoritmit ovat alkaneet toimia oudosti. Yhdysvalloissa on kuitenkin jo pohdittu, voisiko algoritmin eriyttää pankista omaan yhtiöönsä, joka voisi tarvittaessa mennä konkurssiin. Silloin algoritmin päätöksistä ei olisi vastuussa kukaan.

LUONNON OIKEUDET

Visa Kurki haluaisi muuttaa sitä, miten näemme oikeussubjektin käsitteen. Nyt Suomen laki tunnustaa vain luonnolliset henkilöt eli ihmiset ja oikeushenkilöt, jotka ovat yrityksiä tai yhteisöitä.

— Monesti ajatellaan, että vain luonnollisilla henkilöillä ja oikeushenkilöillä olisi oikeuksia. Tosiasiassa niitä ympäröi harmaa alue.

Käsitys oikeuksista ja niiden piiriin kuuluvista on muuttunut vuosien mittaan. Naiset ja orjat saivat täydet oikeudet vähitellen. Lapsia kuullaan oikeuskäsittelyissä nykyään paljon enemmän kuin muutama vuosikymmen sitten. Eläimillä on oikeuksia tulla kohdelluiksi hyvin. Uudessa-Seelannissa oikeussubjektin asema on myönnetty jopa joelle.

HIIRET SYYTETTYINÄ

Myös ajatukset siitä, keitä voi vetää vastuuseen teoistaan, ovat muuttuneet aikojen saatossa. Keskiajalla käytiin kummallisia eläinoikeudenkäyntejä. Kerran Ranskassa haastettiin hiiret oikeuteen viljan syömisestä. Niille oli jopa nimetty asianajaja, jolta tuomari tivasi, miksi syytetyt eivät ole saapuneet paikalle.

Kurki jakaa oikeussubjektit passiivisiin ja aktiivisiin. Passiivisilla on oikeuksia mutta ei velvollisuuksia. Aktiivisilla on molempia ja lisäksi kyky toimia oikeudessa.

Lapsia ja eläimiä ei haasteta oikeuteen, koska heidän ja niiden ei voida olettaa ymmärtävän tekojensa seurauksia. Tuntoisia olentoja halutaan suojella rangaistuksilta, joita ne eivät ole ansainneet.

Tekoäly sen sijaan ei koe kärsimystä. Siksi Kurki ei myöntäisi sille ainakaan perusoikeuksia. Sen sijaan vastuussa olevana toimijana sitä voisi joissain olosuhteissa pitää.

VIRO OMALLE TIELLEEN

Oikeustieteen tutkijatohtori Beata Mäihäniemi on selvittänyt, miten eri maissa suhtaudutaan tekoälyn sääntelyyn. Useimmissa maissa pyritään teknologianeutraaliuteen. Viro on kuitenkin valinnut erilaisen tien.

— Virossa suunnitellaan erillistä lakia, jossa tekoälylle annettaisiin erillinen oikeudellinen asema. Se tarkoittaa oikeuksia ja vastuuta, Mäihäniemi kertoo.

Tavallisempaa on kuitenkin pyrkiä valvomaan tekoälyn käyttöä muuttamalla hallintolakia. EU:n tasolla kehitellään pehmeää sääntelyä ja eettisiä ohjeita tekoälyn hyödyntämiselle ja tuotevastuuohjeita teollisuudelle.

Mäihäniemi ei jättäisi tekoälyn haltuun päätöksiä, joihin sisältyy harkintaa. Myös ennakoivat algoritmit voivat kaivautua liian syvälle ihmisten yksityisyyteen.

Espoossa kokeiltiin algoritmia, joka ennusti lapsen todennäköisyyttä joutua lastensuojelun asiakkaaksi. Mäihäniemen mielestä sen käyttöön liittyy eettisiä ongelmia, vaikka ihmiset suostuisivatkin siihen ja saisivat siitä hyötyä.

SYRJIVÄ TEKOÄLY

EU:n tietosuoja-asetuksen periaatteet toimivat sääntöinä sille, miten dataa saa käyttää. Toisaalta tietosuojasta ei ole apua, jos luovuttaa datansa vapaaehtoisesti työtä tai asuntoa hakiessaan.

Viranomaispäätöksissä on kyse julkisen vallan käytöstä, joten niitä tulisi säännellä tiukasti. Yksityisellä puolella on väljempää. Jotkut yritykset käyttävät tekoälyä syrjivästi myöntäessään vaikkapa vakuutuksia ja lainoja.

— Se on jopa pelottavaa, Mäihäniemi toteaa.

Hänen mielestään lainsäädännön pitäisi määrätä yritykset paljastamaan ainakin pyynnöstä, mitä dataa on käytetty ja millä painotuksilla.

MÄTÄÄ DATAA

Koneoppivaan tekoälyyn liittyy myös huoli datan laadusta. Käyttäessään aiempien tapausten ratkaisuja oppimiseen se toistaa mahdollisia ihmispäättäjien erheitä.

— Vaarana on, että vinoumat tulevat koodattua järjestelmiin ja sementoitua algoritmeihin, eikä niistä enää olla tietoisia, Raul Hakli sanoo.

Yhdysvalloissa käytetty Compas-tekoäly arvioi rikoksen uusimisriskiä ja päättää, päästetäänkö syytettyjä ehdonalaiseen odottamaan tuomiotaan. Tekoäly passitti mustat valkoisia useammin vankilaan, vaikka se ei saanut käyttää ihonväriä päätöksen perustana.

— Datasta pitäisi siivota syrjivät elementit, mutta se on vaikeaa, koska ne voivat korreloida muiden muuttujien kanssa, Hakli toteaa.

Ranskan perustuslakineuvosto on lähtenyt siitä, että algoritmin päätökset täytyy pystyä purkamaan ihmiselle ymmärrettäviksi tai muuten niitä ei saa käyttää. Koneoppivan tekoälyn kohdalla tämä on vaikeaa.

— Ongelman voisi ratkaista määräämällä algoritmiä kertomaan, minkä asioiden olisi pitänyt olla toisin, jotta päätös olisi erilainen, Visa Kurki sanoo.

IHMISARVOA EI SAA LOUKATA

Koneoppimisen ytimessä ovat tavoitteet. Järjestelmä voi keksiä yllättäviä tapoja päästä tavoitteeseensa.

— Täytyy miettiä tarkoin, mitä kehitetään, minkä käyttöön suostutaan ja millaisessa maailmassa haluamme elää, Hakli sanoo.

Automaation lisääntyminen vaikuttaa arjessa monin tavoin. Taidot, joita ei käytetä, surkastuvat. Se näkyy muistissa, suunnistustaidoissa ja sosiaalisissa taidoissa. Olemme riippuvaisia teknologiasta.

Ihmisen ja tekoälyn suhteen perustana pitäisi olla ihmisarvon loukkaamattomuus.

— On turvattava ihmisen vapaudet ja paikka oikeusjärjestelmässä, Tuomas Pöysti tähdentää.

Sen ei pitäisi olla mahdotonta. Vastuu siitä, miten tekoälyä käytämme, on viime kädessä ihmisen.