Robotille ei sallita virheitä hengenpelastajana

Halutaanko robotin pelastavan mahdollisimman monta ihmistä vai yhden, joka sen ansaitsee?

Michael Laakasuon johtama Moralities of Intelligent Machines-tutkimusryhmä tutkii ihmisten moraalisia näkemyksiä kuvitteellisista hengenpelastustilanteista, joissa hengenpelastaja on joko ihminen tai tehtävään erityisesti suunniteltu robotti. Tilanteissa hengenpelastaja joutuu päättämään, pelastaako esimerkiksi yksi veneilyonnettomuuden viaton uhri vai kaksi ihmistä, jotka omalla vastuuttomuudellaan aiheuttivat onnettomuuden. 

– Tässä asetetaan vastakkain pelastettujen ihmishenkien määrä ja syyttömien asettaminen etusijalle, kertoo tutkimuksen pääkirjoittaja Jukka Sundvall.

Tutkimuksen tavoite oli kerätä tietoa siitä, mitä tekijöitä ihmiset painottavat moraalisissa arvioissaan vaikeista päätöksentekotilanteista, ja muuttuuko painotus, jos päätöksenteko on annettu robotille. Toisin sanoen, toivotaanko robottipelastajan noudattavan eri tärkeysjärjestystä kuin ihmisen? 

Pelastettavien syyttömyys tärkeämpi kuin pelastettavien määrä 

Tutkimusten tärkein löydös oli se, että tutkimuksessa mukana olleet vastaajat (N = 3752) sekä Ylen kanssa toteutetun populaarin kyselyn (N= 19 000)  vastaajat painottivat pelastettavien syyttömyyttä onnettomuustilanteessa enemmän kuin pelastettavien määrää: ihmisten mielestä oli yleisesti parempi pelastaa yksi viaton ihminen kuin kaksi onnettomuuden aiheuttanutta, oli pelastaja sitten ihminen tai robotti. Vastaajat halusivat pelastajan maksimoivan pelastettujen ihmishenkien määrän ainoastaan tilanteissa, joissa kaikki onnettomuuden osapuolet olivat yhtä syyllisiä tai syyttömiä. 

Toinen löydös oli se, että tämä painotus korostui robottien kohdalla: jos pelastaja päätti maksimoida pelastettujen määrän pelastamalla onnettomuuden aiheuttaneet, päätös tuomittiin jyrkemmin robottipelastajien kuin ihmispelastajien kohdalla.

Robottia arvioidaan ihmistä kriittisemmin 

– Tulosten pohjalta näyttää siltä, että robottien päätöksiä arvioidaan tiukemmilla moraalisilla kriteereillä, Michael Laakasuo sanoo.

– Robotteihin ja ihmisiin kohdistuu samansuuntaisia moraalisia odotuksia, mutta robotin odotetaan kykenevän vastaamaan näihin odotuksiin paremmin kuin ihmisen. 

Yksi mahdollinen syy tälle on, että ihmiset toivovat automatisoidun päätöksenteon olevan “oikeassa” paljon ihmisiä useammin. Jos näin ei käy, herää kysymys siitä, mitä tarkoitusta automatisointi palvelee. 

–Ehkä ihmisten huonot moraaliset päätökset voidaan nähdä ymmärrettävinä yksittäistapauksina, mutta robotin kohdalla merkkeinä virheistä ohjelmoinnissa, Sundvall pohtii.

Tarkastelussa asenteet uutta teknologiaa kohtaan 

Käytännön tasolla tiukemmat moraaliset kriteerit voivat johtaa korostetun kielteisiin reaktioihin tosielämän tilanteissa, joissa automatisoitu päätöksenteko johtaa kansalaisten näkökulmasta moraalisesti huonoihin lopputuloksiin. Korkeat odotukset saattavat vaikeuttaa automatisoidun päätöksenteon käyttöönottoa. Aina ei ole etukäteen selvää, mitä suuri yleisö pitää missäkin tilanteessa moraalisesti huonompana vaihtoehtona, saati millainen määrä moraalisesti huonompia lopputuloksia on “sallittava määrä virheitä”. 
 
Tutkimus on osa moraalipsykologian ja ihminen ja teknologia-alojen kokonaisuutta, ja sen tarkoituksena on laajentaa ymmärrystä moraalisesta ajattelusta ja asenteista uusia teknologioita kohtaan.

Sundvallin mukaan tutkimus on tärkeä, sillä juuri nyt tekoälyjen ja robotiikan kehitys on ajankohtaista. 

– Mahdollisuudet automatisoituun päätöksentekoon eri yhteiskunnan osa-alueilla kasvavat, ja on hyödyllistä yrittää ennakoida tähän liittyviä ongelmia, Sundvall toteaa. 

Tutkimusartikkeli Innocence over utilitarianism: Heightened moral standards for robots in rescue dilemmas on julkaistu arvostetussa tiedejulkaisussa European Journal of Social Psychology. 

Tutkimusartikkelin kirjoittajat: Jukka Sundvall, Marianna Drosinou, Mika Koverola, Jussi Palomäki, Michael Laakasuo et al.  

Tutkimusta on rahoittanut Suomen Akatemia, Jane ja Aatos Erkon säätiö ja Weisell-säätiö.