Mitä tekemistä roboteilla on sen kanssa, miten suhtaudumme vanhuuteen?
Esimerkiksi tällaista kysymystä uskonnonfilosofian dosentti, akatemiatutkija Aku Visala on viime aikoina miettinyt. Visala on perehtynyt viimeisimmissä tutkimuksissaan siihen, kuinka robotiikan ja tekoälyn kehittyminen vaikuttavat käsityksiimme ihmisyydestä. Hänen erikoisalaansa ovat kysymykset tietoisuuden ja moraalin evoluutiosta.
Tekoälyn kehittyessä ongelmaksi voi Visalan mukaan muodostua inhimillisen vuorovaikutuksen kaventuminen. Etenkin jos vuorovaikutusta ryhdytään tarkastelemaan lähinnä siitä näkökulmasta, miten teknologiaa voidaan mekaanisesti käyttää korvaamaan ihminen erilaisissa tehtävissä.
Esimerkkinä Visala käyttää vanhustenhoitoa. On moraalinen ja poliittinen kysymys, millaisia yhteiskunnallisia resursseja laitamme vanhusten ihmisarvoiseen kohteluun.
− Sen sijaan, että ottaisimme vanhukset kokonaisvaltaisesti paremmin huomioon, sijoitamme heitä paikkoihin, joissa huolenpitäjinä toimivat ihmisten sijaan robotit.
− Onko ok, jos robotti tunnistaa ihmisen kasvoista, onko hän surullinen tai vihainen ja reagoi sitten tähän vain jollain välittävältä kuulostavalla huokauksella tai sananparrella? Silloin tarjolla on empatian ja välittämisen simulaatiota, ei aitoa välittämistä, Visala sanoo.
Kyseessä eivät ole maailmanlopun uhkakuvat, vaan tutkijan mukaan pikemminkin humanistinen huoli siitä, että tekoälyn ja keinoelämän rajoitukset muuttavat moraalista ihmiskäsitystämme ja arvojamme.
− Haluammeko, että vuorovaikutusta edellyttävät tehtävät ulkoistetaan ihmiseltä olioille, jotka kyllä reagoivat, mutta eivät välitä tai joilla ei ole vastuuta?
Teknologia ei ole moraalisesti neutraalia
Visala pitää arveluttavana myös sitä, että teknologisilla ratkaisuilla korvataan asioita, jotka edellyttäisivät moraalista ponnistelua: jos robotti hoitaa vanhukset, ei lasten tarvitse uhrata uraansa, aikaansa ja rahaansa vanhemmista huolehtimiseen.
− Jos ulkoistamme huolenpidon ja hoivan koneille, riistämme itseltämme ja toisiltamme moraalisen kasvun ja sitoutumisen mahdollisuuden. Lisäksi käsityksemme moraalisesti arvokkaista päämääristä voivat muuttua.
Ajatus ei sinänsä ole uusi. Esimerkiksi ranskalainen filosofi Jacques Ellul pohti jo 1960-luvulla sitä, mitä vaikutuksia on sillä, kun teknologinen, pelkästään hyötyyn tähtäävä ajattelu alkaa ohjata sitä, millaisia asioita pidämme tavoittelemisen arvoisina. Teknologia ei ole moraalisesti neutraalia, vaan voi vaikuttaa siihen, mitä pidämme tärkeänä.
2010-luvulla esimerkiksi sopivat seksirobotit. Sen sijaan että kyseenalaistaisimme ajattelutapaa, että ollakseen rakastettava ihmisen tulee olla kaunis ja seksikäs, pyrimme tarjoamaan teknologian avulla ratkaisuja niille, jotka eivät täytä perinteisiä ulkonäkökriteerejä.
− Ajatus kahden persoonan välisestä vuorovaikutussuhteesta sitoutumisineen ja velvollisuuksineen kapenee tällöin masturbaatioksi seksirobotin kanssa, Visala sanoo.
Mikä on arvokkainta älykkyyttä?
Se, miten teknologia muuttaa inhimillistä vuorovaikutusta, on fiktion klassikkoaiheita. Teema on keskeinen muun muassa vuonna 2017 ilmestyneessä Blade Runner 2049 -elokuvassa.
− Kiinnostavaa on, että elokuvan kaikkein inhimillisimmät hahmot ovat robotteja. Ihmiset ovat tunnekylmiä sosiopaatteja. Tämä johtuu luultavasti siitä, että ihmiset ovat tottuneet kohtelemaan ihmisen kaltaisia olioita kuin roskaa. Sittemmin he ovat alkaneet kohdella toisiansakin kuin roskaa, Visala toteaa.
Näissä visioissa ongelmana ei siis ole, että koneista tulee liiaksi ihmisen kaltaisia, vaan että ihmisistä tulee koneiden kaltaisia – olioita, jotka eivät välitä toisistaan eivätkä osaa suhtautua toisiinsa inhimillisesti.
Entä jos kehitettäisiin sosiaalisesti ja moraalisesti älykäs tekoäly? Olisiko se ylipäänsä mahdollista, ja mikä Visalan mielestä olisi tällaisen robotin asema osana ihmisyhteisöä?
− Tämä riippuu ensinnäkin siitä, mitä pidetään ideaalisena inhimillisenä älykkyytenä. Onko se loogista ongelmanratkaisua, fysikaalista suorituskykyä vai tunteiden tunnistamista?
Jälkimmäinen on haastavinta. Ihminen on vuorovaikutteisuuden kautta määriteltynä moraalinen olio, joka elää kulttuurissa ja jolla on kieli. Ihminen reagoi normatiivisiin odotuksiin ja sääntöihin, jotka ovat näkymättömissä.
− Olisin hyvin vaikuttunut, jos robotti tunnistaisi, että valehtelen sille ja vakuuttaisi minut, ettei valehtelu kannata, koska se on väärin ja sillä on seurauksensa, Visala toteaa.
Kohtele tekno sapiensia kuin homo sapiensia
Visalan mukaan tekoälyyn liittyvillä eettisillä pohdinnoilla ei perinteisesti ole ollut paljon painoarvoa teologian alan tutkimuksessa. Syytä kuitenkin olisi.
− Olemme käyneet aikoinaan joukkotuhoaseiden kehittämisen yhteydessä poliittista ja eettistä keskustelua siitä, miten elämme ja miten näemme itsemme. Nyt olisi tarvetta pohtia samaa, ennen kuin tekoälyä kehitetään ilman yhteisiä pelisääntöjä ja sopimuksia niin pitkälle, että sitä voi käyttää mihin tahansa.
Visalan mielestä robotteja, tekno sapiensia, tulisi kohdella inhimillisesti, mikäli ne ovat toiminnallisesti tarpeeksi homo sapiensin kaltaisia. Inhimillisen, toisen päämäärät huomioonottavan, kohtelun edellytyksinä pidetään usein tietoisuutta ja vapaata tahtoa.
Suurena haasteena kuitenkin on, ettei edes homo sapiensiin liittyvästä ihmiskäsityksestä ole yksimielisyyttä.
− Tutkijoiden kesken ei ole konsensusta siitä, mitä tarkoittaa, että ihmisellä on vapaa tahto ja vastuu tai tietoisuus. Myös se on ratkaisematta, miten moraalisia kysymyksiä tulisi lähestyä: sääntöjen vai seurausten kannalta, Visala kertoo.
Koneen ja ihmisen erottelussa ei kannattaisi vetää rimaa liian korkealle.
− Jos on olemassa olio, joka näyttää toimivan järkevästi ja kykenee moraalisesti itsenäiseen päättelyyn sekä itseohjautuvuuteen, olisi varmuuden vuoksi hyvä kohdella sitä niin kuin kohtelemme toisiamme ihmisinä.
Nykyiset tekoälyt ja robotit ovat vielä kaukana ihmisen suorituskyvystä ja vastuusta erityisesti moraalissa ja itseohjautuvuudessa. Ne eivät kykene olemaan ihmisten moraalisen yhteisön jäseniä. Periaatteessa on kuitenkin mahdollista, että tekoäly kehittyy merkittävästi myös näillä alueilla.
− Meillä ihmisillähän on huono historia siinä, että jos jokin asia ei sovi tuttuna pitämämme piiriin, miellämme sen ali-ihmiseksi. Näin olemme kohdelleet esimerkiksi kehitysvammaisia, Visala toteaa.