[musiikkia]
Rönkä: Anna-Mari Rusanen, mikä on sellanen juttu, jota joka ikisen ihmisen kannattais just nyt ajatella tekoälystä?
Rusanen: Kannattais ehkä ajatella sitä, että minkälaista on se teknologia, minkä sä haluat osaks sun jokapäivästä elämääs. Haluut sä, et se on semmosta, joka päättää asioita sun puolesta, kertoo sulle mitä valintoja sä teet tai mitä kohti sun elämäs lähtee menemään? Vai haluutko sä semmosta teknologiaa, joka ehkä tukee sua ja auttaa sua, mut sallii sulle itselle sen aidon valinnan vapauden?
[musiikkia]
Rönkä: Kuuntelet Helsingin yliopiston Utelias mieli -podcastia, joka puhuu tieteestä tunteella.
[musiikkia]
Rönkä: Tässä podcastissa tutkija saa puhua juuri siitä, mikä nyt on kiinnostavaa ja tärkeää. Vieraana on tänään filosofian tohtori, kognitiotieteilijä ja Ethics of AI -kurssin vetäjä Anna-Mari Rusanen Helsingin yliopistosta. Moi!
Rusanen: Moikka!
Rönkä: Mä oon Reetta Rönkä, tän podcastin juontaja.
[musiikkia]
Rönkä: Anna-Mari, sun kanssa me puhutaan tänään siis siitä, miten algoritmien ja tekoälyn nopeassa kehityksessä tulis pohtia myös niiden eettisyyttä ja etiikkaa. Tän podcastin nimi on Utelias mieli. Millaset asiat herättää sun uteliaisuuden?
Rusanen: No, mun uteliaisuuden herättää semmoset asiat, joissa käsitteet on epäselviä ja ei oo ihan selvää se, että mikä se itse ongelma on. Et se on perinteisesti ollu se tavallaan tilanne, missä mun alani edustajat eli filosofit on olleet niitä tahoja, jotka on olleet ikään ku omalla työmaallaan.
Rönkä: Sä oot siis kognitiotieteilijä ja filosofi. Mihin filosofiaa oikein tarvitaan tekoälytutkimuksessa?
Rusanen: No, tä on tavallaan hirveen mielenkiintonen kysymys. Sillon alussa, kun tekoälyä lähettiin ylipäänsä 1950-luvulla varsinaisesti kehittämään, ni filosofit oli sillon siel jo mukana. Tavallaan se heidän tehtävänsä oli just jäsentää niit semmosii arkikäsitteitä niinku ajattelu tai ongelmanratkasu tai käsitteellinen ajattelu ja tän tyyppiset.
Nyt tietyst nää samat asiat tekoälytutkimukses yhä edelleen ne on semmosii niinku käsitteitä, joita ei tunneta eikä ihan tarkasti ymmärretä, et mitä me esimerkiks tarkotetaan sillon, jos me sanotaan, että me haluttas luoda koneita, jotka ajattelevat. Niin mitä me nyt oikein sillon sit loppujen lopuks haluttais? Tä on semmost niinku ei kenenkään tavallaan luonnontieteilijän tai kokeellisen tutkimuksen tekijän tai tietojenkäsittelytieteen aluetta, jossa edelleen on niit aitoi käsitteellisii ongelmia. Tä on yks puoli sitä, et miten filosofia tällä hetkellä siel näkyy.
Toinen puoli on sit se, että nyt, kun joku teknologia niinku nyt täs tapaukses nää älykkäät teknologiat, et ku ne on tullu mukaan tänne meidän yhteiskuntaan monella eri tavalla, ne on tietys mieles jotenki aika vahvasti ravistellu sitä maailmaa, mis me eletään nyt tän viimisen viiden, ehkä seittemän vuoden aikana. Niin sit on tavallaan jouduttu semmoseen tilanteeseen, et huomataan, et nyt on tapahtunu isoja muutoksia, ja me ei ihan tarkkaan ymmärretä sitä, et mitkä kaikki asiat on muuttuneet ja millä tavalla. Sitä kautta sit herää se toisentyyppisen filosofian tarve, joka liittyy siis siihen, et jäsennetään nyt sit sitä yhteiskunnallista muutosta ja sitä tavallaan ehkä jossain määrin meidän arkipäiväiseen elämään liittyvää muutosta monella ei tasolla.
Sit tietyst on se iso semmonen näkymätön muutos, joka ei ehkä sit siel arkipäivän tasolla niin selkeesti näy. Mut et mä oon nyt muutaman vuoden ollu tuol valtionhallinnos keikalla töissä lainassa valtiovarainministeriössä. Nimenomaan tekoälytutkimuksen asiantuntijana. Ku näkee sen sit sieltä ikään ku lainsäätäjien ja tavallaan hallintoihmisten näkökulmast sen muutoksen, semmosen niinku hallinnollisen ylätason ja sen hirveen monimutkasen järjestelmän, jolla esimerkiks vaikka Suomen tapasta valtiota johdetaan. Ja se että kuinka suurii ja valtavii ne muutokset on sillon, ku joku teknologia tulee ja ravistelee oikeestaan niitä kaikkia käytäntöjä, mitä on aikasemmin ollu ja muuttaa sielt semmosii peruspalikoita. Niin siel on myös semmonen tosi vaikeesti hahmotettava tavallaan hallintoon ja organisaatioihin ja järjestelmiin liittyvä taso, joka on must ihan siis järjettömän, järjettömän jotenki vaikeesti hahmotettava.
Mut et siis mun näkemyksen mukaan filosofeja tällä hetkel tarvitaan teknologiatutkimukses niin siel itse tutkimuksessa kuin nyt sit myös näissä oheis- ja sivuilmiöissä, joita tähän teknologiseen muutokseen liittyy.
Rönkä: Ennen ku sukelletaan vielä syvemmälle päivän teemaan, niin otetaan sellanen ihan lyhyt oppimäärä. Mistä me itse asias puhutaan, kun me puhutaan tekoälystä ja algoritmeista? Miten me ne nyt määritellään?
Rusanen: No, algoritmi ihan lyhykäisyydessään tarkottaa, siis se on tämmönen toimintaohje, sääntö. Se on matemaattinen käsite, jolla kuvataan sitä, että minkälaisilla säännöillä sä voit jonkun tietyn ongelman ratkasta. Lisäks sit se algoritmin ne säännöt itsessään oikeestaan määrittelee sit, et mikä se ongelma on. Se on siis käytännös ohje, jonkun asian tekemiselle. Sit sille vaan annetaan semmonen matemaattinen kuvaustapa sillon, ku sit tietojenkäsittelytieteilijät sen kaa on tekemisissä, ja sit ne rakentaan ne koodit, jotka tavallaan noudattaa sen matemaattisen ohjeen tai kuvauksen rakennetta.
Mut sit tietysti, jos me ajatellaan sitä, et miten normaalit ihmiset puhuu tekoälystä, et me ajatellaan, et se tekoäly on jotain kauheen ihmeellistä ja mystistä. Se on nyt se superäly, joka kohta itse ohjaa niit autonomisii ajoneuvoja tai jotenki voittaa meidät kaikissa mahdollisissa peleissä ja on älykkäämpi ku me ja kaikin puolin jotenkin uhkaava ja pelottava ja millon mitäkin. Mut et nyt nää nykyset tekoälyjärjestelmät ei oikeestaan edes niinku oo varsinaisesti vielä tekoälyjärjestelmiä missään sanan varsinaises merkityksessä. Et ne on tietokoneohjelmistoja.
[musiikkia]
Rönkä: Tässä podcastissa tutkijat saavat valita keskustelun aiheen ja teemaan. Anna-Mari, sä haluat tänään puhua siitä, miten esimerkiks tekoälyä kehittäessä pitäisi miettiä myös etiikkaa ja eettistä puolta. Puhutaan erityisesti siitä, miten tekoäly ja algoritmit näyttäytyy nykyaikaisissa sovelluksissa, esimerkiks sosiaalisen median alustoilla, ja mitä niistä oikein tulis ymmärtää.
Anna-Mari, sä vedät Helsingin yliopistossa Ethics of AI -kurssia, joka on siis tekoälyn etiikkaan keskittyvä kokonaisuus. Se on hyvin suositun Elements of AI -kurssin jatko-osa. Mihin tarvittiin tällanen jatkokurssi, joka keskittyy just etiikkaan?
Rusanen: No, siis se tarve oikeestaan sille kurssille synty osittain siitä, et hyvin nopeesti Elementsin jälkeen kaiketi huomattiin, et on hirvee tarve myös lisätä semmost niinku tekoälyn tavallaan eettistä lukutaitoa. Et se ei riitä, et me ymmärretään tavallaan ne tekoälyn peruselementit, et mikä on koodi tai mikä on algoritmi tai mitä tarkottaa ohjelmoitu oppiminen, vaan et vähintään yhtä tärkeetä on ymmärtää se, et millä tavalla se teknologia, joka nyt yleistyy koko ajan, niin millä tavalla se vaikuttaa siihen yhteiskuntaan ja ympäristöön, jossa me eletään. Siin on semmonen selkee koulutuksellinen tarve sekä korkeakoulujen puolel et varsinki nyt sit tavallaan suuren yleisön kohdalla.
Monta kertaa TEK-alojen opiskelijoilla se semmonen yhteiskunnallisten ilmiöiden koulutus jää tosi vähäiseks, ja sit tulee hirveenä yllätyksenä se, että ne laitteet ja teknologia, mitä ollaan opiskeltu rakentamaan tai minkä asiantuntijoita ollaan, et sit siihen liittyy valtavat, valtavat yhteiskunnalliset seuraukset. Et tää niinku tavallaan TEK-puolen koulutuksen tasapainottaminen näil yhteiskunnallisil kysymyksil on se yks tekijä.
Toinen puoli on sit se, että tällä hetkellä on myös tarve opettaa tai käydä läpi sitä osaa tekoälykehityksestä, jossa tavallaan yksilöidään, et mitkä teknologian yksityiskohdat on eettisesti merkityksellisii. Esimerkiks jos ajattelee valtiohallintoo, ni siel hyvin monel on hirveen vahva yhteiskuntatieteellinen tai valtio-opillinen tai taloustieteellinen tausta. Ymmärretään hirveen hyvin, et mitä on hyvä yhteiskunta tai millä tavalla vaikka julkisen sektorin palvelut pitää järjestää. Mut sit ku se tekoäly tulee mukaan, ni heilt puuttuu se osaaminen siitä, et no mitkä siel tekoälys on ne jutut, jotka jollain taval vaikuttaa nyt siihen, et miten meidän pitäis vaikka ne palvelut järjestää tai mitä se hyvä yhteiskunta sen teknologian kans tarkottaa.
Et täl kurssil oli tavallaan semmonen kaks keskeistä painopistettä tai kaks keskeist syytä, et miks se synty. Toinen on se, että TEK-puolen ihmiset tarvitsee sitä koulutusta ja enemmän yhteiskunnallisist vaikutuksista. Toinen syy oli sit se, että sit yhteiskunnallisen puolen ihmiset tarvii enemmän koulutusta niistä teknologian erityiskysymyksist, joista se moraalisesti tavallaan merkittävät kysymykset nousee tai mihin ne liittyy.
Rönkä: Tälle on selvästi yhteiskunnassa just kuten kuvaat on laajasti tarvetta, mikä on sinänsä, on must yhtä aikaa tosi kiinnostavaa ajatella ja puhua tekoälystä, koska siihen liittyy kuitenkin yhä, siihen liittyy jotain tiettyä mystiikkaa aika paljon, joka voi ehkä osittain tulla just siitä tietämättömyydestä sen kaikista eri puolista. Sit samaan aikaan, vaikka se on jollain tavalla mystinen, niin se on läsnä jo meidän arjessa, se on läsnä jo meidän yhteiskunnassa ja vaikka monissa eri ammattiryhmissä. Missä kaikkialla, jos mietitään ihan konkreettisia esimerkkejä, niin tekoälyä nyt jo yhteiskunnassa näkyy?
Rusanen: No, kylhän se nyt näkyy jo tällä hetkel ihan kaikkialla. Se näkyy käytännössä siis syntymästä hautaan, sillä akselilla. Käytännös ihmisen elämän kaikki eri osa-alueet on enemmän tai vähemmän sidoksissa siihen teknologiaan joko sil taval, et me ollaan sen teknologian käyttäjiä, eli meil on tietokoneita tai puhelimia tai jotain muuta tämmöst teknologiaa, joissa näit algoritmei hyödynnetään ihan suoraan. Tai sit silt taval, et me ollaan sen niitten teknologioiden käytön kohteita. Esimerkiks sil tavalla, että meidän vaikka asiakirjat Kelassa käsitellään ohjelmalla, joka hyödyntää jotain algoritmia tai koneoppimismallia tai verottaja tekee verotuspäätökset automaattisesti tai jotakin meidän tietoja analysoidaan vaikka Helsingin kaupungin terveysjärjestelmissä sil taval, et siel pohjalla on jotain data-analytiikkaa tai jossain määrin nyt jotain koneoppimisalgoritmeja.
Rönkä: No, onks sun mielestä tekoälyn ymmärtäminen nyt sit jo jonkinlainen jokamiestaito tai osa yleissivistystä?
Rusanen: Kyl se pikkuhiljaa niin teknologiakeskeises maassa ku Suomi, niin tavallaan pitkälle teknologisoituneessa maassa ku Suomi, ni kyl se alkaa meil olla. On vaikee tavallaan ajatella sil tavalla, että sä pystyisist ihan täyteen tai niinku sanan varsinaises merkitykses olemaan kansalainen, jol on tietyt kansalaisen perusoikeudet ja kansalaisuuden semmoset kriteerit, jollet sä ymmärrä sitä, et millä tavalla se teknologia vaikuttaa siihen, kuinka sitä sun kansalaisuuttas sä pystyt täs maassa toteuttaa. Tietyst nyt, ku maapallol on kuitenki aika suuret polarisaatio-ongelmat ja näis pitkälle kehittyneis länsimaissa se teknologian kehitys on aika paljon pidemmällä ku monessa muussa paikassa, niin tä ei nyt viel oo semmonen, et voitais sanoo, et kaikkialla maailmassa nyt se on jokamiehen perustaito. Mut et jossain vaihees joo, näin mä luulisin.
Rönkä: Tää on must jotenki ihan hirveen kiinnostavaa myös tavallaan tää tämmönen, ku puhutaan kuitenkin aika uudesta kehittyvästä asiasta ylipäätään niinku teknologian kehityksestä, joka just jotenkin menee koko ajan eteenpäin, jossa on ehkä vaikee odottaa sellast hetkee, et no niin nyt tä ois loppu ja nyt me voidaan kaikki tarkastella tätä asiaa jotenkin monta vuotta ja pohtia, koska se kehityshän koko ajan on käynnissä tässä samalla ja taustalla. Niin jotenkin tässä pohtia sitä, että tavallaan missä menee sen tarvittavan tiedon raja. Jotenkin, et mikä sun mielestä on just jotenkin semmonen riittävä ymmärrys, joka joka ikisellä jepellä ammattiryhmästä tai taustasta riippumatta pitäisi olla, jotta just voi olla tämmönen täyspainonen kansalainen. Mikä taas on sellasta osaamista tai tietämystä tekoälystä, joka on erityisesti siihen perehtyneen asiantuntijan tavallaan alaa? Saat sä kiinni, mitä mä haen niinku et?
Rusanen: Joo joo, saan. Toi on hirveen hankala kysymys sen takia, että jos mä vastaisin siihen vaikka sanomal sil taval, et ne on se on riittävää, et sä jollain tavalla hahmotat, miten se teknologia suhun vaikuttaa, tai että se on riittävä ymmärrys, et sä suurin piirtein nyt hahmotat, että millon sä oot sen teknologian herra tai millon sä oot sen teknologian orja, niin nä on sit semmosia asioita, et sit todellisuudessa niitten osaaminen vaatiiki sitä hirvittävän syvällistä tietojenkäsittelytieteellist osaamista.
Tä on mun mielest semmonen alue, jossa joka ei oo viel täysin selkeetä, että mikä tulee olemaan se riittävä. Se on ihan selvä asia, että voidakses olla kansalainen tulevaisuuden yhteiskunnas sun ei tarvitse itse osata koodata eikä sun tarvitse olla tietojenkäsittelytieteilijä, mut enemmänki se menee niin päin, et mikä on se minimitaso, jota valtion pitää esimerkiks sit koulutuksen kautta, esimerkiks peruskoulutuksessa tai myöhemmin jatko-opinnoissa ihmisille tulevaisuudes tarjota. Et jos se on kansalaistaito, ni sillon jollain tasolla valtion pitää pitää huoli siitä, et ihmiset pysyy kaikki kärryillä mukana eikä niin päin, että yksilöitten pitää jotenkin kouluttaa itsestään jotain spesialistei.
Mut siis must toi on kauheen hankala kysymys siis osittain myös siks, et se teknologia muuttuu koko ajan ja sovelluksii tulee koko ajan lisää ja jotenkin se kenttä elää nyt niin vahvasti tällä hetkellä. Ihan niinku jotenkin tuntu mahdottomalt sanoo, et no niin et nyt tehään semmonen tekoälyn opetussuunnitelma joka ikiselle kansalaiselle. Et ei sitä oikein tällä hetkellä.
Rönkä: Niin semmonen, et hakataan se johonki kivitauluun ja sit se pysyy ikuisena.
Rusanen: Niin just. Kymmenen käskyä.
Rönkä: Kyllä.
Rusanen: Niin.
Rönkä: Loppuelämämme.
Rusanen: Joo.
Rönkä: Tulevat sukupolvet.
[musiikkia]
Rönkä: Tämä on Utelias mieli -podcast, joka puhuu tieteestä tunteella.
[musiikkia]
Rönkä: Tänään me puhutaan erityisesti eettisyydestä, mut mitä oikeestaan tarkottaa tekoälyn eettisyys ja kenen eettisyydestä me esimerkiks sillon puhutaan. Siis puhutaanko me ihmisten eettisyydestä vai tietokoneohjelman eettisyydestä?
Rusanen: Taas joutuu alottaa sanomalla, et tää on hirveen hankala kysymys. Mut siis, no lyhyesti me ei puhuta tietokoneiden eettisyydestä. Tällä hetkel ne ei oo niin pitkälle kehittyineit, et se ois mielekäst puhuu siitä, että ne jotenkin asettavat itsellensä moraalisia arvoja tai edes niinku jotenkin tietosesti noudattaa niitä. Et se ei oo niin pitkällä. Mut sit kysymys on kyl ihmisten etiikasta. Mut sit se niinku tähän asti kaikki on ihan sillai helposti vastattavissa. Mut tän jälkeen sit alkaaki se vaikeempi osuus. Siis se, että mistä se, missä kohtaa se ikään kuin moraalisuus tai ne eettiset näkökulmat kiinnittyy sinne teknologiaan mukaan.
Tä on hirveän hankala kysymys ja siit on todella runsaasti eriävii mielipiteit tällä hetkellä. Et se liittyy siis siihen, että jos me ajatellaan nyt jotain tietokoneohjelmistoa ja aletaan keskustelee siitä, siitä sen eettisyydestä, niin voidaaks me ajatella sil taval, et se joku algoritmi tai sovellus tai ehkä se kokonainen ohjelma, et onks ne jo jotenkin moraalisesti merkityksellisiä olioita, jonkunlaisia asioita, joilla olis jotain moraalisii seurauksia tai jotka ois jotenki arvosidonnaisia. Vai tuleeks se arvosidonnaisuus tai moraalisuus sielt jostain käytöstä? Mut jos se tulee siit käytöstä, niin millä tavalla se käyttö tavallaan sit kiinnittää ne moraaliset kysymykset niihin teknologioihin.
Et kuitenkin osa, niinku me voidaan käyttää samaa teknologiaa sekä hyvään et pahaan. Se ei jotenkin liity sii-, välttämättä aina riipu siit itse teknologiasta sinänsä. Mut nä on semmosii, jois joutuu aina jotenki ottaa sen jonkun tietyn esimerkin ja vähän kattoo sitä sielt esimerkin kautta, että miten se merkityksellisyys sinne sit rakentuu tai moraalinen merkityksellisyys.
Rönkä: No, otetaan heti yks esimerkki, koska esimerkiks viime vuosien aikana on noussut kasvava huoli siitä, miten vaikka somealustojen algoritmit muokkaa ihmisten käytöstä ja esimerkiks koukuttaa somettamaan lisää, käyttämään sitä yhtä ja tiettyä somealustaa. Onks sun mielest tällasia algoritmeja käyttävät somealustat, ni onks ne epäeettisiä?
Rusanen: No, niitten somealustojen kohdal tietysti voidaan nostaa se kysymys siitä, että toimiiks ne epäeettisesti vaiko ei. Tietysti siinäkin on sit aste-eroja, et jos kyse on sanotaan nyt vaikka alaikäisistä lapsista ja jostakin tämmösest lapsille suunnatust palvelust, TikTok, YouTube, mitä näit nyt on, joissa käytetään samoja algoritmeja, joita käytetään aikuisten järjestelmissä, joissa ainoo motivaatio on saada se lapsi viettämään mahdollisimman paljon aikaa sen palvelun parissa. Niin kyl mun mielest sillon aidosti voidaan kysyä, et onks tää nyt oikeesti se tapa, jolla me halutaan antaa, et nä teknologiajätit toimintaansa pyörittää.
Mut sit se toinen puoli sitä kysymyst on sit se, että onks se nyt sit niinku se teknologiajätti ja tää tietty ikään ku konteksti, vaikka ne lapset, vai onks se teknologia itsessään jotenkin tuomittavaa. Täs tulee nyt just sit se hankaluus. Et nyt periaattees se sama algoritmi, joka pyörii siellä lapsen TikTokissa tai siel jossain Facebookin uumenissa ja koukuttaa meitä katsomaan jotakin sisältöö tavallaan, joka me ollaan valmiit tuomitsemaan, et se on semmost algoritmist manipulaatiota tai käyttäytymisen ohjailemista, ni sit se sama algoritmi voi kuitenkin sit olla todella hyvä jossain vaikka oppimista tukevassa järjestelmässä, jolla tuetaan sit jotain esimerkiks henkilöö, jolla on jotakin oppimisvaikeuksia tai jotakin vammoja tai muita oppimisen esteitä. Täs nyt siis näkyy se, että ne algoritmit, kun ne on siis semmosia, et sä voit käyttää niit useeseen eri tarkotukseen, ni se ei välttämät oo se manipulaatioalgoritmi itsessään, joka tekee sen ongelman, vaan se ongelma voi syntyy sit siitä, et se on nyt nimenomaan se teknologiajätti, joka oman markkinalogiikkansa nojalla toimii just niinku teknologiajätit on perinteisesti aina toiminu. Mut sit et sillonhan tässä ei oo oikeestaan enää kysymys enää algoritmin eettisist ongelmista vaan kyse niist ihan samoist eettisist ongelmist ku aina aikasemminki.
Rönkä: Niin, tä on must jotenkin ihan tosi kiinnostava ja hyvä pointti, jota must harvemmin jotenkin tulee esiin. Siis tää ajatus siitä, että algoritmeja voidaan käyttää erilaisilla tavoilla, ja tavallaan et palataan vähän niinku tähän kysymykseen siitä, et mikä ylipäätään on reilua. Miten ylipäätään järjestetään maailmaa tai elämää tai ihmisten toimintaa reilusti? Tää on must jotenki kiinnostava ajatus, että itse asias algoritmeja voitas vaikka hyödyntää siinä, että just vaikka ihmiset, jotka helposti putoavat tavallaan jostain kehityksestä tai jäävät sivuun, niin he tulisivatkin näkyvimmiksi tai näkyvämmiksi tai jotenkin osallisemmiksi.
Mut onks täst esimerkiks mitään hyviä esimerkkejä, et näin ois jonkun algoritmin kautta käynyt tai tätä ois tavallaan käytetty tätä. Mä jotenkin aattelen sen nyt semmosena niinku valomiekkana, et se on se punanen valomiekka on se paha ja sit se vihree valomiekka on se hyvä algoritmi. Onks tätä vihreet valomiekkaa käytetty?
Rusanen: On siis esimerkiks mun mielest monet tämmöset, mitä kutsutaan inklusiiviseks teknologiaks. Eli siis käytännös siis ne on ihan samoja algoritmeja, mut niitä käytetään tuottamaan, sanotaan nyt vaikka vammasille tai oppimisvaikeuksist kärsiville vaikka nyt esimerkiks autisteille tai näkö- tai kuulovammasille, et käytetään tuottamaan tukiteknologiaa. Niist on saatu hirveen hyvii tuloksia.
Must se on tavallaan just se tapa, jolla meidän pitäis se ehkä ajatella yhtä enemmän siit teknologiast. Nyt viime vuosinahan se keskutelu teknologiast ja teknologian etiikast on pääasiallisesti keskittyny siihen, et ennaltaehkäistään riskejä. Et nähdään joka puolel niit hirveit riskejä, yksityisyyden loukkausta, valvontayhteiskuntaa, algoritmist manipulaatiota, deep fakeja, kaikkee mahdollista. Jatkuvasti ikään ku joku uhka. Sit se teknologian kehitys nähdään semmosena, et kehitystä pitää ohjata, että vältetään ne uhat. Mut jos sä ajattelet sitä niin, niin sit sä tuotat tietynlaisii ratkasuja. Mut jos se lähtökohta onkin toinen, just se vihree valomiekka, mist sä puhuit. Et ajatellaan se niin päin, et no hyvä on, et miten mä voin tällä teknologialla esimerkiks tukea yksityisyyden suojaa tai parantaa oppimistuloksia tai tehdä sitä tai tätä. Sit myös ne ratkasut, se teknologia, mitä aletaan tuottamaan, on toisenlaista.
Sen takii mun mielest pitäis sielt semmosest niinku, et kun nyt vastakkain on se, että on tää skifi-fantasialeiri ja sit on dystopialeiri. Sit lopputulos on se, et loppujengi yrittää siit väliltä löytää sen kultasen keskitien. Mut tä on mun mielest väärä freimaus, väärä viitekehys koko sille keskustelulle. Sen pitäis mennä sinne suuntaan, et aletaan puhumaan siitä, et hyvä on, et meil on nyt niinku ollaan kehitetty tämmösii teknologioit, joiden avulla voitais tehdä vaikka mitä. Jos me otetaan nyt se tietty arvopohja sen teknologian kehityksen lähtökohdaks ja lähdetään hakemal hakemaan sitä, että no miten mä tällä esimerkiks pystysin saamaan jotain lisätietoa ilmastonmuutoksesta tai pandemioista tai köyhyysongelmasta tai jotain sen tapasta. Eikä niin päin, et heti ollaan keskittymäs siihen, että kuinka teknologian kehityksestä seuraa köyhyyttä tai millon mitäkin ongelmaa.
Rönkä: Mut kuinka paljon tässä sun äsken kuvaamassa on kyse siitä, että kuka tai ketkä niit teknologioita kehittävät? Koska se ehkä yks niinku kärki tai pihvi siinä tietyssä kritiikissä esimerkiks liittyen siihen, että tavallaan kenelle vaik somealustoja rakennetaan tai kenen näköisiksi niitä tehdään ja ihan ne niinku konkreettiset esimerkit siitä, et miten jotain sovelluksia ois rakennettu hirveen normatiivisiksi tai tavallaan valkoisen miehen lähtökohdista ja siten heitä palvelemaan tai heidän näköistään maailmaa näyttämään. Niin kuinka paljon on jotenkin väliä sillä, että teknologiaa kehittäisivät erilaiset ihmiset eikä just se semmonen niinku dude-osasto?
Rusanen: Tossa oot ihan oikees. Siis täshän on semmonen dynamiikka, et ensin se on ollu se dude-osasto, joka on sanellu sen, et miten tätä teknologiaa kehitetään. Sit se riskeistä huolestunut jengi on sit se vastaisku tälle dude-osastolle. Sit nää kaks keskenään vääntää nyt siitä, että kuinka me luodaan sitä teknologiaa tavallaan, et nää niinku pahimmat mahdolliset riskit ei nyt sit toteutuis.
Mut se on ihan totta. Ja siis nimen omaan pitäis olla niin päin, että sitä tavallaan teknologian kehityksen arvopohjaa ja koko sitä näkymää siitä, että mitä se teknologian kehityksen pitäis olla, pitäis lähtee laajentaa. Myös siis sillä tavalla, et sinne otetaan mukaan erilaiset ihmiset kehittämään sitä teknologiaa erilaisille ihmisille. Ja miksei nyt sit myös tietyst eläimille, että ei me olla ainoita, jotka on tekoälyn käytön kohteena, vaan kyl ne on tulevaisuudes myös eläimet.
Rönkä: Millä tavalla?
Rusanen: No, jos sä ajattelet vaik tulevaisuuden navettoja.
Rönkä: Niin, totta.
Rusanen: Niin ei ne nyt navetat kyl jää yhtään sen algoritmisen kehityksen ulkopuolelle. Eiköhän siel tulevaisuudes oo jotkut älykkäät järjestelmät, jotka esimerkiks hoitaa ruokinnan tai robotiikka, joka hoitaa kaikki nää ylläpitotoimenpiteet ja muut esmes.
Rönkä: Ja sitä kautta taas tavallaan astumme vähän niin kuin uudelle eettisen pohdinnan alueelle. Siis että -.
Rusanen: Se vast onki. Niin.
Rönkä: Et näithän vaan niinku näithän vaan niinku tulee.
Rusanen: No, tätä mä just tarkotan, että miten se, et ne vaan aukee koko ajan lisää. Mut siis se on ihan selvä asia, että algoritmit ja tehomaatalous ja tehokalastus ja myös sit tietysti positiivisuuden kautta ehkä mahdollisesti tulevaisuuden ruokatuotanto. Et kylhän niit nyt on jo niit nyt on jo niit semmosii koetiloja, joissa erilaisella tekoälyohjelmisoilla esimerkiks mallinnetaan jotakin parhaimpia mahdollisii kasvuolosuhteita ja tehdään tämmösii älykkäitä viljelyteknologioita. Et kylhän näit on jo olemassa. Mut siis tätä mä just tarkotan, et ei niinku se putkimies tai maanviljelijä tai edes maanviljelijän lehmä ole enää algoritmien ulottumattomis, et kyl ne on joka puolella.
Rönkä: Mut mitä sä aattelet, onks tällasten mahdollisesti eriarvoistavien tai normatiivisten algoritmien tai sovellusten rakentaminen, niin onks se tiedostettua vai tiedostamatonta?
Rusanen: No, tä on silleen hankala kysymys, et toki on varmasti esimerkkejä siis semmosista algoritmeista, joitten kohdalla se on ihan tiedostettua. Mut sit on myös semmosii rajatapauksia, joitten kohdalla vinoutumat tai tämmönen eriarvoistaminen on tiedostamatonta ja osittain myös riippumatonta siitä itse algoritmin rakentamisesta. Et on tämmösii tilanteita, että tyyppiesimerkki on esimerkiks kuvatunnistus algoritmi, joka alunperin sitä on kehitetty sitä varten, et tutkitaan vaikka kysymystä siitä, että kuinka pienellä datamäärällä se pystyy vaikka tuottamaan toisen samantyyppisen kuvan. Nyt sit tavallaan sivuilmiönä on syntyny semmonen tilanne, että vahingossa tai pelkästään sen tutkittavan ilmiön tavallaan siitä täysin riippumatta se kuvantunnistusjärjestelmä samalla myös tekee jonkun tämmösen vinouman.
Esimerkiks vois ottaa siis tämmösen tyypillisen leluesimerkin, et kuvitellaan, että meil on luokittelualgoritmi, jonka pitäis luokitella kissat kissoiks ja koirat koiriks. Tai kissojen kuvat kissojen kuviksi ja koirien kuvat koirien kuvaks. Ja nyt näitä kissoja olis siellä näissä kuvissa useita eri värejä. Olis valkosia ja harmaita ja raidallisia niin pois päin. Mut et jos tutkijan tarkotus on tutkia sitä, että kuinka se luokittelualgoritmi oppii luokittelemaan ne kissojen kuvat kissojen kuviks ja siin samalla sit vahingos ikään ku täysin tarkotuksetta se luokittelualgoritmi myös muuntaa kaikkien kissojen kuvat valkosten kissojen kuviks. Niin onko tää nyt sit eriarvoistavaa tai merkityksellistä vinoutumista?
Tää on nyt semmonen kysymys, mist tällä hetkellä ihan hirveesti keskustellaan. Tää on semmonen tyypillinen tilanne, joka tulee näis tutkimuksissa, et tutkimuskäytös kehitetään jotain algoritmia ja sit huomataan, et oho, tää tekee sit kaikenlaist muutakin. Mut sit se, että missä kohtaa se kaikenlaista muutakin, mitä se algoritmi tekee, muuttuu jotenki merkitykselliseks meille, et me ollaan valmiit näkemään siinä jotain paheksuttavaa tai jotain tän tapasta, on sit tietyst niinku huomattavasti monimutkasempi kysmys.
[musiikkia]
Rönkä: Anna-Mari, miks just nyt on ihana aika olla kognitiotieteilijä ja filosofi?
Rusanen: No, siis tähän on ihan mahtavaa aikaa, koska nyt kaikki ne ajatuskokeet, mitä on jo tuolt antiikin Kreikast asti tehty siitä, että voi että ku me osattais rakentaa joku laite, joka vähän niinku ajattelis tai tekis jotain itse, niin nythän me eletään sitä aikaa. Et ne ajatuskokeet ja hienot visiot muuttuu vereksi ja lihaks tai siis koneen osiks, muttereiks ja ruuvin pätkiks. Mut silti. Et jotenki semmoset klassiset hienot filosofian ajatuskokeet on muuttumassa insinöörien taidonnäytteiks, niin onhan se ihan järjettömän makeeta elää tätä aikaa läpi. Mut sit myös se, että koko ajan syntyy sit niin paljon sitä uutta tavallaan miettimisen aihetta.
Rönkä: Entä miks just nyt on ihan hirveen kamala aika olla kognitiotietelijä ja filosofi?
Rusanen: No, kognitiotieteen asema on vähän hankala tällä hetkel just nyt tieteiden ja tutkimuksen kentässä. Et se ei oo jotenkin löytäny semmost omaa tavallaan tieteen alan statustaan sil taval, mitä ehkä sillon 50 vuotta sitten, ku kognitiotiede lähti kehittymään niinku, mitä sillon tavallaan toivottiin tai oletettiin, et tapahtus. Kognitiotutkimuksen asema on monessa yliopistossa myös Suomessa vähän heiveröinen ja kaipais semmosta niinku, kaipais vähän enemmän niin sanotusti maata jalkojensa alle.
Rönkä: Jos voisit nyt mennä kaljalle ihan kenen tahansa elävän tai kuolleen tutkijan kanssa, niin kenen kanssa menisit?
Rusanen: Voi apua. Kenen kans? Kenen kuolleen tutkijan kans mä menisin kaljalle? [nauraa]
Rönkä: Tai elävän. Saa olla eläväkin. Tässä ylipäätään se, et kenen kanssa nyt ylipäätään vois just nyt mennä kaljalle, niin se jo tuntuu unelmalliselta.
Rusanen: Mä haluaisin siis, no okei. Mä valitsen nyt tän kuolleen tutkijan. Ehkä Leibniz, joka 1700-luvulla, hän visio sitä, et ois tämmönen universaali yleinen laskukone. Niin kyl mä niinku oishan se makeeta, jos Leibnizin vois tuoda tänne ja kysyä, et oot sä nyt tyytyväinen. Et oliks tää se, mitä sä nyt halusit? Et nytkö on hyvin nää asiat? Et kyl mä haluisin täs tämmöst tuotekehittelyvastuuta kysyä Leibnizilta.
Rönkä: Joisitteko kaljaa?
Rusanen: Ei. Ei kumpikaan, minä tai Leibniz juoda kaljaa, herran tähden.
Rönkä: Mitä te sit joisitte?
Rusanen: Mitäköhän me nyt sit juotas. En mä tiedä, mut ei kaljaa. Se on aivan liian proosallista. Ehkä jotain italialaist punaviinii.
Rönkä: Jos mä haluisin nyt olla trendin aallonharjalla kognitiotietelijöiden piireissä, niin mikä ois semmonen hypesana tai muotitermi, jota mun kannattais nyt käyttää, jotta vaikuttaisin fiksulta ja?
Rusanen: Sun pitäis puhuu prediktiivisest prosessoinnista.
Rönkä: Okei. Prediktiivinen prosessointi.
Rusanen: Joo.
Rönkä: Mitä se tarkottaa?
Rusanen: Siis se on tämmönen bayesiläinen todennäkösyysmatematiikkaan perustuva malli siitä, että kuinka aivot ennustaa tai mikä tahansa tiedonkäsittelyjärjestelmä ennustaa tapahtumia minimoimalla niin sanottua arviointivirhettä. Se on semmonen, sit sä oot tosi inessä, jos se prediktiivinen prosessointi tulee oikees kohassa. Joo.
Rönkä: Pitää lähtee droppailemaan. Anna-Mari Rusanen, kiitos kun olit vieraana Utelias mieli -podcastissa.
Rusanen: [nauraa] Kiitos.
[musiikkia]
Rönkä: Kuuntelit Utelias mieli -podcastia. Löydät sen Apple Podcasteista, Spotifysta ja SoundCloudista.
[musiikkia]