Maalla asuva, suomea puhuva mies ei saanut luottoa rakennustarvikkeiden ostoon. Syynä oli se, että hän oli maalla asuva, suomea puhuva mies.
Päätös perustui tilastolliseen pisteytysjärjestelmään, jonka yhdenvertaisuuslautakunta totesi syrjiväksi. Vastaavia järjestelmiä kuitenkin käytetään muuallakin. Jos dataa luokittelee tekoäly, pisteytyksen perusteita ei ymmärrä välttämättä kukaan.
Harvasta asiasta on kohistu viime vuosina yhtä paljon kuin tekoälystä. Se herättää pelkoa ja nostattaa toiveita. Tekoäly on jo täällä, vaikka monet sen käyttöön liittyvät kysymykset ovat vielä ratkaisematta.
Suomi aikoo tekoälyn soveltamisen kärkimaaksi, vakuuttaa
VOI OSUA KEHEN HYVÄNSÄ
Raportin Suomen osuutta oli kirjoittamassa apulaisprofessori
Raportissa käsiteltiin myös
— Tapaus osoittaa, että kuka tahansa voi joutua syrjityksi. Useimmiten luokittelujen kohteena ovat kuitenkin yhteiskunnan vähäosaiset, Ruckenstein toteaa.
VALLANKÄYTÖN VAARAT
Neljän viime vuoden aikana Suomen lainsäädäntö on helpottanut julkishallinnon digitalisaatiota kymmenillä säädöksillä. Tulossa on palveluja, joissa tekoäly arvioi terveystietojen perusteella, onko henkilö syrjäytymisvaarassa. Sitä kaavaillaan käyttöön myös työvoimahallinnossa, maahanmuuttovirastossa ja sähkölaskutietojen hallinnoinnissa.
— Tarkoitus on hyvä, mutta samalla tekoäly antaa työkalun totalitääriseen vallankäyttöön. Suomessa uskotaan, että teknologiasta avautuu taivas. Keskustelu eri näkökulmista on puuttunut, arvioi oikeuskansleri, dosentti Tuomas Pöysti Lakimiesyhdistyksen järjestämässä Oikeus ja digitalisaatio -tilaisuudessa alkuvuodesta.
Tällä hetkellä algoritmit eivät tee päätöksiä itsenäisesti, vaan allekirjoittajaksi tarvitaan ihminen. Tämä vastuunkantaja ei kuitenkaan välttämättä osaa tai ehdi perehtyä asiaan. Esimerkiksi Puolassa huomattiin, että työvoimavirkailijat muuttivat algoritmin ehdotusta alle yhdessä prosentissa tapauksista, AlgorithmWatchin raportti kertoo.
YMMÄRTÄÄKÖ IHMINEN?
Suomessa apulaisoikeusasiamies Maija Sakslin vaati viime vuonna
Sääntöpohjaiset algoritmit perustuvat siihen, että asiantuntijan tietämys koodataan koneeseen. Ohjelmalle annetaan kaikki mahdolliset vaihtoehdot ja opetetaan, miten toimia kussakin tapauksessa. Tällaista tekoälyä on ollut käytössä jo 1980-luvulta, ja sen päätökset ovat jäljitettävissä.
Uudempi koneoppiva tekoäly puolestaan oppii itse valtavien data-aineistojen perusteella. Se tiivistää annetusta datasta sääntöjä ja vertailee uusia tapauksia vanhoihin yrittäen tehdä hyviä päätöksiä aiemman tiedon pohjalta. Logiikkaa voi olla vaikea purkaa muotoon, joka aukeaisi ihmiselle.
VASTUU JA PAKO
Filosofian tutkijatohtori
— Sanotaan, että se nyt vain päätti noin, voi voi.
Hakli ja hänen kollegansa
Moraalinen vastuu edellyttää kontrollia omasta toiminnasta. Tekoälyllä sitä ei ole, koska se on ohjelmoitu ja toteuttaa ohjelmoijansa tavoitteita, ei omiaan. Tekoäly ei myöskään välitä paheksunnasta, kehuista tai kannustuksesta.
IHMISET HITAITA JA TYHMIÄ
Vastuu tekoälyn töppäyksistä voi olla ohjelmoijalla, jos hän on tehnyt virheen, tai käyttäjällä, jos hän on käyttänyt konetta väärin. Se voi olla myös yhteiskunnalla, joka on sallinut laitteen käyttöönoton. Joskus voi olla, että vastuu ei ole kenelläkään, vaan kyse on silkasta onnettomuudesta. Näissä tapauksissa tarvittaisiin vakuutuksia, jotka korvaisivat kulut vahinkoa kärsineille.
Tietojenkäsittelytiedettä opiskellut mutta filosofian pariin siirtynyt Hakli ymmärtää hyvin, miksi tekoälyä halutaan käyttää yhä enemmän. Se on helppoa ja halpaa, tehokasta, tuottavaa, eikä tee inhimillisiä virheitä.
— Me ihmisethän olemme hitaita, laiskoja ja tyhmiä. Kaiken teknologian käyttöönotossa pitäisi silti arvioida, tekeekö se maailmasta paremman paikan.
PELOTE VOISI TOIMIA
Vaikka tekoäly ei voisikaan kantaa moraalista vastuuta, voisiko sen haastaa oikeuteen? Jos voisi ja se todettaisiin syylliseksi, miten sitä rangaistaisiin?
— Perinteisesti rangaistusta on ajateltu esimerkiksi sovituksena tai pelotteena. Sovitus ei merkitse tekoälylle mitään, mutta pelote voisi toimiakin, pohtii oikeustieteen tutkijatohtori
Jos pörssikauppaa käyvän algoritmin tavoite on mahdollisimman suuri voitto, se pyrkii siihen keinolla millä hyvänsä. Jos lainsäätäjä haluaa estää sitä hyödyntämästä sisäpiiritietoja, kannattaa siitä määrätä tuomioksi sakko, joka on määrältään moninkertainen ansaittuun voittoon nähden.
Nykyään pörssialgoritmit ovat pankkien työkaluja, ja pankit ovat vastuussa niiden kaupoista. Joskus kauppoja on peruttukin, kun algoritmit ovat alkaneet toimia oudosti. Yhdysvalloissa on kuitenkin jo pohdittu, voisiko algoritmin eriyttää pankista omaan yhtiöönsä, joka voisi tarvittaessa mennä konkurssiin. Silloin algoritmin päätöksistä ei olisi vastuussa kukaan.
LUONNON OIKEUDET
Visa Kurki haluaisi muuttaa sitä, miten näemme oikeussubjektin käsitteen. Nyt Suomen laki tunnustaa vain luonnolliset henkilöt eli ihmiset ja oikeushenkilöt, jotka ovat yrityksiä tai yhteisöitä.
— Monesti ajatellaan, että vain luonnollisilla henkilöillä ja oikeushenkilöillä olisi oikeuksia. Tosiasiassa niitä ympäröi harmaa alue.
Käsitys oikeuksista ja niiden piiriin kuuluvista on muuttunut vuosien mittaan. Naiset ja orjat saivat täydet oikeudet vähitellen. Lapsia kuullaan oikeuskäsittelyissä nykyään paljon enemmän kuin muutama vuosikymmen sitten. Eläimillä on oikeuksia tulla kohdelluiksi hyvin. Uudessa-Seelannissa oikeussubjektin asema on myönnetty jopa joelle.
HIIRET SYYTETTYINÄ
Myös ajatukset siitä, keitä voi vetää vastuuseen teoistaan, ovat muuttuneet aikojen saatossa. Keskiajalla käytiin kummallisia eläinoikeudenkäyntejä. Kerran Ranskassa haastettiin hiiret oikeuteen viljan syömisestä. Niille oli jopa nimetty asianajaja, jolta tuomari tivasi, miksi syytetyt eivät ole saapuneet paikalle.
Kurki jakaa oikeussubjektit passiivisiin ja aktiivisiin. Passiivisilla on oikeuksia mutta ei velvollisuuksia. Aktiivisilla on molempia ja lisäksi kyky toimia oikeudessa.
Lapsia ja eläimiä ei haasteta oikeuteen, koska heidän ja niiden ei voida olettaa ymmärtävän tekojensa seurauksia. Tuntoisia olentoja halutaan suojella rangaistuksilta, joita ne eivät ole ansainneet.
Tekoäly sen sijaan ei koe kärsimystä. Siksi Kurki ei myöntäisi sille ainakaan perusoikeuksia. Sen sijaan vastuussa olevana toimijana sitä voisi joissain olosuhteissa pitää.
VIRO OMALLE TIELLEEN
Oikeustieteen tutkijatohtori
— Virossa suunnitellaan
Tavallisempaa on kuitenkin pyrkiä valvomaan tekoälyn käyttöä muuttamalla hallintolakia. EU:n tasolla kehitellään pehmeää sääntelyä ja eettisiä ohjeita tekoälyn hyödyntämiselle ja tuotevastuuohjeita teollisuudelle.
Mäihäniemi ei jättäisi tekoälyn haltuun päätöksiä, joihin sisältyy harkintaa. Myös ennakoivat algoritmit voivat kaivautua liian syvälle ihmisten yksityisyyteen.
SYRJIVÄ TEKOÄLY
EU:n tietosuoja-asetuksen periaatteet toimivat sääntöinä sille, miten dataa saa käyttää. Toisaalta tietosuojasta ei ole apua, jos luovuttaa datansa vapaaehtoisesti työtä tai asuntoa hakiessaan.
Viranomaispäätöksissä on kyse julkisen vallan käytöstä, joten niitä tulisi säännellä tiukasti. Yksityisellä puolella on väljempää. Jotkut yritykset käyttävät tekoälyä syrjivästi myöntäessään vaikkapa vakuutuksia ja lainoja.
— Se on jopa pelottavaa, Mäihäniemi toteaa.
Hänen mielestään lainsäädännön pitäisi määrätä yritykset paljastamaan ainakin pyynnöstä, mitä dataa on käytetty ja millä painotuksilla.
MÄTÄÄ DATAA
Koneoppivaan tekoälyyn liittyy myös huoli datan laadusta. Käyttäessään aiempien tapausten ratkaisuja oppimiseen se toistaa mahdollisia ihmispäättäjien erheitä.
— Vaarana on, että vinoumat tulevat koodattua järjestelmiin ja sementoitua algoritmeihin, eikä niistä enää olla tietoisia, Raul Hakli sanoo.
Yhdysvalloissa käytetty
— Datasta pitäisi siivota syrjivät elementit, mutta se on vaikeaa, koska ne voivat korreloida muiden muuttujien kanssa, Hakli toteaa.
Ranskan perustuslakineuvosto on lähtenyt siitä, että algoritmin päätökset täytyy pystyä purkamaan ihmiselle ymmärrettäviksi tai muuten niitä ei saa käyttää. Koneoppivan tekoälyn kohdalla tämä on vaikeaa.
— Ongelman voisi ratkaista määräämällä algoritmiä kertomaan, minkä asioiden olisi pitänyt olla toisin, jotta päätös olisi erilainen, Visa Kurki sanoo.
IHMISARVOA EI SAA LOUKATA
Koneoppimisen ytimessä ovat tavoitteet. Järjestelmä voi keksiä yllättäviä tapoja päästä tavoitteeseensa.
— Täytyy miettiä tarkoin, mitä kehitetään, minkä käyttöön suostutaan ja millaisessa maailmassa haluamme elää, Hakli sanoo.
Automaation lisääntyminen vaikuttaa arjessa monin tavoin. Taidot, joita ei käytetä, surkastuvat. Se näkyy muistissa, suunnistustaidoissa ja sosiaalisissa taidoissa. Olemme riippuvaisia teknologiasta.
Ihmisen ja tekoälyn suhteen perustana pitäisi olla ihmisarvon loukkaamattomuus.
— On turvattava ihmisen vapaudet ja paikka oikeusjärjestelmässä, Tuomas Pöysti tähdentää.
Sen ei pitäisi olla mahdotonta. Vastuu siitä, miten tekoälyä käytämme, on viime kädessä ihmisen.