Kan man ställa artificiell intelligens inför rätta? Nu diskuteras vem som har ansvar för beslut som fattas av artificiell intelligens

På medeltiden kunde till och med djur hamna i rätten. Kommer man i framtiden att ställa artificiell intelligens till svars för sina gärningar?

En finsktalande man som bodde på landet blev inte beviljad kredit för köp av byggmaterial. Det berodde på att han är en man som bor på landet och talar finska.

Beslutet grundade sig på ett statistiskt poängsystem som likabehandlingsnämnden konstaterade vara diskriminerande. Motsvarande system används dock även på andra håll. Om klassificeringen av data sköts av artificiell intelligens, är det inte nödvändigtvis någon som förstår poängsättningskriterierna.

Det är få saker som väckt så mycket uppståndelse de senaste åren som artificiell intelligens. Den ger upphov till rädsla och väcker förhoppningar. AI finns redan här, även om många frågor som gäller dess användning fortfarande är olösta.

Finland siktar på att bli ett av de främsta länderna inom tillämpning av AI, förklarar det nationella programmet för artificiell intelligens. I januari publicerade medborgarorganisationen AlgorithmWatch en rapport som visar att algoritmer redan nu används som stöd vid beslutsfattandet inom EU.

Vem som helst kan drabbas

Biträdande professor Minna Ruckenstein från Centret för konsumentforskning medverkade till den del av rapporten som gällde Finland. Hon anser att vi som medborgare står på en svag grund såväl etiskt, politisk som rättsligt när det gäller AI-relaterade frågor.

I rapporten tog man upp fallet med mannen som ansökte om byggvarukredit. Enligt Ruckenstein är det ett bra exempel på en situation där människan bedöms utifrån statistik i stället för individuella data. Kreditbolagets egna register och kreditregistret saknade uppgifter om mannen som ansökte om kredit för sina nätinköp, så poängsystemet utvärderade honom utifrån ålder, kön, bostadsort och modersmål.

– Fallet visar att vem som helst kan råka ut för diskriminering. Oftast är det dock de mindre bemedlade i samhället som kategoriseras på detta sätt, konstaterar Ruckenstein.

Farorna med maktutövande

Under de senaste fyra åren har lagstiftningen i Finland underlättat digitaliseringen inom offentlig förvaltning med tiotals bestämmelser. Snart kommer det tjänster där artificiell intelligens använder hälsodata för att bedöma huruvida en person riskerar social utslagning. Införandet av AI planeras även inom arbetskraftsförvaltningen, Migrationsverket och hanteringen av elfakturauppgifter.

– Syftet är gott, men samtidigt ger AI ett verktyg för totalitärt maktutövande. I Finland tror man att teknologi öppnar vägen till himmelriket. Det har saknats debatt ur olika synvinklar, bedömde justitiekansler, docent Tuomas Pöysti på evenemanget Juridik och digitalisering som anordnades av Finska Juristföreningen i början av året.

För närvarande fattar algoritmer inga beslut på egen hand, utan det behövs en människa för att underteckna besluten. Den ansvariga har emellertid inte nödvändigtvis kunskap eller tid för att sätta sig in i ärendet. Till exempel i Polen upptäckte man att arbetskraftstjänstemännen bara ändrade algoritmens förslag i under en procent av fallen, framgår det av rapporten från AlgorithmWatch.

Förstår människan?

I Finland krävde biträdande justitieombudsman Maija Sakslin förra året en utredning av Skatteförvaltningens automatiserade beskattningsbeslut. Hon misstänkte att de äventyrar rättssäkerheten och god förvaltning. Skatterådgivarna som besvarade samtal från kunderna kunde inte förklara grunderna för mjukvarurobotens beslut.

Regelbaserade algoritmer grundar sig på att den kunskap som experten har skrivs in i koden. Programmet ges alla möjliga alternativ och lärs hur det ska göra i varje enskilt fall. Sådan artificiell intelligens har använts alltsedan 1980-talet och sina beslut går att spåra.

Den senare maskinlärande AI lär sig däremot själv med hjälp av ett enormt datamaterial. Den finner regler utifrån givna data, jämför nya fall med gamla och försöker fatta rätt beslut utgående från tidigare information. Det kan vara svårt att avkoda denna logik i en form som en människa förstår.

Ansvar och flykt

Enligt forskardoktor i filosofi Raul Hakli är risken att vi flyr vårt ansvar genom att gömma oss bakom artificiell intelligens.

– Vi säger ”oj då, den bara beslutade på det sättet denna gång”.

Hakli och hans kollega Pekka Mäkelä har reflekterat över maskinernas ansvar och publicerat en vetenskaplig artikel i ämnet i tidskriften The Monist. Deras bestämda slutsats är att robotar under inga omständigheter kan hållas ansvariga, oavsett hur deras utveckling ser ut i framtiden.

Moraliskt ansvar förutsätter att man styr över sina egna handlingar. Det är något som AI saknar, eftersom den är programmerad och verkställer programmerarens syften, inte sina egna. Artificiell intelligens bryr sig inte heller om någons ogillande, beröm eller uppmuntran.

Människor är långsamma och dumma

Ansvaret för AI:s misstag kan ligga hos programmeraren, om det är hen som har begått ett fel, eller hos användaren, om hen har använt maskinen på fel sätt. Även samhället som har tillåtit att maskinen används kan vara ansvarig. Ibland kan det hända att ingen är ansvarig, utan det handlar om en ren olycka. I sådana fall skulle det behövas försäkringar som ersätter kostnaderna för den drabbade.

Hakli som studerat datavetenskap men gått över till filosofi kan väl förstå att man allt mer vill använda artificiell intelligens. AI är enkel, billig, effektiv, produktiv och gör inga mänskliga fel.

– Vi människor är ju långsamma, lata och dumma. Varje gång man inför ny teknologi bör man emellertid bedöma om den gör världen till en bättre plats.

Avskräckning skulle kunna fungera

Även om artificiell intelligens inte kan vara moraliskt ansvarig, återstår frågan om man kan ställa den inför rätta. Om svaret är ja och den befanns skyldig, hur skulle den bestraffas?

– Traditionellt har ett straff till exempel tänkts fungera som försoning eller som någonting avskräckande. Försoning har ingen betydelse för AI, men avskräckning skulle kunna fungera, reflekterar forskardoktor i juridik Visa Kurki på forskarkollegiet vid Helsingfors universitet.

Om en algoritm som handlar på börsen har som mål att uppnå en så stor vinst som möjligt, försöker den att uppnå detta mål till varje pris. Om lagstiftaren vill hindra algoritmen från att utnyttja insiderinformation, bör man som påföljd ge böter som är flera gånger högre än den möjliga vinsten.

Idag används börsalgoritmer som verktyg av banker och det är bankerna som har ansvar för sina affärer. Ibland har man hävt affärer då algoritmerna börjat fungera på ett konstigt sätt. I USA har man dock redan diskuterat om man kan avskilja en algoritm från banken till ett eget bolag, som vid behov skulle kunna gå i konkurs. Då skulle ingen anses ansvarig för algoritmens beslut.

Naturens rättigheter

Visa Kurki vill förändra vårt sätt att uppfatta begreppet rättssubjekt. Som det är idag erkänner finsk lag endast fysiska personer, det vill säga människor, och juridiska personer, som kan vara företag eller organisationer.

– Ofta tror man att endast fysiska och juridiska personer har rättigheter. I verkligheten omges de av en gråzon.

Uppfattningen om rättigheter och vilka som omfattas av dem har förändrats genom åren. Kvinnor och slavar fick succesivt sina fulla rättigheter. Barn hörs på vid rättegångsförhandlingar i ökad grad idag än för några årtionden sedan. Djur har rätt att bli behandlade väl. I Nya Zeeland har till och med en flod fått status som rättssubjekt.

Anklagade möss

Även föreställningen om vilka som kan hållas ansvariga för sina handlingar har förändrats med tiden. På medeltiden höll man märkliga djurrättegångar. I Frankrike väckte man en gång åtal mot möss för att ha ätit spannmål. De hade till och med tilldelats en advokat och domaren krävde en förklaring varför de åtalade inte var närvarande.

Kurki indelar rättsliga subjekt i passiva och aktiva. De passiva har rättigheter, men inga skyldigheter. De aktiva har båda och dessutom en förmåga att agera i rätten.

Barn och djur dras inte inför rätta, eftersom de inte kan antas förstå konsekvenserna av sina handlingar. Man vill skydda kännande varelser från straff de inte har förtjänat.

Artificiell intelligens känner däremot inget lidande. Därför skulle Kurki åtminstone inte bevilja den grundläggande rättigheter. Däremot skulle AI under vissa omständigheter kunna anses vara en ansvarig aktör.

Estland går sin egen väg

Forskardoktor i juridik Beata Mäihäniemi har undersökt hur olika länder ställer sig till reglering av artificiell intelligens. De flesta länder eftersträvar teknologineutralitet. I Estland har man dock valt en annan väg.

– I Estland planeras en separat lag som skulle ge artificiell intelligens en särskild rättslig ställning, vilket innebär rättigheter och ansvar, berättar Mäihäniemi.

Det är dock vanligare att försöka kontrollera användningen av AI genom att ändra förvaltningslagen. På EU-nivå utvecklas mjuk reglering och ett etiskt regelverk för utnyttjandet av AI och föreskrifter om produktansvar för industrin.

Mäihäniemi skulle inte låta artificiell intelligens ta hand om beslut med inslag av omdöme. Även prediktiva algoritmer skulle kunna gräva sig för djupt in i människors privatliv.

I Esbo testade man en algoritm som förutspådde barns sannolikhet att bli klient hos barnskyddet. Enligt Mäihäniemi är användningen av den förknippad med etiska problem, även om människor tillåter den och gynnas av den.

Artificiell intelligens diskriminerar

Principerna för EU:s dataskyddsförordning utgör reglerna för hur data får användas. Å andra sidan hjälper dataskyddet föga om man frivilligt lämnar ut sina uppgifter då man söker arbete eller bostad.

Myndighetsbeslut handlar om utövande av offentlig makt, och de ska vara strängt reglerade. På den privata sidan har man mer spelrum. Vissa företag använder AI på ett diskriminerande sätt då de beviljar till exempel försäkringar eller lån.

– Ibland kan det rent sagt vara skrämmande, konstaterar Mäihäniemi.

Hon anser att lagstiftningen borde kräva att företagen åtminstone på begäran avslöjar vilken data som har använts och hur den har betonats.

Rutten data

En orosfaktor som gäller maskininlärning av AI är kvaliteten på data. Genom att lära sig av lösningar på tidigare problem upprepar AI eventuella misstag som mänskliga beslutsfattare gjort.

– Snedvridningar riskerar att bli inkodade i systemet och cementeras i algoritmerna så att man inte längre är medveten om dem, säger Raul Hakli.

I USA bedömer artificiell intelligens som kallas Compas risken för återfall i brott och bestämmer om de anklagade ska friges villkorligt i väntan på sin dom. AI skickade svarta till fängelse oftare än vita, trots att hudfärgen inte fick användas som grund för beslutet.

– Man borde se till att avlägsna alla diskriminerande element från data, vilket är svårt eftersom de kan korrelera med andra variabler, konstaterar Hakli.

Frankrikes grundlagsråd har utgått ifrån att algoritmens beslut måste kunna avkodas till en form som en människa förstår eller annars får de inte användas. När det gäller maskinlärande AI är det svårt.

– Problemet kan lösas genom att beordra algoritmen att definiera vilka kriterier som bör uppfyllas för att uppnå ett jakande beslut, säger Visa Kurki.

Människovärdet får inte kränkas

Det som är centralt inom maskininlärning är mål. Systemet kan komma på överraskande sätt för att nå sitt mål.

– Vi måste tänka efter ordentligt vad vi ska utveckla, vad vi tillåter att användas och en hurdan värld vi vill leva i, säger Hakli.

En ökad automation påverkar vardagen på många sätt. Färdigheter som inte används förtvinar. Det märks på minnet, orienteringskunskaperna och de sociala färdigheterna. Vi är beroende av teknologi.

Relationen mellan människa och teknik borde grunda sig på att människovärdet är okränkbart.

– Vi måste trygga människans friheter och ställning i rättssystemet, framhåller Tuomas Pöysti.

Det borde inte vara omöjligt. Ytterst ligger ansvaret för hur vi använder AI hos oss människor.