Robotens utseende påverkar uppfattningen om hur moraliska dess beslut är

Artificiell intelligens och robotteknik utvecklas snabbt. Antalet självständiga intelligenta maskiner som fattar moraliska beslut ökar ständigt. Det är viktigt att ha kunskap om de delar av moralpsykologi som handlar om artificiell intelligens och robotteknik när man deltar i den etiska debatten om deras utveckling.

Projektet Moralities of Intelligent Machines undersöker människors hållning till moraliska beslut som har fattats av artificiell intelligens. I den nyaste undersökningen inom projektet fick försökspersoner läsa korta berättelser där antingen en robot, en iRobot som lite liknar en människa, en iClooney som starkt liknar en människa eller en person hamnar i en situation som liknar spårvagnsproblemet, kräver moraliskt beslutsfattande och leder till ett beslut att agera på ett visst sätt. Försökspersonerna såg också bilder av dessa aktörer. Sedan bedömde försökspersonerna moralen hos de beslut som fattats av dessa olika aktörer. Undersökningen finansierades av Jane och Aatos Erkkos stiftelse samt Finlands Akademi.

I spårvagnsproblemet ser en person en spårvagn som rusar fram på spåren och som inte styrs av någon. Vagnen är på väg att köra över fem personer. Personen kan antingen låta bli att göra någonting eller styra spårvagnen till ett annat spår, vilket leder till att dessa fem personer räddas, men det finns en person på det andra spåret som i detta fall skulle dö.

Den människoliknande robotens handlingar bedöms på ett mer negativt sätt

Enligt undersökningen bedömde människorna att beslut som fattades av de människoliknande iRobot och iClooney var mindre etiska än samma beslut som fattades av människan och roboten med traditionellt utseende. Ledaren för projektet MoIM, ansvariga forskaren Michael Laakasuo kopplar resultatet till ett fenomen som har hittats i en tidigare undersökning och som kallas för konstigheternas dal (the uncanny valley effect).

– Om den artificiella intelligensen liknar människan upplevs det som konstigt eller läskigt, och hållningen mot sådana robotar är negativare än mot mera maskinliknande robotar. Detta kan till exempel bero på att det är svårt att förhålla sig till en varelse som liknar en människa: är det ett djur, en människa eller ett verktyg?

Enligt Laakasuo tyder undersökningens resultat på att människor inte avfärdar robotar som moraliska beslutsfattare eftersom människors och traditionella robotars beslut ansågs vara lika godtagbara. Däremot har robotens utseende betydelse för bedömningen av deras moral.

Debatten styr regleringen av artificiell intelligens

Enligt Michael Laakasuo ökar antalet intelligenta maskiner som fattar moraliska beslut i vårt samhälle. Exempel på detta är bilar som kör sig själva.

– Det är viktigt att veta hur människor förhåller sig till intelligenta maskiner och vilka faktorer som påverkar bedömningen av deras moral. Bedöms till exempel trafikförseelser som begåtts av en stilig bil som kör sig själv på ett annat sätt än trafikförseelser som begåtts av en mindre stilig bil?

Denna information kan påverka i vilken riktning den artificiella intelligensen och robottekniken utvecklas. Det kan också påverka till exempel varumärkesutvecklingen. Informationen kan också forma den politiska debatten om regleringen av artificiell intelligens. Till exempel kan självstyrda bilar bli ett slags testlaboratorier för privata företag: vid olyckor kan konsekvenserna kompenseras med pengar och människors välbefinnande kan äventyras i den tekniska utvecklingens namn med hänvisning till konsekventialistisk moral.

– Hurdana robotar vill vi ha bland oss: sådana som offrar en person och räddar fem personer från att bli överkörda av en spårvagn, eller sådana som vägrar offra en enda person även om det skulle innebära att rädda många andra? Borde robotar utvecklas så att de ser ut som människor eller inte, om detta påverkar hur moralen i deras handlingar bedöms?

Mer information:

Forskardoktor, docent Michael Laakasuo
Avdelningen för digital humaniora
michael.laakasuo@helsinki.fi
+358445181521