Vad har robotar att göra med hur vi förhåller oss till ålderdom?
Bland annat denna fråga har akademiforskare Aku Visala, docent i religionsfilosofi, begrundat den senaste tiden. Visala har i sin senaste forskning fördjupat sig i hur robotikens och den artificiella intelligensens utveckling påverkar hur vi uppfattar mänsklighet. Hans specialområde är frågor som gäller medvetandets och moralens evolution.
När den artificiella intelligensen utvecklas kan problemet enligt Visala bli att den mänskliga interaktionen minskar. I synnerhet om man börjar se interaktionen främst ur det perspektivet att teknologin mekaniskt kan användas för att ersätta människan i olika uppgifter.
Som exempel tar Visala äldreomsorgen. Hurdana samhällsresurser vi reserverar för att se till att de äldre får människovärdig behandling är en moralisk och politisk fråga.
− I stället för att helhetsmässigt ta äldre människor bättre i beaktande, placerar vi dem på ställen där de sköts av robotar i stället för av medmänniskor.
− Är det ok om en robot kan känna igen att en person har ett ledset eller argt ansikte och reagera på det enbart med en suck eller några ord som låter som att roboten bryr sig? Då är det fråga om simulerad empati och simulerad omtanke, inte äkta omtanke, säger Visala.
Det är inte fråga om att förutspå världens undergång, utan forskaren uttrycker snarare en humanistisk oro över att den artificiella intelligensens och det konstgjorda livets begränsningar förändrar vår moraliska människosyn och våra värderingar.
− Vill vi att uppgifter som förutsätter interaktion inte ska skötas av människor, utan av varelser som reagerar, men inte kan bry sig om andra och inte har något ansvar?
Teknologin är inte moraliskt neutral
Visala upplever också att det är problematiskt att låta teknologin ersätta sådant som kräver moralisk ansträngning: om en robot tar hand om de äldre, behöver barnen inte offra sin karriär, sin tid och sina pengar på att ta hand om sina föräldrar.
− Om vi låter maskiner ta hand om vården och omsorgen, berövar vi oss själva en möjlighet till moralisk tillväxt och en chans att förbinda oss. Vår uppfattning om moraliskt värdefulla mål kan också förändras.
Tanken i sig är inte ny. Till exempel den franska filosofen Jacques Ellul begrundade redan på 1960-talet vad som kan hända när ett teknologiskt tankesätt, som enbart har siktet på nytta, börjar styra vilka saker vi upplever som värda att eftersträva. Teknologin är inte moraliskt neutral, utan kan påverka vad vi upplever som viktigt.
Ett exempel från 2010-talet är sexrobotar. I stället för att ifrågasätta tankesättet att en människa måste vara vacker och sexig för att vara älskvärd, tar vi teknologin till hjälp för att erbjuda lösningar åt dem som inte uppfyller de traditionella skönhetsidealen.
− Tanken om ett interaktionsförhållande mellan två människor, med alla sina band och förpliktelser, krymper då till masturbation med en sexrobot, säger Visala.
Hurdan intelligens är mest värdefull?
Hur teknologin förändrar den mänskliga interaktionen är ett klassiskt tema inom fiktion. Det är centralt bland annat i filmen Blade Runner 2049, som kom ut 2017.
− Det intressanta är att de mest mänskliga karaktärerna i filmen är robotar. Människorna är känslokalla sociopater. Det beror antagligen på att människorna har blivit vana att behandla människolika varelser undermåligt. Senare har de även börjat behandla varandra så, konstaterar Visala.
I dessa visioner är problemet alltså inte att maskinerna blir för lika människan, utan att människorna blir som maskiner – varelser som inte bryr sig om varandra och inte kan förhålla sig medmänskligt till varandra.
Men tänk om man skulle utveckla en artificiell intelligens som även var socialt och moraliskt intelligent? Skulle det ens vara möjligt, och en hurdan roll anser Visala att en sådan robot skulle ha i människosamhället?
− För det första beror detta på vad man anser vara idealisk mänsklig intelligens. Är det logisk problemlösning, fysikalisk prestanda eller förmågan att kunna identifiera känslor?
Det senare är mest utmanande. Människan är interaktionsmässigt en moralisk varelse som lever i en kultur och har ett språk. Människor reagerar på normativa förväntningar och regler som inte är synliga.
− Jag skulle bli mycket imponerad om en robot kunde känna igen att jag ljuger för den och övertyga mig om att det inte lönar sig att ljuga, eftersom det är fel och har konsekvenser, konstaterar Visala.
Behandla en tekno sapiens som en homo sapiens
Enligt Visala har etisk begrundan gällande artificiell intelligens inte uppfattats som ett särskilt viktigt ämne inom teologisk forskning. Men den borde vara det.
− När massförstörelsevapnen utvecklades förde vi politiska och etiska diskussioner om hur vi lever och ser oss själva. Nu borde vi begrunda det igen, innan den artificiella intelligensen utvecklas så långt att den kan användas till vad som helst utan att vi har några gemensamma spelregler eller avtal.
Visala anser att robotar, tekno sapiens, borde behandlas som människor, om deras funktioner är tillräckligt lika homo sapiens. Det anses ofta att ett medvetande och en fri vilja är förutsättningar för medmänsklig behandling som tar den andras mål i beaktande.
En stor utmaning är dock att forskare inte ens har en enhällig uppfattning av homo sapiens mänsklighet.
− Det finns ingen konsensus om vad det betyder att människan har en fri vilja, ett ansvar och ett medvetande. Också det huruvida man borde närma sig moraliska frågor via regler eller konsekvenser är en olöst fråga, berättar Visala.
Man borde inte sätta ribban för högt när man skiljer åt maskiner och människor.
− Om det finns en varelse som tycks handla rationellt och kan dra moraliskt självständiga slutsatser samt styra sitt eget beteende, är det säkrast att behandla den som vi behandlar varandra som människor.
För närvarande är artificiell intelligens och robotar ännu långt ifrån mänskliga i synnerhet när det gäller moral och självstyrning. De kan inte vara medlemmar i ett moraliskt människosamhälle. Men i princip är det möjligt att den artificiella intelligensen kan utvecklas märkbart även inom dessa områden.
− Vi människor har en tragisk historia av att betrakta sådant som strider mot det vi är vana vid som undermänskligt. Så har vi till exempel behandlat dem med intellektuella funktionsnedsättningar, konstaterar Visala.