AI är en god dräng, men en sträng husbonde – så här förändrar algoritmerna samhället och vårt dagliga liv

Katten är besatt av musspel och folk förlorar sig i filterbubblor. Ändå vill en del forskare inte diskutera vilka konsekvenser deras uppfinningar kan få.

Teemu Roos, professor i datavetenskap, deltog i slutet av 2020 i NeurIPS, den viktigaste internationella konferensen för forskare inom artificiell intelligens (AI).

Konferensens arrangörer krävde för första gången att deltagarna utvärderar vilka breda samhälleliga effekter deras applikationer kan ha. Det satte fart på diskussionen. Några av forskarna upplevde kravet som censur eller som ett sätt att politisera vetenskap.

– Många broar brändes. Jag tror jag aldrig har diskuterat frågor inom mitt område med samma passion. Ämnet var synnerligen eldfängt, summerar Roos.

Han är själv fast övertygad om att forskare och ingenjörer inte har råd att ta avstånd från följderna av sina uppfinningar. AI berör numera så gott som alla.

Vi stöter på AI vart vi än vänder oss. Den används i webbshopar, strömningstjänster, valmaskiner, sökmotorer, sociala medier och dejtingappar. Även om du själv inte öppnar ditt liv för algoritmerna, samlar och processar åtminstone förvaltningsapparaters AI olika slags information om dig.

– De negativa effekterna av artificiell intelligens har varit många, vare sig de varit avsiktliga eller oavsiktliga. Algoritmer har rekommenderat lägre avlönade jobb för kvinnor och ansiktsigenkänningsprogrammen har inte fungerat för mörkhyade. Mot den bakgrunden finns det skäl att dryfta de bredare sammanhangen, menar Roos.

Reaktioner framkallar beroende

AI kan i bästa fall göra vardagen och arbetet lättare samt vara till hjälp när man fattar beslut. Den kan sortera agnarna från vetet i ett kaos eller överflöd och välja just det som passar dig. Vi talar om automatisk databehandling i ordets rätta bemärkelse.

Det man kanske inte tänker på är att samtidigt som en algoritm föreslår något, utesluter den något annat. Den gör sina val enligt hur den är skriven och utifrån de data den har blivit lärd med – inte enligt objektiva naturlagar.

I värsta fall kan algoritmerna leda till extremistiskt tänkande och polarisering. Inte avsiktligt, utan för att sociala medier strävar efter att maximera tiden som människor tillbringar på dem. Eftersom människor dras till sådant innehåll som framkallar reaktioner, visar algoritmerna för sociala medier just sådant innehåll.

Beroendeframkallande innehåll kan vara vilseledande eller lögnaktigt och ibland rätt och slätt hatpropaganda. I Myanmar eskalerade förföljelsen av rohingya-minoriteten till folkmord på grund av falska nyheter på Facebook. I USA påverkade man väljarna i presidentvalet 2016 genom att manipulera dem via Facebook.

Roos anser att de största samhälleliga effekterna av AI handlar om informationssökningen som förändrats och om filterbubblorna som uppstått på sociala medier.

— Det har stor betydelse om en algoritm rekommenderar sådant som har anknytning till extremism och felaktig information. Vi borde lära oss att ha kontroll över rekommendationerna och de negativa effekterna, säger han.

Problemet är bara att det inte är ekonomiskt lönsamt för sociala medier att stå på bromsen.

Musspel för katter

Det skulle vara sundare att konsumera sådant innehåll som utmanar de egna tankemönstren, men människans hjärna är inte funtad så. Hjärnan kan inte hantera alltför många alternativ, och därför filtrerar vi fram sådant som är i linje med våra egna åsikter. De sociala mediernas algoritmer baserar sig på just det här.

— De här algoritmerna förstärker sådant som vårt eget informationshanteringssystem grundar sig på. Människan är för lat för att söka motsatta åsikter, säger Anna-Mari Rusanen, universitetslektor i kognitionsvetenskap.

Tilltalande innehåll framkallar beroende, även hos djur. Rusanen testade fenomenet på sin katt, som numera hela tiden skulle vilja spela musspel på Youtube. Den väntar tålmodigt vid tv:n tills någon startar spelet, varefter den viftar efter musen med sin tass och försöker kliva in genom rutan.

— Youtube serverar oss hela tiden sådant innehåll som vi gillar och utnyttjar svagheterna i vårt kognitiva system. Mekanismen är så häpnadsväckande effektiv att den även fungerar på djur. Inser föräldrar verkligen att det enda målet för Youtube Kids är att få deras barn att tillbringa så lång tid som möjligt på tjänsten?

Tidigare hörde det till den finska enhetskulturen att så gott som alla följer med Rundradions nyheter. Då gjorde man ett val om man beslöt sig för att bygga sin världsåskådning på det egna partiets tidning i stället.

– Numera gör vi inga val, utan de sociala medierna tutar i oss sådant som vi antas gilla. Vi tar emot en ström av information som vi själva inte bestämmer över. Om det inte finns några andra informationskällor till hands börjar det ständigt likartade materialet så småningom inverka på vårt sätt att tänka, säger Rusanen.

10 000 människor eller en enda bot?

Människor skriver saker på sociala medier som de aldrig skulle säga högt. När likasinnade möts på en plattform kommer de åt att egga upp varandra. När de betraktar världen inifrån sin filterbubbla verkar alla vara av samma åsikt.

— För 20 år sedan trodde vi i vår aningslöshet att internet kommer att föra oss samman och att vi ska kunna diskutera med precis vem som helst. I stället har vi bildat klickar, säger Petri Myllymäki, professor i datavetenskap, harmset.

De som deltar i nätdiskussionerna kan vara bottar, det vill säga mjukvarurobotar. En bot som låtsas vara en människa kan överösa diskussionstrådar med sina ståndpunkter.

— Det kan inte var rätt att vi tror att 10 000 människor är av samma åsikt, då de i verkligheten endast är en. För närvarande finns det inga bestämmelser som reglerar bottarna, säger Myllymäki.

Han efterlyser en sheriff till den nya vilda västern som slagit rot på nätet. Även den digitala verkligheten är en del av samhället och samhällets värderingar borde respekteras även där.

— Om något är fel är det fel oavsett vilken teknologi som är inblandad. Vi har lagar och värderingar som säger att ingen får diskrimineras och att ingen människas integritet får kränkas. I den fysiska verkligheten är det här en självklar realitet.

Teknologijättarna roffar åt sig data

När man använder sociala medier eller sökmotorer måste man ofta lämna ut personlig information. Informationen delas därefter vidare från en tjänst till en annan. Om du letar efter en tvättmaskin på Google får du snart annonser om tvättmaskiner på Facebook. Det här kan vara både praktiskt och irriterande. Enligt Myllymäki skulle tjänsterna åtminstone kunna fråga om kunden accepterar överföringen av data.

För de flesta människor är internet lika med Google, men Google är ett företag som kan ta bort andra företag eller stater från sin tjänst när den bestämmer sig för det.

Teknologijättarna sitter på både makt och pengar. Vissa av dem erbjuder stater kostnadsfria AI-applikationer för den offentliga sektorn, om staterna lämnar ut uppgifter om sina medborgare. Det här är olyckligt, enligt Myllymäki. Han skulle hellre se att den offentliga förvaltningen utvecklar egna AI-applikationer.

— Vi har redan skänkt bort en stor del av vårt sociala liv till teknologijättarna. Att ytterligare ge bort samhälleliga data om hälsa, utbildning och trafik är något vi borde låta bli. Det gäller att vara alert och inte göra samma misstag en gång till, poängterar Myllymäki.

Vi har vant oss vid tanken att fina AI-applikationer kräver mycket data, pengar och el. Myllymäki framhåller att det inte behöver vara så, mot bakgrunden att man kunnat påvisa de miljömässiga skadeverkningarna av hög elförbrukning. AI-system kan även tas fram för den privata och offentliga sektorn med en mindre mängd data och pengar.

— Effektivitetstänk passar bra ihop med den finska mentaliteten. Forskning i AI-system som utnyttjar mindre mängder data har pågått i årtionden i Finland – på det området är vi föregångare.

Algoritmen och grannfrun

Den offentliga förvaltningen använder AI redan i dagens läge. Allt mer data samlas in om oss och används bland annat när man fattar beslut om beskattningen och när man räknar ut sociala förmåner.

Vissa sjukvårdsdistrikt samlar in data från social- och hälsovårdsuppgifterna för att kunna förutse risker. Ett försök i Södra Karelen bedömer utifrån data om det finns behov av barnskydd eller mentalvårdstjänster i familjen.

— Om det utifrån hälsovårdsuppgifterna går att bedöma risker, gagnar det både individen och tjänsteleverantören. Avigsidan handlar om i vilken utsträckning staten – även med goda avsikter – kan blanda sig i människors liv, säger Anna-Mari Rusanen.

Användningen av AI lyfter fram evighetsfrågor om självbestämmanderätt samt om förhållandet mellan staten och medborgarna. Hur inverkar statens roll som övervakare på individens frihet? Kan staten anklagas för framkallande av fara för annan, om data visade att man borde ha skridit till åtgärder?

— Spelar det någon roll om behovet av barnskydd grundar sig på dataanalys eller grannfruns observationer? Det är en av kärnfrågorna, illustrerar Rusanen.

Enligt Rusanen lever vi i en tid där den nya teknologin tvingar oss att fråga vad vi gör och varför. Hela vårt samhällssystem tvingas motivera sin existens.

Enligt det europeiska synsättet har människan av hävd haft rätt till ett privatliv. Tanken härrör sig från 1600-talet och anknyter till individualismen och sådana grundläggande rättigheter som inte kan ignoreras av en stat.

Svårt att förhindra missbruk

Även applikationer med goda syften kan missbrukas. Bildigenkänning kan användas till automatiska bromssystem för bilar, men möjliggör även etnisk profilering.

En planerare kan inte påverka hur en app används. När det gäller AI är data redan teknik; användningen av kärnvapenteknik kan begränsas eftersom den kräver stor utrustning, men det är svårare att förhindra att kodsträngar rör sig mellan olika länder.

Borde man alltså avbryta utvecklingen av vissa applikationer, för att det finns länder där de kan användas för ändamål som kränker de mänskliga rättigheterna? Myllymäki tycker inte det. Det skulle inte hindra att de planeras någon annanstans.

— Reglering innebär vanligen förbud och att även goda upplägg samtidigt hamnar i sopkorgen. Jag önskar mig spelregler som möjliggör innovationer. EU har ett rykte om sig att man strävar efter att förbjuda allt, och om så är fallet blir vi snabbt omkörda av USA och Kina, säger Myllymäki.

Teemu Roos anser å sin sida att EU också fört med sig mycket gott. Dataskyddsförordningen som trädde i kraft 2016 har enligt honom fungerat överraskande bra.

— EU har makten och är också den enda som har ett verkligt intresse för saken, säger Roos.

Företagen agerar enligt marknadsmekanismerna tills de politiska beslutsfattarna och medborgarna sätter upp ramarna. Lagstiftningen kan inte vara nationell eftersom branschen är internationell.

— Det räcker inte med att företagen reglerar sig själva, det har man varit medveten om i åratal. Miljölagstiftningen skulle inte heller ha gått framåt om den hade varit i händerna på de stora oljebolagen, säger Roos.

EU funderar på villkoren

EU-kommissionen publicerade ett utkast för den nya AI-strategin på våren. Det ambitiösa lagpaketet lägger fram förbud på till exempel massövervakning med hjälp av AI, samt villkor för användningen av AI-applikationer i samband med utbildning, rekrytering, offentliga tjänster och brottsbekämpning.

— Det är bra att man försöker sätta upp ramar för sådan AI-användning som respekterar de mänskliga rättigheterna. Vissa frågar sig dock om paketet är för tungt och komplicerat. Är det så att EU tar till släggan när en skruvmejsel vore nog?, frågar Anna-Mari Rusanen.

Utöver sitt arbete som universitetslektor arbetar Rusanen vid finansministeriet som specialsakkunnig vid en avdelning som ansvarar för den offentliga förvaltningens digitalisering. Hon hjälper till vid beredningen av lagar och tolkningen av EU:s regelverk.

Enligt Rusanen är det bra att kommissionens strategiförslag syftar till att reglera själva användningen och inte tekniken. Definitionen av artificiell intelligens är ändå problematisk: strategins förteckning över AI-system är snäv och bristfällig redan nu.

EU förväntas publicera den andra delen av lagförslaget på hösten, med fokus på produkt- och skadeståndsansvar. Det kommer att ta flera år innan lagarna är i kraft.

— Det handlar om en långsam process som kommer att väcka många diskussioner och känslor, samt engagera lobbyister och aktivister, säger Rusanen.

Den fria viljan på spel?

AI-forskaren Timo Honkela (1962–2020) hade en idé om en fredsmaskin: om artificiell intelligens som kan bistå vid fredsmedling. AI kan också hjälpa läkare att identifiera tumörer eller hjälpa ingenjörer att planera vägreparationer. Beslutprocesser kan förbättras avsevärt med hjälp av AI.

De flesta vill ändå att de slutliga besluten fattas av människor. Men är det alltid så det förhåller sig när en människa skriver under ett beslut?

När en AI föreslår något, är det lätt att människan fattar sitt beslut i enlighet med det. I Polen har man konstaterat att ämbetsmännen vid arbetskraftsbyråerna ändrar algoritmernas förslag i mindre än en procent av fallen, enlig en rapport av organisationen AlgorithmWatch. Resultatet kan antingen tyda på algoritmernas förträfflighet eller på mänsklig lättja.

Allt färre beslut fattas på egen hand. Därmed är det möjligt att vi med tiden blir sämre beslutsfattare. Sådana kunskaper som inte används, föråldras: om man alltid använder navigationsappen kan det hända att man slutligen inte hittar fram utan den.

Är AI:n således en husbonde eller dräng? En rejäl hjälpreda eller en illmarig manipulatör? Det relevanta är om vi använder AI på ett kontrollerat sätt och med förståelse för dess beskaffenhet, eller om vi låter den begränsa vår fria vilja och valfrihet.

Anna-Mari Rusanen tänker hellre på fördelarna med AI för människan och hela planeten än på hoten och riskerna. Makten över utvecklingen ligger i våra egna händer. Rusanen avslutar sin kurs om AI och etik med ett hoppingivande citat av Aristoteles: ”Det är dina val, inte slumpen som avgör ditt öde.”

Om du alltså vill vara herre över AI, ska du lära dig att förstå den. Då kan du kanske välja vad den ska användas till och vad den inte ska användas till.

 

Artikeln har publicerats på finska i numret 6/2021 av tidningen Yliopisto.

Etisk maskininlärning

Det finns två slags artificiell intelligens (AI). De traditionella algoritmerna matas med alla tänkbara alternativ och hur de ska handla i alla enskilda situationer. Maskininlärd AI lär sig själv från enorma datamängder. Den sätter upp regler utifrån de data den fått och jämför nya situationer med gamla för att kunna fatta goda beslut utifrån tidigare uppgifter.

Man trodde länge att maskininlärning är en neutral process, eftersom den inte påverkas av beslutsfattarens humör eller åsikter. En algoritm diskriminerar förvisso ingen, men om historiska data som den lär sig av är förvrängda, blir slutresultatet också förvrängt.

— En algoritm kan inte ta fram moraliska normer ur datamaterialet eller korrigera förvrängningar. De samhälleliga värderingarna måste läras in separat, förklarar biträdande professor Indrė Žliobaitė, som utarbetat världens första universitetskurs om etisk maskininlärning.

Huvudprincipen går ut på att man vid inlärningsskedet berättar entydigt för algoritmen vad man önskar av den. Även om den lär sig själv, kan inlärningen styras med nya preciserande villkor. Genom att byta ut variabler testar man förändringen i slutresultatet och optimerar algoritmen så att den närmar sig det slutresultatet som önskas.

Det är inte nödvändigtvis möjligt att korrigera förvrängda data om de till exempel innehåller århundraden av kulturell diskriminering. Däremot kan man berätta för algoritmen att det finns lika många kvinnor som män i världen, även om männen är i majoritet i historiska rekryteringsdata.

Maskininlärningens processer kan certifieras på samma sätt som vilka arbetsskeden som helst. Därför rekommenderar Žliobaitė ISO-standarder för socialt känsliga applikationer för att säkerställa deras kvalitet.

— Algoritmerna tillhör numera vår kultur i likhet med elden och verktygen. De förändrar vårt sätt att lära oss på samma sätt som flygplanen förändrade vårt sätt att röra oss, resonerar Žliobaitė.

Lär dig grunderna

Vill du lära dig förstå artificiell intelligens (AI)? Stilla ditt informationsbehov på de öppna MOOC-kurserna vid Helsingfors universitet. Elements of AI utvecklar din digitala läskunnighet.

Kursen har getts sedan 2018 och genomförs i samarbete med teknologiföretaget Reaktori. Den har översatts till 27 språk och har avlagts av över en halv miljon deltagare.

Elements of AI:s fortsättningskurs Building AI har getts sedan hösten 2020. Kursen innehåller exempel på programmering av AI-algoritmer och även programmeringsuppgifter. Undervisningsspråket är tills vidare enbart engelska.

Kursen Ethics of AI har getts på engelska sedan slutet av 2020. Kursdeltagarna är vanligen personer i ledande ställning på mellannivå, som har till uppgift att klargöra om en ny applikation ska tas i användning och på vilka grunder. Översättningarna till svenska och finska blir klara hösten 2021.