AI-system behandlar privat information och får därför inte komma ihåg för mycket

Professorn i datavetenskap Antti Honkela forskar i artificiell intelligens som skyddar integriteten. Om vi lär upp AI-modeller med hjälp av känsliga uppgifter måste vi se till att de inte minns och avslöjar informationen.

Vad forskar du i?

Min grupp forskar i den artificiella intelligensens tillförlitlighet. Det finns många perspektiv på den här frågan, men vi koncentrerar oss särskilt på dataskydd, integritetsskydd och hantering av osäkerhet. Vi forskar i hur AI-system hanterar dessa utmaningar och utvecklar metoder för att förbättra systemens prestationer.

Vi har bland annat utvecklat metoder för att garantera att ett AI-system inte kan avslöja konfidentiell information som använts för att lära upp det. Vi har också utvecklat metoder för att producera anonyma syntetiska data som kan användas i många applikationer som ett säkert alternativ till personuppgifter.

Vad kommer din forskning att påverka, och hur?

AI-system har under de senaste åren spritt sig till allt fler nya områden. Inom många av dessa områden är frågor gällande systemens tillförlitlighet viktiga.

Ett viktigt exempel är användningen av hälsouppgifter vid inskolningen av AI-modeller. Exempelvis kan information om patienter som har problem med den mentala hälsan användas för att lära upp en AI-modell som kan användas som ett stöd åt personer som arbetar vid krisjourer för mental hälsa. AI-modellen skulle till exempel kunna föreslå teman och budskap för diskussion. 

En sådan här modell får inte under några omständigheter avslöja informationen i materialet den lärts upp med för någon. Min grupp utvecklar metoder både för att analysera hur modellen minns informationen och för att förhindra att den gör det.

Liknande utmaningar dyker upp även i många andra situationer där man vill använda känsliga personuppgifter.

Vad inspirerar dig särskilt mycket inom ditt område just nu?

Jag inspireras av hur resultaten av min grupps, och andra grupper inom områdets, forskning börjar synas i det dagliga livet och väcker så mångas intresse. 

AI-systems tendens att minnas det material de lärts upp med är direkt kopplad till diskussionen om generativ AI och hur dess output kan bryta mot upphovsrätten. Detta har väckt stor uppmärksamhet. Användningen av hälsouppgifter för att lära upp AI-system och risken för att uppgifterna avslöjas har också gett upphov till en offentlig diskussion. 

Det ligger också verkliga framsteg bakom det ökade intresset: Utvecklingen av metoder för att garantera sekretessen hos de material som används för att lära upp AI-modeller har kommit långt. I många applikationer kan de faktiskt redan kombinera tillräcklig noggrannhet och sekretess.