Marcus forskning bidrar till att kvalitetssäkra framtidens AI-modeller
Från playstation till neurala nätverk. Marcus Gullstrand är doktorand i datavetenskap inom ramarna för AFAIRs forskningsprojekt XAI-Pro: ”Det går verkligen att göra karriär inom AI här i Jönköping – både som forskare och i arbetslivet!”
Varför har du valt att forska om AI?
”Jag har alltid varit fascinerad av datorer. Stationära, laptops, telefoner, server-datorer… det är kul helt enkelt! Allt började med spel och min första PlayStation och sedan har intresset hängt med från grundskolan och gymnasiet till mina högskolestudier. För mig är AI en naturlig utveckling av det intresset. AI ger oss fler och fler möjligheter ju mer vi lär oss. Personligen tycker jag att AI är intressant eftersom det är en teknik som kan användas i alla olika domäner för olika ändamål. Börshandel, bilkonstruktion, robotik eller sjukvård… Den är inte specifik för något enstaka ämne och möjligheterna är oändliga.”
Hur blev du en del av XAI-Pro-projektet?
”Jag läste Tekniskt basår här på Tekniska Högskolan här i Jönköping. När man går basåret så är man garanterad en programplats och jag valde att läsa det treåriga programmet Data och mobila plattformar, DMP. Jag gjorde ett examensarbete baserat på AI-teknik och fick mersmak så jag fortsatte med det då nya masterprogrammet ”AI Engineering”. Så sammanlagt blev det sex års studier i Jönköping. Sedan arbetade jag på Combitech här i Jönköping under ett år. Men jag hade faktiskt bara hunnit jobba några månader innan jag fick frågan om doktorandstudier. Under min master hade jag både jobbat extra och samarbetat vetenskapligt med Maria Riveiro som är projektledare för XAI-Pro, så det var på den vägen jag kom in i projektet.”
Du forskar inom neurala nätverk? Vad är det?
”Neurala nätverk är en underkategori inom maskininlärning, och maskininlärnings algoritmer har förmågan att lära sig av erfarenhet eller data. Man skulle kunna säga att ett neuralt nätverk fungerar som den mänskliga hjärnan. Den här typen av självlärande algoritmer är det som är den grundläggande drivkraften i utvecklingen av AI. Jag fokuserar på djupa nätverk och hur vi kan extrahera enstaka saker som nätverket lärt sig, till exempel att känna igen en katt eller hund. Vi människor vet ju precis hur en katt ser ut och kan utan problem skilja en katt från en hund. Vi vet, av erfarenhet, vilken information som motsvarar en katt. Men vilken typ av data behöver ett neuralt nätverk och hur kan du träna det för att förstå att just den här informationen säger ”katt”? Min forskning handlar om att rama in de delar av nätverket som fattar katt-beslutet och hur katten beskrivs internt av nätverket. Det påminner lite om hjärnkirurgi – att skära ut just den lilla biten av AI-modellen som har med katter att göra, lära sig hur den fungerar och hur den hänger ihop med resten av AI-modellen. Det här är frågeställningar som är centrala inom forskningen kring Explainable AI, eller förklarbar AI. Som AI-teknik betraktat tycker jag att neurala nätverk är extra intressanta då det är både lite av en konst och en vetenskap att skapa arkitekturen bakom dessa och sedan träna dem att göra allt möjligt.”
Varför är den här kunskapen viktig?
”Om du vet hur det går till när en AI-modell fattar beslut, och även känner till hur stor del av modellen som bidrar till beslutet, så blir det också lättare att hitta svagheter i modellen. När vi med säkerhet vet att modellen har tränats och lärt sig att klassificera ”katt”-data korrekt så kan vi använda den kunskapen när vi ska träna den att känna igen andra djur, till exempel en hund eller häst. Vi vet också vad i modellens interna struktur som bidrar till själva beslutet för katt eller hund. Den här forskningen är viktig för att kunna kvalitetssäkra de modeller som sedan ska användas ute i samhället.”
XAI-Pro (Explainable AI för produkt- och tjänsteutveckling) är ett av de forskningsprojekt som drivs inom AFAIR.
Här kan du läsa mer om XAI-Pro.