Daniel Kades forskning ska hjälpa motion capture-skådespelare att agera bättre

2014-10-30 | Forskning/Samverkan

Tänk dig att du låtsas springa genom en skog, ducka för grenar och hoppa över fallna trästockar. Men gör det i ett helt tomt rum, på ett plant golv och utan något att vika undan för. Troligtvis kommer ditt skådespel inte bli särskilt trovärdigt. Men om du kan se den virtuella skog du låtsas röra dig genom? Eller höra grenarna knäckas? Daniel Kade är doktorand inom datavetenskap på Mälardalens högskola (MDH) och har utvecklat en teknik som hjälper motion capture-skådespelare med just detta. Fredag den 31 oktober försvarar han sin licentiatavhandling.

En motion capture-skådespelare används vid produktion av animerade filmer och dataspel. Personen agerar iklädd en särskild dräkt, som sänder signaler till en dator, vilken i sin tur avbildar skådespelarens kropp och rörelsemönster till en så kallad avatar. Problemet för dessa skådespelare är att de, till skillnad från vanliga skådespelare, inte har någon miljö, rekvisita eller motspelare att förhålla sig till.

– När man tar fram animerade karaktärer eftersträvar man självklart ett så människoliknande resultat som möjligt. Motion capture-skådespelare ger digitala avatarer realistiska och trovärdiga rörelser och känslor. Dessvärre erbjuder inte dagens motion capture-teknik en naturlig skådespelarmiljö. Det är framför allt på grund av att skådespelare inte ser eller på annat sätt uppfattar den virtuella miljön de agerar i, säger Daniel Kade.

Daniel Kade kom till Sverige från Tyskland för tre år sedan, för att han ville se världen skaffa sig en doktorsexamen. På MDH har han kunnat kombinera sin forskning inom interaktionsdesign med sitt intresse för spelutveckling.

– Fokus för mig har alltid varit att skapa något användarvänligt. Syftet med min forskning är att undersöka hur jag kan hjälpa de här skådespelarna att göra ett bättre jobb. På så vis blir ju även slutresultatet, till exempel filmen eller spelet, bättre, säger han.

Det Daniel Kade och hans forskarteam tagit fram är två prototyper som båda ska kunna underlätta skådespelarens arbete. Den ena är en kamera som fästs på skådespelarens huvud och som projicerar en bild av den virtuella miljön framför skådespelaren. Miljön ändras utifrån hur skådespelaren rör sig, och på så vis skapas upplevelsen av att han eller hon befinner sig där. Det andra är ett kontrollerat 3D-ljud, ljud som kommer ifrån rummets alla hörn och som kan styras av regissören.

– Om man till exempel spelar in en krigsscen och en bomb ska detonera, så kan regissören välja när ljudet ska komma och från vilket håll. Skådespelaren reagerar instinktivt på ljudet. Hur duktig man än är på att agera så kan man inte simulera en sådan reaktion. Den är äkta, säger Daniel Kade.

Han ser fram emot att börja använda prototyperna och målet är att bild och ljud ska kunna synkroniseras, så att upplevelsen blir mer komplett för skådespelaren. En annan vision är att utveckla projektorn så att den inte behöver sitta fast på huvudet.

– I motion capture-världen pratas det mycket om glasögon eller andra lösningar för att skådespelaren ska kunna känna sig som en del av den fiktiva miljö han eller hon agerar i. Men man vet inte riktigt hur man ska göra det, det finns ju en säkerhetsaspekt i det hela också. Om två skådespelare till exempel ska spela in en slagsmålscen, så vill de ju kunna se varandra, annars kan det gå hur som helst. Det finns flera utmaningar men våra prototyper har stor potential och vi hoppas på att vår teknik ska kunna skapa mer verklighetstrogna animerade karaktärer så småningom. Jag kommer att fortsätta utveckla tekniken och satsar på att doktorera så småningom, säger Daniel Kade.

 

Den 31 oktober kl.13.15 försvarar Daniel Kade sin licentiatuppsats “Towards Immersive Motion Capture Acting Design, Exploration and Development of an Augmented System Solution” i sal Kappa på MDH i Västerås. Mer information om presentationen finns här