Maskinlæring (ML) har i løbet af de sidste år ledt til bemærkelsesværdige resultater - fra at slå verdensmestrene i skak og Go, til fuldautomatisk maskinoversættelse og førerløse biler. Én af de ting, der stadig adskiller kunstig intelligens og menneskelig højereordens kognition, er evnen til at udnytte tidligere tilegnede egenskaber, når man står over for nye opgaver. En evne, der giver mennesker mulighed for hurtigt at tilpasse sig nye situationer og tilegne sig nye egenskaber med meget lidt supervision. Maskinlæringsmodeller har tit svært ved at generalisere på tværs af den slags opgaver, blandt andet fordi de fleste maskinlæringsalgoritmer er baseret på antagelsen om, at relevant, fremtidig data kommer fra samme distribution som det data, der blev anvendt til at træne modellerne. I projektet her tackles denne udfordringen indenfor rammerne af "livslang maskinlæring” (LML) og ved hjælp af analyseværktøjer fra online læring. LML er et læringsparadigme, der kombinerer multi-task og transfer-læring; idéen er, at vi overfor en ny data-distribution kan udnytte synergier med data, vi tidligere har set, også selvom det adskiller sig fra det nye data. I stedet for at lære én model per distribution, lærer vi en ny model for flere forskellige distributioner samtidig. Online læring giver værktøjer til teoretisk analyse af sådan en interaktiv læringssituation og tillader endda behandling af såkaldte “adversarial” data-distributioner.