Hvor meget information indeholder et datasæt? Dette er et af de grundlæggende spørgsmål ved dataanalyse. Siden begyndelsen af 2000'erne er spørgsmålet blevet behandlet fra endnu en vinkel. Datasæt er blevet så store, at vi ikke kan behandle dem effektivt på en konventionel måde. Løsningen i "Big Data" tidsalderen er: Gør datasættene små igen. Den afvejning, som "Big Data" -algoritmer udforsker, er mellem at gemme information og reducere størrelsen. For mange klassiske dataanalyseproblemer viser det sig, at det meste af informationen i et datasæt kan lagres på betydeligt mindre plads end hele datasættet. Succesen med disse metoder har resulteret i nye udfordringer. De fleste kompressionsalgoritmer bruger tilfældighed under udførelsen. Er tilfældige beslutninger nødvendige for en effektiv beregning? Og hvis ja, hvor mange? Vi har også indset, at blot at komprimere datasæt i det mest generelle tilfælde ikke længere er praktisk. I stedet ønsker vi at have endnu mindre komprimeringer, der udnytter den specifikke struktur af vores data. Endelig er etiske overvejelser ved dataanalyse blevet vigtige. På trods af at "big data" er en af drivkræfterne i dataanalyse, er etiske overvejelser ved datakomprimering stort set uudforsket. Disse spørgsmål er, hvad projektet "Algoritmiske udfordringer ved Big Data" vil undersøge nærmere.