Kunstig intelligens (AI) vinder i disse år indpas i en lang række samfundsmæssige sammenhænge. Det anvendes f.eks. til diagnosticering i sundhedsvæsenet og til kreditvurdering i finanssektoren. Et fokuspunkt i diskussionen af sådanne anvendelser har været, hvor meget man skal kunne forklare AI. Nogle typer af AI beslutninger er kendetegnet ved, at det fulde beslutningsgrundlag ikke lader sig forklare. Det er et problem, fordi beslutningerne kan føre til skade og diskrimination. Projektet undersøger, hvilke krav, der rimeligvis kan stilles til forklarligheden af AI beslutninger i sundhedssektor, finansverden og retsvæsen. At opstille sådanne krav skal løse et vanskeligt dilemma. De bedste AI systemer er således dem, hvis beslutninger vanskeligst lader sig forklare. At opnå gevinsterne ved anvendelsen af AI ser altså ud til at koste på forklarligheden, og omvendt. Projektet vil løse problemet ved at lade kravene til forklarlighed være baseret på den tanke, at borgere på meningsfuld måde skal kunne gøre indsigelse mod AI beslutninger. Med dette afsæt vil projektet udvikle, dels en model til at evaluere forklarlighed af AI systemer, dels en model for at opsamle og formidle den information, der udgør kernen i forklaringer. Der er et samfundsmæssigt behov for veldefinerede begreber om forklarlighed og indsigelse i relation til AI. Databeskyttelsesloven (GDPR) giver således ret til en meningsfuld forklaring af AI beslutninger og til at gøre indsigelse mod sådanne.