Kan kunstig intelligens erstatte dommere inden for retssystemet?

Er der stor sandsynlighed for, at denne person begår kriminalitet? Bør straffen afspejle det? Kunstig intelligens kan allerede i dag fungere som et redskab inden for retssystemet, og et nyt forskningsprojekt vil forsøge at afdække såvel fordele som risici.

Grafik af en digital domstolshammer
Adobe Stock - genereret med AI

Danmarks retssystem afsagde i 2022 godt 200.000 strafferetlige domme, viser tal fra Danmarks Statistik. Det vil sige domme om alt fra vold til hasarderet kørsel.

Når den skyldige skal have tildelt sin straf, er det naturligt at tage udgangspunkt i tidligere domme. Men det koster både tid og mandskab, og det kan skabe lange ventetider, som hverken er til fordel for gerningsmanden, et eventuelt offer eller for samfundet. Måske kan vi bare overlade arbejdet til kunstig intelligens, også kendt som AI.

»Og så er spørgsmålet, hvordan kan man bruge kunstig intelligens til det? Det kan man gøre på forskellige måder. En simpel måde er at bruge kunstig intelligens i form af nogle algoritmer til at prøve at skaffe informationer, som dommere skal bruge, når de skal udmåle en straf i en straffesag,« siger Jesper Ryberg, professor på Institut for Kommunikation og Humanistisk Videnskab på Roskilde Universitet, og føjer til:

»Det kunne for eksempel være, hvis man siger, at man skal have en risikoprofil på en kriminel, om denne person er farlig eller ej. Men der kan også tænkes mange andre måder, hvorpå algoritmer kan levere relevant information for domstolene.«

Robotdommeren svinger hammeren

I en konkret straffesag kan kunstig intelligens som næste skridt hjælpe med at fastlægge den konkrete straf. Med computerkraft indsamles viden om alskens tidligere domme på få sekunder, som munder ud i en anbefaling i form af for eksempel en straf på to år. Så kan dommeren vælge, om det skal være mere eller mindre.

»En tredje mulighed er den mest radikale, nemlig at sige at vi bruger simpelthen algoritmer, eller det man kan kalde en robotdommer, til at udmåle straffene. Så behøver man ikke at have en dommer siddende, men lader algoritmer afgøre, hvad der er den rigtige straf,« siger Jesper Ryberg.

Med støtte fra Danmarks Frie Forskningsfond står han i spidsen for et forskningsprojekt, som skal kortlægge både etiske faldgruber og mulige fordele ved at benytte kunstig intelligens til udmåling af straf. Mere præcist er sigtet at udvikle kriterier, der kan bruges til at vurdere kvaliteten af algoritmer, som kan bruges i domstolsarbejde.

Benyttes i andre lande

I nogle lande benytter man allerede kunstig intelligens i dag. I USA bruger man eksempelvis algoritmen COMPAS, som er udviklet til at tegne risikoprofiler af mistænkte i forbindelse med retssager. Så algoritmen bliver fodret med en række data, og ud fra dem giver den et bud på, om en person har stor eller lille sandsynlighed for at begå kriminalitet.

Når det gælder udmålingen af straf, bliver kunstig intelligens i dag brugt eksempelvis på forsøgsbasis i Malaysia.

»Man kunne godt forestille sig, at man kunne benytte kunstig intelligens i enkle sager. For eksempel når en person har erkendt sig skyldig i butikstyveri, og vi ved, at straffen næsten altid er den samme. Hvis man på den måde kan aflaste domstolene, vil det være en klar fordel. Men det kræver grundig omtanke,« forklarer Jesper Ryberg.

To etiske problemer

Inden strafudmåling bliver overladt til en computer, er det værd at kortlægge, hvad der kan gå galt, og hvad vi som samfund skal være opmærksomme på.

»Det at udmåle straffen over borgere i samfundet er en virkelig vigtig beslutning med kæmpe konsekvenser. Der er i dag særligt to etiske problemer, som vi ikke har fundet noget godt svar på endnu. Det ene er, at en algoritme kan være forudindtaget. Hvis der er en bias i de dataset, en algoritme bygger på, vil det blive opsnappet og reproduceret i algoritmens output. Det andet er, at vi ikke altid ved, hvordan en algoritme når frem til sit svar eller sin anbefaling,« uddyber Jesper Ryberg.

Et eksempel på problemet kan være, hvis en bestemt befolkningsgruppe er overrepræsenterede i de data, en algoritme henter information fra. Hvis vi igen retter blikket mod USA, kunne der eksempelvis være tale om, at der blandt fængslede personer er en overvægt af personer med afrikansk baggrund. Så vil algoritmen alene baseret på statistik udråbe dig til at have en forøget risiko for at ende som kriminel, hvis du selv har afrikansk baggrund.

»Men baseret på de seneste 10-20 års forskning ved vi, at mennesker også kan være forudindtagede i deres holdninger og handlinger. Hvornår er det så godt at have algoritmer i stedet for mennesker? Det spørgsmål kræver, at man har et meget større overblik over, hvilke typer forudindtagethed der er tale om, hvor hyppigt de optræder, og hvor alvorlige konsekvenser de har,« siger Jesper Ryberg.

Vigtigt at vide hvad en straf bygger på

Usikkerheden om, hvordan algoritmer når frem til deres afgørelser, er også et velkendt problem. Det opstår, når der er tale om særligt komplicerede algoritmer kendt som maskinlæringsalgoritmer.

Som samfund er vi ikke kun interesserede i at finde ud af, om en straf skal være to års fængsel eller en bøde på 5.000 kroner.

»Vi er også interesserede i at få en begrundelse, og det er også en del af retssikkerheden, at man forstår, hvordan denne afgørelse er blevet truffet. Spørgsmålet er, hvordan man bedst kan udvikle algoritmer, der tilfredsstiller det krav,« fortæller Jesper Ryberg.

Problemet er kendt som transparensspørgsmålet, og det har allerede været under lup i USA.

Her blev Eric Loomis i 2013 anholdt i staten Wisconsin for at have ført en bil, som havde været involveret i et skyderi. Da straffen skulle udmåles, gjorde den lokale domstol brug af COMPAS, som definerede Eric Loomis til have høj sandsynlighed for at begå kriminalitet. Han blev efterfølgende idømt seks års fængsel.

Eric Loomis lagde sag an mod staten Wisconsin, for at få afdækket hvorfor han var blevet klassificeret som en ’high risk offender’, altså en højrisikoforbryder. Sagen blev imidlertid afvist af højesteretten i Wisconsin i 2017.

»Han ville gerne have en begrundelse. Og så sagde Wisconsins højesteret, at det kan vi desværre ikke give dig, fordi algoritmen er blevet udviklet af et privat firma. Så det er en forretningshemmelighed, hvordan den fungerer. Det er jo bare ét eksempel på manglen på transparens. Så algoritmen træffer en meget vigtig afgørelse, der kan have en kæmpe betydning for en persons liv, men man kan ikke få at vide, hvordan resultat egentlig er nået,« pointerer Jesper Ryberg.

Samtidigt understreger han dog også, at man igen skal huske på, at menneskelige dommeres afgørelser heller ikke altid er gennemsigtige. Så udfordringen er at få afdækket, hvorfor gennemsigtighed i afgørelser er vigtigt, og hvordan den bedst sikres.

Hvornår er en algoritme god nok?

Selv når man ser bort fra spørgsmål om bias og mangel på gennemsigtighed i algoritmiske afgørelser, er der dog en anden udfordring, som i dag stort set ikke har været undersøgt.

Det, som Jesper Ryberg og hans kollegers forskning først og fremmest skal bidrage til få afdækket, er, hvordan man egentlig skal vurdere kvaliteten af de algoritmer, der måske kan finde anvendelse i retssystemet.  Hvornår er den algoritme god nok til at erstatte en menneskelig dommer?

»Det er faktisk meget kompliceret at finde ud af, hvad kriterierne er for at afgøre, om en algoritme er god nok til at udmåle straf. Man kunne jo sige, at det bare er, når den kan gøre det samme, som mennesker kan. Altså hvis den kan give de samme straffe, som et menneske ville have gjort. Problemet er bare, at vi godt vil have, at den er bedre end et menneske. Men hvad det betyder, er langtfra enkelt,« forklarer Jesper Ryberg.

»Dér må vi i dag sige, at der simpelthen endnu ikke er blevet udviklet nogen anvendelige kriterier. Og når man begynder at undersøge nærmere, hvad det egentlig betyder, bliver man nødt til at inddrage straffeetik for at definere, hvad den rigtige straf for en bestemt forbrydelse egentlig er. Hvordan det nærmere skal gøres, er noget af det, vi først og fremmest håber at kunne levere svar på i de kommende år,« tilføjer Jesper Ryberg.

Forskningsprojektet er planlagt til at skulle forløbe over tre år.