For nylig sparrede jeg med nogle fra holdet hos HverdagsAI.dk om den finurlige balance mellem teknologisk fremskridt og vores retssikkerhed. Det gav ærligt talt stof til eftertanke. Vi kommer ikke udenom at kunstig intelligens snart bliver en fast makker hos politiet og andre myndigheder.
Spørgsmålet er faktisk ikke længere om, men hvordan vi forholder os til det. Skal vi være begejstrede eller bekymrede? Ja… begge dele, vil jeg mene.
Det digitale øje ser alt
Forestil dig et scenarie, hvor et kamera på gaden opfanger en hændelse, algoritmen genkender dit ansigt og pludselig står politiet ved din dør. Ubehageligt, hvis du intet har gjort. Endnu værre hvis systemet tog fejl. Det er jo ikke science fiction længere. Det er skideskræmmende.
Men lad os være ærlige. Politiet bruger allerede AI til efterforskning i flere lande. Systemerne kan analysere gigantiske datamængder på sekunder og finde mønstre, som selv den bedste efterforsker ville bruge uger på at opdage. Det gør os alle sammen tryggere… eller gør det?
Fejlmarginerne der koster dyrt
Algoritmer laver fejl. Nogle gange komiske fejl, andre gange dybt alvorlige. Jeg tænker ofte på, hvordan vi ville reagere, hvis en almindelig politibetjent konsekvent profilerede bestemte befolkningsgrupper. Vi ville aldrig acceptere det. Men hvad nu, hvis en algoritme gør det samme?
Udfordringen ligger i, at kunstig intelligens trænes på historiske data. Er disse data fulde af fordomme og skævheder? Jeps, desværre. Så bliver algoritmen det også.
Gennemsigtighed eller hemmelighedskræmmeri?
Kan du forklare, hvordan din hjerne lige præcis nåede frem til en bestemt konklusion? Næppe i detaljer. Lige sådan med komplekse AI-systemer. De fleste kører som “black boxes” hvor man putter data ind i den ene ende og får resultater ud i den anden.
| AI system | Gennemsigtighed | Anvendelsesområder |
|---|---|---|
| Simpel regelbaseret | Høj | Filtrering, sortering |
| Machine learning | Moderat | Mønstergenkendelse |
| Dybe neurale netværk | Lav | Ansigtsgenkendelse, kompleks analyse |
Når teknologi og retssikkerhed skal danse tango
Hvordan sikrer vi så retfærdigheden? For det første må vi kræve total åbenhed om, hvilke systemer der anvendes til hvad. Ellers ender vi i en situation, hvor vi ikke aner, hvorfor vi bliver mistænkt.
På den anden side, har vi også alle sammen interesse i at politiet effektivt kan opklare forbrydelser. Jeg synes såmænd ikke, at teknologien i sig selv er skurken her.
Den gyldne middelvej findes
Der er faktisk flere måder, vi kan sikre en forsvarlig balance:
- Uafhængig kontrol af algoritmer før de implementeres
- Mennesker skal godkende alle alvorlige beslutninger, som AI-systemer foreslår
- Lovgivning der følger med den teknologiske udvikling (uden at kvæle innovationen)
- Ret til indsigt når algoritmer anvendes i sagsbehandling mod dig som borger eller virksomhed
. I en verden hvor databeskyttelse ofte bliver overset til fordel for bekvemmelighed, er det hårdt arbejde at holde fast i retten til privatliv og fair behandling.
Tillid som fundamentet
Jeg har det faktisk ambivalent med de her systemer. For hvis de bliver designet ordentligt, kan de jo både øge retssikkerheden og effektiviteten. Men det kræver tillid. Og tillid kræver transparens.
Et samfund hvor borgerne ikke stoler på at retssystemet behandler dem fair, er på gyngende grund. Uanset hvor elegant teknologien ellers måtte være.
Så ja, vi skal bruge AI til efterforskning. Men med åbne øjne og skarp kontrol. For teknologi er aldrig neutral eller ufejlbarlig. Den er præcis så god eller dårlig som de mennesker, der skaber og kontrollerer den.