Computermus og frugter

Når kommuner for eksempel bruger kunstig intelligens (AI) til at beregne risikoen for langtidsledighed hos enkelte borgere, skabes der en risiko for alvorlig diskrimination.

Det konkluderer Institut for Menneskerettigheder i en ny rapport, der netop ser nærmere på det offentliges brug af profileringsmodeller og anden AI-teknologi i deres sagsbehandling af borgere.

Risikoen for diskrimination opstår, fordi profileringsmodellerne er baseret på komplekse algoritmer, der sammenholder en lang række forskellige kendetegn, egenskaber og oplysninger fra borgerne. Ud fra de oplysninger kan de blandt andet beregne, hvorvidt borgere har ret til en bestemt ydelse.

Profileringsmodeller kan altså føre til diskrimination af en borger eller gruppe, fordi modellen bruger borgerens specifikke kendetegn i dens analyse. Eksempelvis kan modellen lægge vægt på borgerens køn eller etnicitet, som så vil blive brugt som en enten positiv eller negativ faktor i dens vurdering. 

- Forbuddet mod diskrimination er en af de mest grundlæggende menneskerettigheder, vi har. Derfor er det også meget problematisk, at den her risiko for diskrimination er til stedet i kommunernes sagsbehandling, siger Marya Akhtar, der er jurist og chefkonsulent på Institut for Menneskerettigheder. 

ANBEFALER OFFENTLIGT REGISTER

For at komme risikoen for diskrimination til livs ude i kommunerne, anbefaler Marya Akhtar, at alle offentlige myndigheder, der bruger profileringsmodellerne, forpligter sig til at teste løbende for mulig diskrimination i modellernes vurderinger.

Og så er det også vigtigt, at kommunerne sikrer kvaliteten af data, så oplysninger, der eventuelt kunne lede til diskrimination, fjernes fra modellen.

- Det er vigtigt, at vi har fokus på den retssikkerhedsmæssige problemstilling, som profileringsmodellerne skaber, når de tages i brug. Men vi har også generelt brug for mere gennemsigtighed, når det kommer til kommunernes brug af kunstig intelligens, når der træffes afgørelser om borgere, siger Marya Akhtar.

Derfor foreslår Institut for Menneskerettigheder også, at der oprettes et offentligt register over, hvilke typer af kunstig intelligens, der bliver brugt i kommunerne og i hvilken sammenhæng.

- Det ville skabe en langt større gennemsigtighed for borgeren. Men det vil også være et nyttigt værktøj for kommunerne, så de kan få et klarere billede af, hvordan de bruger teknologierne andre steder. For lige nu er der intet overblik over, hvilke teknologier der er i spil, siger hun.

Lignende tiltag ser man i byer som Amsterdam og Helsinki, der har en oversigt over kommunernes brug af kunstige intelligenser frit tilgængelige på deres hjemmesider.

HK: DER ER STORE RISICI

I HK Kommunal ser man også med alvorlige øjne på brugen af kunstig intelligens i sagsbehandlingen af borgere.

- Jeg er helt enig i, at der bør være en pligt til løbende at teste systemer og modeller for risikoen for diskrimination, og jeg er også helt enig i, at der skal være transparens, fortæller Mads Samsing, der er næstformand i HK Kommunal.

Han fortæller desuden, at HK Kommunal i samarbejde med HK Stat i efteråret har sendt en række input til Digitaliseringsstyrelsen i forbindelse med en udarbejdelse af en ny fælles digitaliseringsstrategi for det offentlige.

Konkret foreslog de, at alle digitale løsninger, herunder dem der baseres på kunstig intelligens, skal igennem en analyse, så konsekvenserne for borgere bliver tydelige.

- Og så bør der tilføjes nye bestemmelser til forvaltningsloven om transparens og forklarlighed, siger han.

KL: VI KIGGER NÆRMERE PÅ FORSLAG

Hvorvidt der i fremtiden skal arbejdes på at få oprettet et offentligt register over anvendte AI-teknologier, kan Kommunernes Landsforening ikke svare endegyldigt på. 

I et skriftligt svar til HK Kommunal skriver Pia Færch, der er kontorchef i KL, at de med interesse vil kigge nærmere på forslaget fra Institut for Menneskerettigheder.

Samtidig understreger hun, at man i kommunerne allerede nu gør meget for at undersøge, hvordan der arbejdes bedst med de muligheder, som kunstig intelligens skaber inden for sagsbehandlingen. 

- Kommunerne er lige nu i gang med at gennemføre flere signaturprojekter, som skal sikre en bæredygtig og transparent tilgang til brugen af kunstig intelligens. Ligesom KL har etableret en teknologitænketank som skal bidrage med råd og vejledning i forhold til, hvordan vi bruger teknologi og data. KL understøtter også med viden om AI og en ordentlig og ansvarlig tilgang for eksempel juridisk AI værktøjskasse, netværk, aktiviteter i videncenter, skriver hun.

HK Kommunal har forgæves forsøgt at få en kommentar for Digitaliseringsstyrelsen.