Stikkord: Nyhet

(+) Algoritmene som sender folk i fengsel
Kunstig intelligens har allerede begynt å endre hvordan det amerikanske rettssystemet fungerer.
Det er en kjent sak at en svart person oftere blir kjent skyldig enn en hvit person i amerikanske domstoler. Amerikanske dommere har i mange år allerede brukt et system som heter COMPAS til å sortere store datamengder, og beregne hvor sannsynlig det er at en domfelt kommer til å begå nye kriminelle handlinger. Denne beregningen blir ofte lagt til grunn når en dommer skal fastsette straffen. Er det stor sannsynlighet for gjentagelse, blir straffen lengre.
Datamengdene som ligger til grunn for beregningene til COMPAS er basert på tidligere dommer i USA.
Svart kvinne, hvit mann
Systemet fungerer slik at det gir tiltalte i rettssaker en score som sier noe om hva som er sannsynligheten for at vedkommende blir en kriminell gjenganger, ifølge The Brink. En undersøkelse av den ideelle organisasjonen ProPublica viser at to tilsvarende saker ga totalt ulik risikoscore der den viktige markøren var hudfarge. 18 år gamle Brisha Borden, som er svart, ble i 2013 arrestert for et tyveri til en verdi av 80 dollar. Hennes rulleblad viste forseelser, det vil si mindre lovbrudd. 41 år gamle Vernon Prater, som er hvit, ble året før arrestert for tyveri av 86 dollar. Hans rulleblad bestod av væpnet ran og forsøk på væpnet ran som han hadde sonet en dom på fem år for. I tillegg hadde han enda en tiltale mot seg for væpnet ran. Til tross for at den svarte kvinnen bare hadde mindre forseelser på rullebladet og den hvite mannen hadde flere tilfeller av grov kriminalitet, regnet COMPAS ut at den svarte kvinnen hadde en risikoscore på åtte. Det vil si at COMPAS vurderte henne til å være i høyrisikogruppen for å begå nye lovbrudd. Den hvite mannen fikk en risikoscore på tre og ble ansett som lavrisiko. To år senere viste det seg at COMPAS tok feil – den svarte kvinnen hadde ikke begått nye lovbrudd, den hvite mannen sonet en dom på åtte år for innbrudd og tyveri.
Undersøkelsen til ProPublica viser at systemet spår feil risikofaktor to ganger så ofte for svarte mennesker som for hvite, og at hvite mennesker oftere blir feilmerket som lavrisiko enn svarte. Slik kan algoritmene ha innvirkning på amerikanske borgere sine liv, skriver organisasjonen.
Kjønnsdiskriminerende algoritmer
Jusstudent ved Harvard Law og programutvikler Ellora Thadaney Israni skriver i New York Times at også kjønn kan spille inn i algoritmene sine avgjørelser. Hun forteller om en mann ved navn Eric Loomis som i 2013 hadde begått en forbrytelse som normalt ikke ville gi fengselsstraff. Ifølge Aftenposten, som omtalte saken i 2016, hadde han kjørt en stjålet bil og stukket av fra politiet. Han fikk en dom på elleve år, der han måtte sone i fengsel i seks av disse. Dommeren viste til COMPAS sin utregning av Loomis sin risikofaktor for å begå nye lovbrudd som en del av grunnlaget for avgjørelsen. Loomis mente kjønnet hans ble brukt som en del av algoritmene, og utfordret retten på dette. Han mente dette var brudd på hans rett til å bli dømt individuelt og uavhengig av faktorer som kjønn. Loomis fikk ikke innsikt i algoritmenes begrunnelse – de er hemmelige. Søksmålet hans om urettferdig behandling basert på kjønn ble avvist av Wisconsins høyesterett i 2016. Retten besluttet den gangen at det ikke var brudd på hans rettigheter så lenge dommeren stoler på algoritmene som ligger til grunn. Tvert imot sa retten at hvis algoritmene brukte kjønnet hans som en del av begrunnelsen for å vurdere framtidig risiko, ga det en mer presis risikovurdering, og var derfor ikke kjønnsdiskriminerende.
– Vi lærer maskinene våre fordommer og de speiler ikke bare våre skjevheter, men forverrer dem, skriver Israni.