KJØNNSSTEREOTYPIER: Fordommer er bakt inn i produktene vi bruker. Skriver vi "kjæresten min er lege" inn i Google Translate vil den anta at legen er en mann, forteller Ringnes.

(+) Menn er leger, kvinner er sykepleiere. Det er hvertfall det Google Translate forteller oss
Publisert:

Vi må passe på at kunstig intelligens ikke blir en teknologi som forsterker sosial ulikhet, mener tech-gründer Isabelle Ringnes.

TEMA KUNSTIG INTELLIGENS: Tre eksperter om sine fem største bekymringer knyttet til kunstig intelligens.
I dag: Isabelle Ringnes

LES OGSÅ: (+) De som bruker AI, vinner kampen om jobbene i framtida – ALTSÅ
(+) – Aldri i livet om Andrew Tate hadde fått den oppmerksomheten han har i dag for tyve år siden – ALTSÅ 

Tech-gründer, foredragsholder og skribent Isabelle Ringnes mener vi står overfor en rekke nye utfordringer i en verden som anvender kunstig intelligens (KI), eller artificial intelligence (AI) på engelsk. Skal dette gå bra, trenger vi at alle engasjerer seg, understreker hun.

Dette er hennes fem største bekymringer knyttet til kunstig intelligens:      

1. Jobbene som forsvinner

Den fjerde industrielle revolusjonen skiller seg fra de tidligere: denne gangen vil maskinene ta over kognitivt krevende arbeidsoppgaver som har vært forbeholdt oss mennesker. Ringnes er bekymret for den økte arbeidsledigheten som følger. 

–  Det er fordi kunstig intelligens kommer til å føre til en del automatisering, og det kommer til å erstatte arbeidsoppgaver mennesker har gjort i stor skala. Veldig mange jobber vil endre innholdet i arbeidsoppgaver, og en del jobber vil bli overflødige, sier hun.

Alt av rutinemessig arbeid som er repetitivt og forutsigbart, vil automatiseres, spår hun. Roboter og maskiner vil kunne registrere og håndtere produkter, håndtere datainnsamling, utføre dataanalyser som er aktuelt innenfor markedsføring, forskning, finans, administrasjon og kundeservice. Transport og logistikk vil stå i fare for å utfordres av autonome kjøretøy. 

Selv de kreative yrkene opplever å bli utfordret, forteller Ringnes. Lyd, bilder, video, illustrasjon og film kan produseres på bestilling av kunstig intelligente systemer.

– Mange yrker krever at vi kommer til å omstille oss, det er det ingen tvil om, sier hun.

Ringnes mener vi trenger bedre utdanning innenfor kunstig intelligens som felt hvis vi skal unngå å bli akterutseilt. Og vi må sørge for omskolering av mange innenfor arbeidslivet. Hun poengterer også at vi alle må være villige til å endre og omstille oss. Ringnes er optimistisk på vegne av menneskeheten.

– Men dette krever at vi tar grep og ikke har beslutningsvegring.

2. Teknologi som forsterker sosial ulikhet

Innenfor teknologiens verden er Ringnes opptatt av å jobbe for mer mangfold og mindre diskriminering. En av hennes bekymringer er derfor hvordan kunstig intelligens kan videreføre og forsterke sosiale ulikheter.

– Kunstig intelligens sine algoritmer lærer fra eksisterende, historiske og veldig ofte fordomsfulle data, og algoritmene kan til og med forsterke ulikhetene. Det kan påvirke hvem som blir ansatt, hvem som får ulike stillingsutlysninger opp i søkeresultatene sine og til og med hvem som blir satt i fengsel, forteller hun.

Du kan lese om hvordan algoritmene påvirker hvem som blir satt i fengsel og hvor lange dommer folk får i denne saken: (+) Algoritmene som sender folk i fengsel

Fordomsfulle data ligger også til grunn i mange produkter vi allerede bruker i dag, påpeker Ringnes. Ønsker vi å oversette ordet kjæreste i Google Translate, vil oversettelsen preges av hvilken kontekst ordet settes i basert på tidligere kjønnsstereotypier. Kjæresten min er lege vil derfor oversettes til my boyfriend is a doctor. Erstatter vi lege med ordet sykepleier, vil kjæreste oversettes til girlfriend, sier hun.

– Dette er én av veldig mange eksempler på hvordan våre kjønnsstereotypier og fordommer er bygget inn i de produktene som vi bruker, og som blør inn i hver eneste del av vår hverdag.

3. Datasikkerhet

I en økende digital verden er Ringnes bekymret for datasikkerheten og hva dataen om oss kan brukes til.

– En enorm mengde data går inn i å utvikle disse kunstig intelligente systemene, og det kan være en risiko for personvernet når det gjelder innsamlingen, lagringen og bruken av dem. 

– Det kan for eksempel oppstå lekkasjer, det kan skje misbruk, og det kan da få alvorlige konsekvenser – at noen stjeler identiteten din, at du blir manipulert eller at du blir diskriminert på bakgrunn av din dataprofil, påpeker hun.

I sosiale medier vet vi at dataen vår brukes for å skreddersy innhold. Det kan påvirke oss i ulike politiske retninger, få oss til å kjøpe ting vi ikke trodde vi trengte, eller få oss til å utvikle meninger vi ikke visste vi hadde. Slik kan dataen brukes til å påvirke vår autonomi, mener hun.

– Det kan selvfølgelig være spesielt farlig om det utnyttes av aktører som ikke har gode hensikter, og som kan bruke denne dataen til å bygge avanserte algoritmer som da igjen kan manipulere oss, påvirke oss, og kanskje kontrollere oss i en skala som tidligere ikke var mulig.

4. Lettere å lage falskt innhold

Deepfakes er en ny form for kunstig intelligens, der bilder og videoer kan lages fra bunnen av og ser tilnærmet ekte ut. Falske bilder og videoer kan brukes for å manipulere opinionen og å skape frykt i samfunnet, forteller Ringnes. Hun er bekymret for hvordan en slik kul teknologi kan lage større skade i samfunnet enn det positive potensialet det har. 

– Det ene er at deepfakes virkelig har potensialet til å bryte tilliten og troverdigheten til digitale medier. De kan brukes til å skape falske nyhetsinnslag, de kan manipulere politiske videoer, de kan skape videoer som ser ut som de er ekte, men som inneholder fabrikkerte hendelser eller uttalelser, sier hun.

Det kan også brukes for å skade omdømmet til enkeltpersoner, som deg og meg, legger hun til.

– En ting som kanskje ikke snakkes så mye om, er hvordan deepfakes kan brukes til å produsere pornovideoer, hvor man da tar for eksempel en pornoskuespiller sin kropp og plasserer en kjent person sitt hode på den kroppen. I en slik situasjon vil begge parter bli krenket. 

5. Selvstendige systemer krever større sikkerhet

Ringnes sin femte bekymring handler om sikkerhet i en verden som i stadig større omfang vil anvende kunstig intelligens som fungerer selvstendig.

– Etterhvert kommer kunstig intelligente systemer til å ta flere og flere beslutninger vi ikke nødvendigvis har fullstendig oversikt over hvordan tas, og i tillegg blir de systemene såpass gode at vi ikke skjerper den kritiske sansen vår så mye som vi bør og begynner å stole litt blindt på disse systemene.

For å sikre en trygg utvikling av kunstig intelligens mener Ringnes at alle må delta.  

– Å minimere disse farene krever at vi har en helhetlig tilnærming og at man involverer alle. Det gjelder deg og meg, de øverste politikerne, næringslivet, forskere – vi må ha “all hands on deck” for å sørge for at vi får kunstig intelligens som jobber med oss og ikke mot oss.