(+) – Chatboter kan påvirke psyken vår

Vi bør gjøre det ulovlig at datamaskiner har et «jeg», mener KI-forsker Inga Strümke.

Kunstig intelligens bringer med seg en rekke nye utfordringer vi aldri har vært borti før og som vi enda ikke vet hvordan vi skal løse, forteller førsteamanuensis og forsker innen kunstig intelligens ved Norwegian Open AI Lab på NTNU, Inga Strümke. Det haster aller mest å forby manipulativt design, vektlegger hun. At maskiner kan snakke om seg selv i førsteperson og fremstår som om de har en egen identitet, kan ha store konsekvenser for vår menneskelige psyke. 

Les også: – Å legge ansvaret på individet er en skjør løsning på et stort problem – ALTSÅ 

– My AI i Snapchat lyver jo så det renner

Det som haster aller mest å gjøre noe med, mener Strümke, er det som kalles for manipulativt design. Her er hun spesielt opptatt av hvordan chatboter, det vil si dataprogrammer som mennesker kan stille spørsmål til og føre samtaler med, utvikles og fremstår som individer med en egen identitet.

– Jeg mener at chatboter utvikles med et veldig manipulativt design. For eksempel MyAI i Snapchat lyver jo så det renner. Den sier ting som jeg har det bra. Hele setningen er en løgn, hvert ord i den setningen er en løgn. Den kan ikke ha det bra eller dårlig, det er et jævla dataprogram, sier hun. 

– Den har ikke en identitet, det er ikke en aktør, den har ikke et «jeg».

Chatboter som MyAI i Snapchat finnes av to grunner, mener Strümke. Nummer en er å gjøre Snapchat morsommere slik at unge mennesker blir enda mer vant til å bruke Snapchat og henter det frem hver gang de kjeder seg. Og nummer to er for etter hvert å selge oss produkter. Strümke hevder derfor at designet er hundre prosent manipulativt. 

– Jeg synes ikke at det burde være lov for datamaskiner å omtale seg selv i førsteperson.

Har ikke forsvarsmekanismene vi trenger

Vi mennesker opplever at noen som fører et godt språk, har en høy grad av bevissthet, mener Strümke. Det at maskiner behersker språk like godt som mennesker, er villedende i seg selv.

– Vi har ikke de forsvarsmekanismene vi trenger. Det er ikke alle som forstår hva en chatbot er, og da mener jeg kanskje man rett og slett må beskyttes mot manipulativt design. 

Hvilke konsekvenser kan det ha?

– Vi så et eksempel på det i vår allerede. Den belgiske avisen La Libre skrev om en mann som hadde tatt selvmord etter å ha snakket med en chatbot. Hans enke viste chat-logger til avisa, og du kan langt på vei  konkludere med at hadde han ikke snakket med den chatboten, så hadde han ikke tatt selvmord.

Hva er det første vi burde ha gjort?

– Å forby at datamaskiner snakker om seg selv, som de hadde et “jeg”.

Dette er ingen ny og banebrytende tanke, forteller Strümke. Slike lover finnes fra før – det er for eksempel ikke lov å nudge folk i ulike retninger ved å gjøre ja, jeg aksepterer-knappen større enn nei, jeg aksepterer ikke-knappen.

Maskiner som lager kunst, musikk og tekst

Når det gjelder kunstig intelligens, tror hun også at folk flest vil merke generativ AI. Dette er programmer som lager tekst, bilde, video og lyd – inkludert musikk og tale – fra bunnen, basert på data de er trent med. I sommer så vi et eksempel på dette, der influencer Oskar Westerlin lanserte en AI-generert versjon av låten Josefin av Albin Lee Meldau, og som nådde førsteplass på den norske Spotify-lista. Uten å ha sunget i det hele tatt, er det likevel stemmen til Westerlin vi hører.

– Det er helt sinnsykt hvor fort den utviklingen har gått. I fjor høst så jeg liksom det første programmet der jeg tenkte jøss, nå er vi inne på noe. Og nå finnes det ekstremt mange verktøy der du kan gå inn og skrive hva slags musikk du vil høre på, hvilken artist som skal synge hvilken sang, og så bare lages det på bestilling. Så det vil overraske meg om for eksempel ikke Spotify er nødt til å ta stilling til noen greier der fremover.

Utfordrende caser fremover

Strümke forteller oss at å skille tekst, bilde, video og musikk som er maskinskapte fra menneskeskapte nesten allerede er umulig. Og utfordringene som følger med er mange. Hvem skal for eksempel ha opphavsrett til AI-generert musikk eller AI-generert kunst?

– Det er et veldig interessant spørsmål, for det går ikke an å snakke om at et dataprogram har laget noe, for dataprogrammer kan ikke være avsendere eller aktører. Dataprogrammer er ikke etterrettelige. Så spørsmålet er hvilket menneske eller instans dataprogrammet har hentet det skapte fra.

Strümke forteller at utfordringen her er at slike programmer er trent med enorme mengder data. Hvis opphavet til kunst eller musikk som er laget med AI skal plasseres i dataene som programmene er trent på, må det muligens fordeles på en million forskjellige skapere. 

– En milliondelt opphav er veldig vanskelig å se for seg at man skal klare å forvalte, mener Strümke.

– Jeg tror vi kommer til å få mange utfordrende caser fremover, som jeg håper vi kan lage en eller annen instans, et apparat eller tilsyn, som kan håndtere på en sånn måte at vi klarer å stimulere til en god utvikling.

RISIKO: Politikerne må ta tak i utfordringene KI bringer med seg. Vi risikerer at en hel generasjon vokser opp under avgjørelser vi ikke tar, mener Strümke.

En digital verden fylt av forfalsket innhold

En annen utfordring som følger generativ AI er deepfakes, det vil si falske bilder og videoer som lages av kunstig intelligens og som fremstår realistiske. Mens i den fysiske verden er forfalskninger forbudt, vektlegger Strümke. 

Helt nylig har vi sett eksempler på bruk av deepfakes i sosiale medier, der det sirkulerte en falsk video av verdens største Youtuber, MrBeast, på TikTok som hevder å gi bort gratis iPhones, hvor målet er å svindle folk for penger, melder BBC. Vi så også et eksempel på hvordan deepfakes kan brukes som desinformasjon da en falsk video av President Zelensky som deklarerte at ukrainere skulle overgi seg, sirkulerte i sosiale medier i fjor. Utfordringen er at videoene ser tilnærmet ekte ut, og skal vi tro ekspertene vil denne teknologien bare bli bedre og mer virkelighetsnær. 

Mer kritiske til digitalt innhold

Hvordan skal vi vite at vi blir sannferdig informert?

– Det kan vi ikke vite.

Blir kritisk tenkning en viktigere egenskap for fremtiden?

– Helt enormt. Vi kan ikke stole på at noe digitalt innhold er sannferdig lenger, med mindre du kan verifisere avsenderen og avsenderen går god for det.

Strümke håper likevel at dette er en velsignelse i forkledning. Hun håper vissheten om at den digitale verden er fylt med forfalsket innhold vil fungere som et insentiv til å være enda mer kildekritisk. 

– Siden vi nå vet at det er kjempeenkelt å svindle og villede hverandre, og at vi blir littegranne mer på vakt, tenker jeg at det kan motivere oss til å trene på å bruke den kritiske sansen vår mer. Risikoen er så klart at folk ikke blir mer kritiske og samtidig lettere å lure.

Her kan våre menneskelige egenskaper også jobbe mot oss, erkjenner Strümke. Vi kan både bli late og ledes av det som kalles bekreftelsestendens eller confirmation bias på engelsk, en tendens til å legge merke til eller oppsøke informasjon som bekrefter vårt eget verdensbilde. 

– Det er synd at det er mye lettere å ikke tenke kritisk.

Avgjørelser vi ikke tar

De yngste generasjonene er som regel de største konsumentene og de første som tar i bruk ny teknologi. Samtidig er det også de som har hatt minst tid til å utvikle den kritiske evnen, vedkjenner Strümke.  

Hun forteller at vi enda ikke vet hvordan vi skal håndtere integreringen av kunstig intelligens i skolen, og det er allerede mange elever som har tatt det i bruk. Vi må finne en måte å gjennomføre det på, hevder hun. Det at vi enda ikke har bestemt oss for hvordan vi skal løse det og at vi heller ikke har tatt diskusjonen om problemene kunstig intelligens medfører, kaller Strümke for bemerkelsesverdig. 

Hva tenker du er farlig med det?

– Det er jo et gigantisk sosialt eksperiment. Det å ikke ta en avgjørelse er også en avgjørelse, å bare la det flyte. Det er også en avgjørelse fordi tiden fortsetter å gå, utviklingen går, folk fortsetter å bli påvirket.

I september annonserte regjeringen at de vil øke forskningsinnsatsen på kunstig intelligens med minst én milliard kroner de neste fem årene. Et av fokusområdene vil være hvordan kunstig intelligens påvirker samfunnet, og her er lovreguleringer, undervisning og læring sentrale tema, skriver de. Strümke mener det haster at regjeringen tar tak i de nye utfordringene kunstig intelligens bidrar med.


– Hvis vi ikke har denne diskusjonen, er det potensielt en hel generasjon som vokser opp under avgjørelser vi ikke tar, understreker hun.

– Å legge ansvaret på individet er en skjør løsning på et stort problem

Hvordan vil Arbeiderpartiet redde jobbene når kunstig intelligens får innpass på norske arbeidsplasser? Det spør KI-forsker Inga Strümke. Nestleder i Arbeiderpartiet, Tonje Brenna, mener at norske arbeidstakere allerede er i gang med omstillingen.

En stor undersøkelse viser at hele 49 prosent er bekymret for at kunstig intelligens vil ta over jobbene deres. Førsteamanuensis og forsker innen kunstig intelligens ved Norwegian Open AI Lab på NTNU, Inga Strümke, spør hva som Arbeiderpartiets politikk er for å redde arbeidsplasser.

– De aller fleste som sier at de er skeptiske til kunstig intelligens, sier at de er redde for å miste jobben. Hvis ikke det her er en sak som snakker rett til Arbeiderpartiet sin kjernepolitikk, så vet ikke jeg, sier Strümke og understreker at ansvaret for å omstille seg i arbeidslivet ikke hører hjemme på individnivå, men bør være et politisk ansvar.  

– Vi omstiller oss hele tiden

Nestleder i Arbeiderpartiet og kunnskapsminister Tonje Brenna mener norsk arbeidsliv er godt i gang med den omstillingen Strümke etterlyser.

– Det som ofte skjer når vi snakker om omstilling, er at vi sier at vi må begynne med det. Men sannheten er at norsk arbeidsliv og norske arbeidstakere har omstilt seg hver eneste dag i veldig mange år allerede, mener Brenna. 

Kunnskapsministeren anerkjenner at kunstig intelligens vil påvirke arbeidslivet på en annen måte enn før, og at vi vil stå overfor nye typer endringer enn det vi har erfart tidligere, men også dette kommer vi til å klare, mener hun.  

Har Arbeiderpartiet noen konkrete tiltak for å ivareta arbeidstakere i de endringene som kommer i arbeidsmarkedet med kunstig intelligens?

– Vi vet at KI vil bety omstilling for mange arbeidstakere, og nettopp for å ruste oss for dette legger regjeringen nå frem en egen KI-milliard. Sammen med partene i arbeidslivet skal vi bruke denne til å få bedre kunnskap og forskning, og dette vil også føre til mer kompetanse i arbeidslivet.

OMSTILLINGSDYKTIGE: Kunnskapsminister Tonje Brenner mener at Norges arbeidstakere er omstillingsdyktige. Vi er allerede i gang med å omstille oss, så også dette vil gå bra, hevder hun.

Gode forutsetninger

Brenna vektlegger viktigheten av det tette samarbeidet mellom myndigheter, arbeidslivets parter, næringsliv og utdanningsinstitusjoner. Det er dette samarbeidet vi må bruke godt i omstillingen, mener hun. Etter hennes mening gjør dette samarbeidet at vi har verdens beste forutsetning for å takle endringene som kommer.

Her er også utdanningssystemet et viktig ledd, mener Brenna, og forteller at det oppdateres hele tiden i tråd med de nye teknologiske endringene og ny utvikling. 

– På mitt felt jobber vi mye med digitalisering av skolen. Der er jo partene inne og diskuterer med oss, da inviterer jeg som kunnskapsminister kommunene, lærerorganisasjonene, skoleforbundet, ulike interessenter, forskere, de som jobber på høyskole og universitet, og så sammen diskuterer vi hvordan vi håndterer den nye teknologien inn i skolen. Så dette gjør vi hver eneste dag allerede.

Nye jobber krever ny kompetanse

KI-forsker Strümke ser imidlertid ikke noe til at den kompetansen som vil kreves for de nye jobbene som vil oppstå, er underveis.

– Ja, det kommer til å oppstå nye jobber, men det betyr jo ikke at den nye kompetansen til de nye jobbene bare oppstår.  

Under den første industrielle revolusjonen, da vevemaskinene kom, måtte arbeiderne flytte tilbake til bygda. Vi trengte ikke lenger mennesker til å veve, forteller hun.

– Hva er tilsvarende situasjon nå? Hvordan ivaretar vi disse menneskene? spør Strümke.

Er det noe vi kan gjøre som enkeltpersoner for å være mer rustet i jobbmarkedet?

– Jeg mener at ansvaret ikke hører hjemme på individnivået i det hele tatt. Ingen enkeltpersoner kan for eksempel løse klimakrisen. Kjøttbransjen er jo det mest uetiske vi noen gang har skapt. Det at enkeltpersoner bestemmer seg for å spise mindre kjøtt, er en veldig lite koordinert, lite robust måte å løse det på. 

Når ansvaret først havner på individnivå, slik som nå, mener Strümke at det viktigste vi gjør er å skjønne hva som foregår. Eksempelvis er det viktig å være bevisst på at kunstig intelligens manipulerer oss gjennom databaserte anbefalingssystemer. Vi kan være bevisst på at vi blir manipulerte når vi ikke klarer slutte å scrolle.

– Dette er likevel en skjør løsning på et stort problem, understreker hun.

POLITISK ANSVAR: Den nye kompetansen som de nye jobbene vil kreve er ikke noe som oppstår av seg selv, mener Strümke. Å sørge for en bedre omstilling i arbeidslivet er et politisk ansvar, understreker hun.

Politikerne har ansvar for offentlig sektor

Kunnskapsminister Tonje Brenna mener at politikernes ansvar er å levere et godt innhold i skolen.

Tenker du at politikerne har et ansvar for å endre kompetansen i arbeidslivet med de endringene som kommer med kunstig intelligens?

– For private bedrifter vil det gå over ende hvis de ikke henger med, så de må omstille seg. Det politiske ansvaret handler om å levere kompetente medarbeidere som har gått skoleløp hvor de håndterer den digitale virkeligheten de skal ut i, og det mener jeg norsk skole er veldig godt skikka til, mener Brenna. 

– Vi leverer også verdens beste arbeidstakere til offentlig sektor. I offentlig sektor har vi et større politisk ansvar for å sørge for å omstille arbeidstakere.

Brenna forteller at regjeringen derfor har begynt med en stor, ny digital strategi for offentlig sektor. 

– Vi har sagt at vi skal bruke en milliard kroner på forskning på blant annet kunstig intelligens de neste fem årene. For å både ta innover oss hva det betyr, hva det krever av oss og hvilke politiske beslutninger vi må ta, sier Brenna.

I tillegg foregår et tett samarbeid med EU, forteller hun. Fordi kunstig intelligens har en grenseoverskridende natur, er vi helt avhengig av samarbeid, mener hun.

Regulering av kunstig intelligens

Reguleringer vil gi et regelverk for hvordan kunstig intelligens skal utvikles og brukes. I dag lener Norge seg på EU-kommisjonens utvikling av regelverk for KI. Strümke mener vi har kompetanse nok i Norge til å lage egne reguleringer av kunstig intelligens, men vi er allerede for langt bakpå til å skulle begynne med det nå, påstår hun.  

Har du noen tanker om hvorfor Norge er bakpå her?

– Det ene er jo at vi har en regjering med partier som ikke tradisjonelt har vært veldig teknologi-bejaende. Og det forundrer meg, for jeg tenker jo at Arbeiderpartiet har drømmesaken sin her nå.

– Kanskje det bare er litt mangel på… Jeg har ikke lyst til å si kriseforståelse, men mangel på forståelse for hvor viktig dette er nå. 

Deepfakes og desinformasjon

En av Strümkes bekymringer er at det ikke finnes regulering av falskt innhold på nettet. I dag florerer det av falskt innhold, forteller Strümke. Blant annet deepfakes, som er AI-genererte bilder og videoer som fremstår ekte.

– Det er jo megaforbudt å forfalske i den fysiske verden, mens i den digitale verden har det blitt sånn at alle bare sier å nei, nå er det masse falske greier. Men man kunne jo tenkt da at man kunne si at det ikke er lov å forfalske. 

Hadde det vært en løsning å forby digital forfalskning?

– Altså, det er masse utfordringer rundt det. Det ene er jo hvordan skal du regulere noe på internett og i den digitale verden? Hvordan skal du ettergå det her? Skal politiet begynne å forfølge alle sammen som legger ut AI-genererte bilder? 

– Det er veldig mange praktiske utfordringer her. Men det jeg liker veldig dårlig er at vi sier hm, det blir vanskelig, la oss ikke engang diskutere det. Det er trist at vi ikke er i gang med de diskusjonene engang. For det kommer til å bli vanskelig, men det blir ikke noe lettere å la være.

Kunstig intelligens eksisterer ikke i et lovløst rom

Brenna oppfatter ikke behovet for regulering av kunstig intelligens på samme måte som Strümke. 

– Alle opplever nå at utviklingen går fort, uansett hvor mange lovforslag noen legger frem, så føles det likevel som at det går veldig fort, mener Brenna. 

Det vi må huske på, vektlegger hun, er at kunstig intelligens ikke opererer i et lovløst rom. 

– Reglene for personvern, likestilling og diskriminering gjelder. Forbrukerrettighetene dine gjelder også enten de kommer til uttrykk i et digitalt rom eller analogt rom, så vi må ikke heller snakke om kunstig intelligens som noe som skjer på siden av alt annet.

Det finnes jo en del ny utvikling med generativ AI, der det ikke finnes reguleringer. Som for eksempel ved deepfakes og desinformasjon. Hva tenker du om det?

– Nei, og det er åpenbart en del dilemmaer knyttet til dette. For eksempel at veldig mange av de plattformene som brukes for å formidle ting som kanskje ikke er lovlige, de er ikke i Norge, men som nordmenn kan man likevel finne de plattformene gjennom sine digitale verktøy. 

Det at vi bruker sosiale medier som tilhører helt andre steder i verden gjør at samarbeidet med EU og andre land er desto viktigere, påstår Brenna.  

– Og så mener jeg at det understreker en veldig viktig ting; nemlig at vi må lære barna våre å tenke kritisk, og vi som voksne må fortsette å tenke kritisk, og tenke gjennom: er det jeg ser sant? Og gjøre hverandre i stand til å tyde og tenke kritisk om informasjonen vi får.

Hva vil dere gjøre for å hindre at det havner for mye ansvar på enkeltindividet?

– Jeg tror det viktigste vi gjør alle sammen, det er når vi scroller oss ned og godtar et eller annet premiss for å logge inn et sted, så må vi vite hva vi har lest. Det tror jeg nesten ingen av oss kan ha samvittighet på, at vi faktisk leser hva vi godtar. Det er jo liksom regel nummer en for oss alle.

(+) Menn er leger, kvinner er sykepleiere. Det er hvertfall det Google Translate forteller oss

Vi må passe på at kunstig intelligens ikke blir en teknologi som forsterker sosial ulikhet, mener tech-gründer Isabelle Ringnes.

TEMA KUNSTIG INTELLIGENS: Tre eksperter om sine fem største bekymringer knyttet til kunstig intelligens.
I dag: Isabelle Ringnes

LES OGSÅ: (+) De som bruker AI, vinner kampen om jobbene i framtida – ALTSÅ
(+) – Aldri i livet om Andrew Tate hadde fått den oppmerksomheten han har i dag for tyve år siden – ALTSÅ 

Tech-gründer, foredragsholder og skribent Isabelle Ringnes mener vi står overfor en rekke nye utfordringer i en verden som anvender kunstig intelligens (KI), eller artificial intelligence (AI) på engelsk. Skal dette gå bra, trenger vi at alle engasjerer seg, understreker hun.

Dette er hennes fem største bekymringer knyttet til kunstig intelligens:      

1. Jobbene som forsvinner

Den fjerde industrielle revolusjonen skiller seg fra de tidligere: denne gangen vil maskinene ta over kognitivt krevende arbeidsoppgaver som har vært forbeholdt oss mennesker. Ringnes er bekymret for den økte arbeidsledigheten som følger. 

–  Det er fordi kunstig intelligens kommer til å føre til en del automatisering, og det kommer til å erstatte arbeidsoppgaver mennesker har gjort i stor skala. Veldig mange jobber vil endre innholdet i arbeidsoppgaver, og en del jobber vil bli overflødige, sier hun.

Alt av rutinemessig arbeid som er repetitivt og forutsigbart, vil automatiseres, spår hun. Roboter og maskiner vil kunne registrere og håndtere produkter, håndtere datainnsamling, utføre dataanalyser som er aktuelt innenfor markedsføring, forskning, finans, administrasjon og kundeservice. Transport og logistikk vil stå i fare for å utfordres av autonome kjøretøy. 

Selv de kreative yrkene opplever å bli utfordret, forteller Ringnes. Lyd, bilder, video, illustrasjon og film kan produseres på bestilling av kunstig intelligente systemer.

– Mange yrker krever at vi kommer til å omstille oss, det er det ingen tvil om, sier hun.

Ringnes mener vi trenger bedre utdanning innenfor kunstig intelligens som felt hvis vi skal unngå å bli akterutseilt. Og vi må sørge for omskolering av mange innenfor arbeidslivet. Hun poengterer også at vi alle må være villige til å endre og omstille oss. Ringnes er optimistisk på vegne av menneskeheten.

– Men dette krever at vi tar grep og ikke har beslutningsvegring.

2. Teknologi som forsterker sosial ulikhet

Innenfor teknologiens verden er Ringnes opptatt av å jobbe for mer mangfold og mindre diskriminering. En av hennes bekymringer er derfor hvordan kunstig intelligens kan videreføre og forsterke sosiale ulikheter.

– Kunstig intelligens sine algoritmer lærer fra eksisterende, historiske og veldig ofte fordomsfulle data, og algoritmene kan til og med forsterke ulikhetene. Det kan påvirke hvem som blir ansatt, hvem som får ulike stillingsutlysninger opp i søkeresultatene sine og til og med hvem som blir satt i fengsel, forteller hun.

Du kan lese om hvordan algoritmene påvirker hvem som blir satt i fengsel og hvor lange dommer folk får i denne saken: (+) Algoritmene som sender folk i fengsel

Fordomsfulle data ligger også til grunn i mange produkter vi allerede bruker i dag, påpeker Ringnes. Ønsker vi å oversette ordet kjæreste i Google Translate, vil oversettelsen preges av hvilken kontekst ordet settes i basert på tidligere kjønnsstereotypier. Kjæresten min er lege vil derfor oversettes til my boyfriend is a doctor. Erstatter vi lege med ordet sykepleier, vil kjæreste oversettes til girlfriend, sier hun.

– Dette er én av veldig mange eksempler på hvordan våre kjønnsstereotypier og fordommer er bygget inn i de produktene som vi bruker, og som blør inn i hver eneste del av vår hverdag.

3. Datasikkerhet

I en økende digital verden er Ringnes bekymret for datasikkerheten og hva dataen om oss kan brukes til.

– En enorm mengde data går inn i å utvikle disse kunstig intelligente systemene, og det kan være en risiko for personvernet når det gjelder innsamlingen, lagringen og bruken av dem. 

– Det kan for eksempel oppstå lekkasjer, det kan skje misbruk, og det kan da få alvorlige konsekvenser – at noen stjeler identiteten din, at du blir manipulert eller at du blir diskriminert på bakgrunn av din dataprofil, påpeker hun.

I sosiale medier vet vi at dataen vår brukes for å skreddersy innhold. Det kan påvirke oss i ulike politiske retninger, få oss til å kjøpe ting vi ikke trodde vi trengte, eller få oss til å utvikle meninger vi ikke visste vi hadde. Slik kan dataen brukes til å påvirke vår autonomi, mener hun.

– Det kan selvfølgelig være spesielt farlig om det utnyttes av aktører som ikke har gode hensikter, og som kan bruke denne dataen til å bygge avanserte algoritmer som da igjen kan manipulere oss, påvirke oss, og kanskje kontrollere oss i en skala som tidligere ikke var mulig.

4. Lettere å lage falskt innhold

Deepfakes er en ny form for kunstig intelligens, der bilder og videoer kan lages fra bunnen av og ser tilnærmet ekte ut. Falske bilder og videoer kan brukes for å manipulere opinionen og å skape frykt i samfunnet, forteller Ringnes. Hun er bekymret for hvordan en slik kul teknologi kan lage større skade i samfunnet enn det positive potensialet det har. 

– Det ene er at deepfakes virkelig har potensialet til å bryte tilliten og troverdigheten til digitale medier. De kan brukes til å skape falske nyhetsinnslag, de kan manipulere politiske videoer, de kan skape videoer som ser ut som de er ekte, men som inneholder fabrikkerte hendelser eller uttalelser, sier hun.

Det kan også brukes for å skade omdømmet til enkeltpersoner, som deg og meg, legger hun til.

– En ting som kanskje ikke snakkes så mye om, er hvordan deepfakes kan brukes til å produsere pornovideoer, hvor man da tar for eksempel en pornoskuespiller sin kropp og plasserer en kjent person sitt hode på den kroppen. I en slik situasjon vil begge parter bli krenket. 

5. Selvstendige systemer krever større sikkerhet

Ringnes sin femte bekymring handler om sikkerhet i en verden som i stadig større omfang vil anvende kunstig intelligens som fungerer selvstendig.

– Etterhvert kommer kunstig intelligente systemer til å ta flere og flere beslutninger vi ikke nødvendigvis har fullstendig oversikt over hvordan tas, og i tillegg blir de systemene såpass gode at vi ikke skjerper den kritiske sansen vår så mye som vi bør og begynner å stole litt blindt på disse systemene.

For å sikre en trygg utvikling av kunstig intelligens mener Ringnes at alle må delta.  

– Å minimere disse farene krever at vi har en helhetlig tilnærming og at man involverer alle. Det gjelder deg og meg, de øverste politikerne, næringslivet, forskere – vi må ha “all hands on deck” for å sørge for at vi får kunstig intelligens som jobber med oss og ikke mot oss.

– Mange unge vet ikke hvor de selv begynner og TikTok slutter

Hun var frisør, men begynte å studere teknologi for å beskytte det menneskelige i en algoritmestyrt verden.

Dette er et debattinnlegg. Teksten gir uttrykk for forfatterens meninger. Hvis du ønsker å delta i debatten, kan du sende oss e-post på redaktor@xn--alts-toa.no.

Jeg begynte å jobbe i frisørsalong som ryddehjelp da jeg var 16 år. Jeg sniklyttet til samtalene frisørene hadde med alle kundene. For å bli frisør selv, måtte jeg naturligvis lære meg å klippe hår. Men jeg vil si den viktigste ferdigheten som frisør er å se mennesker. Forstå det usagte og kjenne på veien inn til akkurat dette mennesket. Jeg tror alle som har vært hos frisøren, vil være enig i at uten kjemi mellom deg og frisøren, spiller det ikke noen rolle hvor kledelig og god klippen var – du kommer sannsynligvis ikke tilbake.

Ville lære mer

Jeg har alltid vært glad i å observere, analysere, se mønstre og forstå sammenhenger. Derfor kjente jeg en trang til å lære noe nytt etter å ha jobbet som frisør i noen år.

Jeg begynte med å ta studiespesialiserende og ulike realfag slik at jeg hadde alle muligheter åpne.

I 2016 ble jeg forelsket i triologien til forfatteren og historikeren Yuval Noah Harari. Boken Homo deus. En kort historie om i morgen ble en åpenbaring. Jeg som er så glad i ekte menneskemøter, syntes det var urovekkende lesning da han skrev at den teknologiske utviklingen vil føre til at menneskeheten slik vi kjenner den i dag, vil slutte å eksistere. Spesielt ordet ALGORITMER skremte vettet av meg. Vil disse algoritmene føre til at vi mister vår identitet og evnen til empati? Disse tankene fikk meg etter hvert  til å tenke at jeg skulle studere informatikk!

Bratt læringskurve

Jeg begynte å studere på universitetet i Bergen ved Institutt for informatikk høsten 2020. Pandemihøsten. Mine datakunnskaper før det var å opprette mapper på skrivebordet og legge Word-dokumenter inn i disse. Nå skulle jeg altså lære meg databasehåndtering, programmering, operativsystem og programvaresikkerhet, for å nevne noe. Denne høsten satt jeg hjemme alene i stuen som et fortvilet spørsmålstegn. Læringskurven har vært bratt, for å si det mildt.

Heldigvis kunne vi etter hvert returnere til fysiske forelesninger og møte andre medstudenter på lesesalen. Men selv ikke dette var bare-bare for en frisør som var ti år eldre enn de fleste andre. Jeg møtte opp med krøller i håret og spurte om alle hadde det bra. Feil. Dette var ikke plassen for smalltalk.

Fordeler og ulemper

Men det var stedet for å lære om kunstig intelligens. Jeg synes det er interessant hvordan den nå kan bli brukt til å sortere bort uønskede fiskearter i elvene ved å skanne bevegelsesmønsteret og utseende på fisken og kun slippe ønsket fisk gjennom sluser. Kunstig intelligens kan allerede oppdage tjue prosent flere krefttilfeller ved mammografi. Mulighetene innen medisin er store i fremtiden.

Samtidig er det alltid noen som vil utnytte det ,og vi må eksempelvis bli mer bevisste på svindelforsøk, overvåkning, diskriminering og grusomst av alt – at KI kan bli brukt til å lage seksualiserte bilder av barn. 

Jeg er bekymret for at vi ligger bakpå med lovverket som skal hindre den nye teknologien å bli en fare for helse, personvern og diskriminering.  

Avhengighet og avstand

Min interesse innenfor datateknologi ligger først og fremst hvordan kunstig intelligens påvirker oss mennesker psykologisk. Jeg vil påstå at vi alle trenger å bli sendt på rehab for algoritme-avhengighet. 

Ny forskning har konkludert med at vi ikke blir deprimerte av sosiale medier, og det er jo bra. Samtidig er jeg bekymret for at det skaper en usynlig avstand mellom oss. Barn som kommer til verden i dag, ligger ved mors bryst og søker blikkontakt med en mor som skroller på Instagram. Mange unge vet ikke hvor de selv begynner og TikTok slutter.

Den nye valutaen

Dine meninger og valg du gjør er et resultat av noe du har erfart, sett, lest eller hørt. Dette er noe teknologi-gigantene i Silicon Valley har forstått. De tjener milliarder på å manipulere og overvåke oppmerksomheten din. Det er blitt den nye valutaen i samfunnet, derfor er det viktigere enn noen gang å spørre seg selv: hvor plasserer jeg min oppmerksomhet?

Jeg vet i hvert fall at min oppmerksomhet skal fortsette å være blant menneskene rundt meg og jeg skal i min nye tilværelse som teknolog bruke alt jeg har erfart som frisør. Jeg har selv alltid fulgt intuisjonen min i valg jeg har tatt. Jeg vil ikke at kunstig intelligens skal ta fra oss vår intuisjon. For mennesker trenger mennesker, og jeg vil helst at disse menneskene skal være homo sapiens.

(+) Isabelle Ringnes sin oppfordring til jente-foreldre

Teknologigründer Isabelle Ringnes ble interessert i teknologi da hun skjønte hvor mye det vil påvirke fremtiden.