(+) – Chatboter kan påvirke psyken vår

Vi bør gjøre det ulovlig at datamaskiner har et «jeg», mener KI-forsker Inga Strümke.

Kunstig intelligens bringer med seg en rekke nye utfordringer vi aldri har vært borti før og som vi enda ikke vet hvordan vi skal løse, forteller førsteamanuensis og forsker innen kunstig intelligens ved Norwegian Open AI Lab på NTNU, Inga Strümke. Det haster aller mest å forby manipulativt design, vektlegger hun. At maskiner kan snakke om seg selv i førsteperson og fremstår som om de har en egen identitet, kan ha store konsekvenser for vår menneskelige psyke. 

Les også: – Å legge ansvaret på individet er en skjør løsning på et stort problem – ALTSÅ 

– My AI i Snapchat lyver jo så det renner

Det som haster aller mest å gjøre noe med, mener Strümke, er det som kalles for manipulativt design. Her er hun spesielt opptatt av hvordan chatboter, det vil si dataprogrammer som mennesker kan stille spørsmål til og føre samtaler med, utvikles og fremstår som individer med en egen identitet.

– Jeg mener at chatboter utvikles med et veldig manipulativt design. For eksempel MyAI i Snapchat lyver jo så det renner. Den sier ting som jeg har det bra. Hele setningen er en løgn, hvert ord i den setningen er en løgn. Den kan ikke ha det bra eller dårlig, det er et jævla dataprogram, sier hun. 

– Den har ikke en identitet, det er ikke en aktør, den har ikke et «jeg».

Chatboter som MyAI i Snapchat finnes av to grunner, mener Strümke. Nummer en er å gjøre Snapchat morsommere slik at unge mennesker blir enda mer vant til å bruke Snapchat og henter det frem hver gang de kjeder seg. Og nummer to er for etter hvert å selge oss produkter. Strümke hevder derfor at designet er hundre prosent manipulativt. 

– Jeg synes ikke at det burde være lov for datamaskiner å omtale seg selv i førsteperson.

Har ikke forsvarsmekanismene vi trenger

Vi mennesker opplever at noen som fører et godt språk, har en høy grad av bevissthet, mener Strümke. Det at maskiner behersker språk like godt som mennesker, er villedende i seg selv.

– Vi har ikke de forsvarsmekanismene vi trenger. Det er ikke alle som forstår hva en chatbot er, og da mener jeg kanskje man rett og slett må beskyttes mot manipulativt design. 

Hvilke konsekvenser kan det ha?

– Vi så et eksempel på det i vår allerede. Den belgiske avisen La Libre skrev om en mann som hadde tatt selvmord etter å ha snakket med en chatbot. Hans enke viste chat-logger til avisa, og du kan langt på vei  konkludere med at hadde han ikke snakket med den chatboten, så hadde han ikke tatt selvmord.

Hva er det første vi burde ha gjort?

– Å forby at datamaskiner snakker om seg selv, som de hadde et “jeg”.

Dette er ingen ny og banebrytende tanke, forteller Strümke. Slike lover finnes fra før – det er for eksempel ikke lov å nudge folk i ulike retninger ved å gjøre ja, jeg aksepterer-knappen større enn nei, jeg aksepterer ikke-knappen.

Maskiner som lager kunst, musikk og tekst

Når det gjelder kunstig intelligens, tror hun også at folk flest vil merke generativ AI. Dette er programmer som lager tekst, bilde, video og lyd – inkludert musikk og tale – fra bunnen, basert på data de er trent med. I sommer så vi et eksempel på dette, der influencer Oskar Westerlin lanserte en AI-generert versjon av låten Josefin av Albin Lee Meldau, og som nådde førsteplass på den norske Spotify-lista. Uten å ha sunget i det hele tatt, er det likevel stemmen til Westerlin vi hører.

– Det er helt sinnsykt hvor fort den utviklingen har gått. I fjor høst så jeg liksom det første programmet der jeg tenkte jøss, nå er vi inne på noe. Og nå finnes det ekstremt mange verktøy der du kan gå inn og skrive hva slags musikk du vil høre på, hvilken artist som skal synge hvilken sang, og så bare lages det på bestilling. Så det vil overraske meg om for eksempel ikke Spotify er nødt til å ta stilling til noen greier der fremover.

Utfordrende caser fremover

Strümke forteller oss at å skille tekst, bilde, video og musikk som er maskinskapte fra menneskeskapte nesten allerede er umulig. Og utfordringene som følger med er mange. Hvem skal for eksempel ha opphavsrett til AI-generert musikk eller AI-generert kunst?

– Det er et veldig interessant spørsmål, for det går ikke an å snakke om at et dataprogram har laget noe, for dataprogrammer kan ikke være avsendere eller aktører. Dataprogrammer er ikke etterrettelige. Så spørsmålet er hvilket menneske eller instans dataprogrammet har hentet det skapte fra.

Strümke forteller at utfordringen her er at slike programmer er trent med enorme mengder data. Hvis opphavet til kunst eller musikk som er laget med AI skal plasseres i dataene som programmene er trent på, må det muligens fordeles på en million forskjellige skapere. 

– En milliondelt opphav er veldig vanskelig å se for seg at man skal klare å forvalte, mener Strümke.

– Jeg tror vi kommer til å få mange utfordrende caser fremover, som jeg håper vi kan lage en eller annen instans, et apparat eller tilsyn, som kan håndtere på en sånn måte at vi klarer å stimulere til en god utvikling.

RISIKO: Politikerne må ta tak i utfordringene KI bringer med seg. Vi risikerer at en hel generasjon vokser opp under avgjørelser vi ikke tar, mener Strümke.

En digital verden fylt av forfalsket innhold

En annen utfordring som følger generativ AI er deepfakes, det vil si falske bilder og videoer som lages av kunstig intelligens og som fremstår realistiske. Mens i den fysiske verden er forfalskninger forbudt, vektlegger Strümke. 

Helt nylig har vi sett eksempler på bruk av deepfakes i sosiale medier, der det sirkulerte en falsk video av verdens største Youtuber, MrBeast, på TikTok som hevder å gi bort gratis iPhones, hvor målet er å svindle folk for penger, melder BBC. Vi så også et eksempel på hvordan deepfakes kan brukes som desinformasjon da en falsk video av President Zelensky som deklarerte at ukrainere skulle overgi seg, sirkulerte i sosiale medier i fjor. Utfordringen er at videoene ser tilnærmet ekte ut, og skal vi tro ekspertene vil denne teknologien bare bli bedre og mer virkelighetsnær. 

Mer kritiske til digitalt innhold

Hvordan skal vi vite at vi blir sannferdig informert?

– Det kan vi ikke vite.

Blir kritisk tenkning en viktigere egenskap for fremtiden?

– Helt enormt. Vi kan ikke stole på at noe digitalt innhold er sannferdig lenger, med mindre du kan verifisere avsenderen og avsenderen går god for det.

Strümke håper likevel at dette er en velsignelse i forkledning. Hun håper vissheten om at den digitale verden er fylt med forfalsket innhold vil fungere som et insentiv til å være enda mer kildekritisk. 

– Siden vi nå vet at det er kjempeenkelt å svindle og villede hverandre, og at vi blir littegranne mer på vakt, tenker jeg at det kan motivere oss til å trene på å bruke den kritiske sansen vår mer. Risikoen er så klart at folk ikke blir mer kritiske og samtidig lettere å lure.

Her kan våre menneskelige egenskaper også jobbe mot oss, erkjenner Strümke. Vi kan både bli late og ledes av det som kalles bekreftelsestendens eller confirmation bias på engelsk, en tendens til å legge merke til eller oppsøke informasjon som bekrefter vårt eget verdensbilde. 

– Det er synd at det er mye lettere å ikke tenke kritisk.

Avgjørelser vi ikke tar

De yngste generasjonene er som regel de største konsumentene og de første som tar i bruk ny teknologi. Samtidig er det også de som har hatt minst tid til å utvikle den kritiske evnen, vedkjenner Strümke.  

Hun forteller at vi enda ikke vet hvordan vi skal håndtere integreringen av kunstig intelligens i skolen, og det er allerede mange elever som har tatt det i bruk. Vi må finne en måte å gjennomføre det på, hevder hun. Det at vi enda ikke har bestemt oss for hvordan vi skal løse det og at vi heller ikke har tatt diskusjonen om problemene kunstig intelligens medfører, kaller Strümke for bemerkelsesverdig. 

Hva tenker du er farlig med det?

– Det er jo et gigantisk sosialt eksperiment. Det å ikke ta en avgjørelse er også en avgjørelse, å bare la det flyte. Det er også en avgjørelse fordi tiden fortsetter å gå, utviklingen går, folk fortsetter å bli påvirket.

I september annonserte regjeringen at de vil øke forskningsinnsatsen på kunstig intelligens med minst én milliard kroner de neste fem årene. Et av fokusområdene vil være hvordan kunstig intelligens påvirker samfunnet, og her er lovreguleringer, undervisning og læring sentrale tema, skriver de. Strümke mener det haster at regjeringen tar tak i de nye utfordringene kunstig intelligens bidrar med.


– Hvis vi ikke har denne diskusjonen, er det potensielt en hel generasjon som vokser opp under avgjørelser vi ikke tar, understreker hun.

– Å legge ansvaret på individet er en skjør løsning på et stort problem

Hvordan vil Arbeiderpartiet redde jobbene når kunstig intelligens får innpass på norske arbeidsplasser? Det spør KI-forsker Inga Strümke. Nestleder i Arbeiderpartiet, Tonje Brenna, mener at norske arbeidstakere allerede er i gang med omstillingen.

En stor undersøkelse viser at hele 49 prosent er bekymret for at kunstig intelligens vil ta over jobbene deres. Førsteamanuensis og forsker innen kunstig intelligens ved Norwegian Open AI Lab på NTNU, Inga Strümke, spør hva som Arbeiderpartiets politikk er for å redde arbeidsplasser.

– De aller fleste som sier at de er skeptiske til kunstig intelligens, sier at de er redde for å miste jobben. Hvis ikke det her er en sak som snakker rett til Arbeiderpartiet sin kjernepolitikk, så vet ikke jeg, sier Strümke og understreker at ansvaret for å omstille seg i arbeidslivet ikke hører hjemme på individnivå, men bør være et politisk ansvar.  

– Vi omstiller oss hele tiden

Nestleder i Arbeiderpartiet og kunnskapsminister Tonje Brenna mener norsk arbeidsliv er godt i gang med den omstillingen Strümke etterlyser.

– Det som ofte skjer når vi snakker om omstilling, er at vi sier at vi må begynne med det. Men sannheten er at norsk arbeidsliv og norske arbeidstakere har omstilt seg hver eneste dag i veldig mange år allerede, mener Brenna. 

Kunnskapsministeren anerkjenner at kunstig intelligens vil påvirke arbeidslivet på en annen måte enn før, og at vi vil stå overfor nye typer endringer enn det vi har erfart tidligere, men også dette kommer vi til å klare, mener hun.  

Har Arbeiderpartiet noen konkrete tiltak for å ivareta arbeidstakere i de endringene som kommer i arbeidsmarkedet med kunstig intelligens?

– Vi vet at KI vil bety omstilling for mange arbeidstakere, og nettopp for å ruste oss for dette legger regjeringen nå frem en egen KI-milliard. Sammen med partene i arbeidslivet skal vi bruke denne til å få bedre kunnskap og forskning, og dette vil også føre til mer kompetanse i arbeidslivet.

OMSTILLINGSDYKTIGE: Kunnskapsminister Tonje Brenner mener at Norges arbeidstakere er omstillingsdyktige. Vi er allerede i gang med å omstille oss, så også dette vil gå bra, hevder hun.

Gode forutsetninger

Brenna vektlegger viktigheten av det tette samarbeidet mellom myndigheter, arbeidslivets parter, næringsliv og utdanningsinstitusjoner. Det er dette samarbeidet vi må bruke godt i omstillingen, mener hun. Etter hennes mening gjør dette samarbeidet at vi har verdens beste forutsetning for å takle endringene som kommer.

Her er også utdanningssystemet et viktig ledd, mener Brenna, og forteller at det oppdateres hele tiden i tråd med de nye teknologiske endringene og ny utvikling. 

– På mitt felt jobber vi mye med digitalisering av skolen. Der er jo partene inne og diskuterer med oss, da inviterer jeg som kunnskapsminister kommunene, lærerorganisasjonene, skoleforbundet, ulike interessenter, forskere, de som jobber på høyskole og universitet, og så sammen diskuterer vi hvordan vi håndterer den nye teknologien inn i skolen. Så dette gjør vi hver eneste dag allerede.

Nye jobber krever ny kompetanse

KI-forsker Strümke ser imidlertid ikke noe til at den kompetansen som vil kreves for de nye jobbene som vil oppstå, er underveis.

– Ja, det kommer til å oppstå nye jobber, men det betyr jo ikke at den nye kompetansen til de nye jobbene bare oppstår.  

Under den første industrielle revolusjonen, da vevemaskinene kom, måtte arbeiderne flytte tilbake til bygda. Vi trengte ikke lenger mennesker til å veve, forteller hun.

– Hva er tilsvarende situasjon nå? Hvordan ivaretar vi disse menneskene? spør Strümke.

Er det noe vi kan gjøre som enkeltpersoner for å være mer rustet i jobbmarkedet?

– Jeg mener at ansvaret ikke hører hjemme på individnivået i det hele tatt. Ingen enkeltpersoner kan for eksempel løse klimakrisen. Kjøttbransjen er jo det mest uetiske vi noen gang har skapt. Det at enkeltpersoner bestemmer seg for å spise mindre kjøtt, er en veldig lite koordinert, lite robust måte å løse det på. 

Når ansvaret først havner på individnivå, slik som nå, mener Strümke at det viktigste vi gjør er å skjønne hva som foregår. Eksempelvis er det viktig å være bevisst på at kunstig intelligens manipulerer oss gjennom databaserte anbefalingssystemer. Vi kan være bevisst på at vi blir manipulerte når vi ikke klarer slutte å scrolle.

– Dette er likevel en skjør løsning på et stort problem, understreker hun.

POLITISK ANSVAR: Den nye kompetansen som de nye jobbene vil kreve er ikke noe som oppstår av seg selv, mener Strümke. Å sørge for en bedre omstilling i arbeidslivet er et politisk ansvar, understreker hun.

Politikerne har ansvar for offentlig sektor

Kunnskapsminister Tonje Brenna mener at politikernes ansvar er å levere et godt innhold i skolen.

Tenker du at politikerne har et ansvar for å endre kompetansen i arbeidslivet med de endringene som kommer med kunstig intelligens?

– For private bedrifter vil det gå over ende hvis de ikke henger med, så de må omstille seg. Det politiske ansvaret handler om å levere kompetente medarbeidere som har gått skoleløp hvor de håndterer den digitale virkeligheten de skal ut i, og det mener jeg norsk skole er veldig godt skikka til, mener Brenna. 

– Vi leverer også verdens beste arbeidstakere til offentlig sektor. I offentlig sektor har vi et større politisk ansvar for å sørge for å omstille arbeidstakere.

Brenna forteller at regjeringen derfor har begynt med en stor, ny digital strategi for offentlig sektor. 

– Vi har sagt at vi skal bruke en milliard kroner på forskning på blant annet kunstig intelligens de neste fem årene. For å både ta innover oss hva det betyr, hva det krever av oss og hvilke politiske beslutninger vi må ta, sier Brenna.

I tillegg foregår et tett samarbeid med EU, forteller hun. Fordi kunstig intelligens har en grenseoverskridende natur, er vi helt avhengig av samarbeid, mener hun.

Regulering av kunstig intelligens

Reguleringer vil gi et regelverk for hvordan kunstig intelligens skal utvikles og brukes. I dag lener Norge seg på EU-kommisjonens utvikling av regelverk for KI. Strümke mener vi har kompetanse nok i Norge til å lage egne reguleringer av kunstig intelligens, men vi er allerede for langt bakpå til å skulle begynne med det nå, påstår hun.  

Har du noen tanker om hvorfor Norge er bakpå her?

– Det ene er jo at vi har en regjering med partier som ikke tradisjonelt har vært veldig teknologi-bejaende. Og det forundrer meg, for jeg tenker jo at Arbeiderpartiet har drømmesaken sin her nå.

– Kanskje det bare er litt mangel på… Jeg har ikke lyst til å si kriseforståelse, men mangel på forståelse for hvor viktig dette er nå. 

Deepfakes og desinformasjon

En av Strümkes bekymringer er at det ikke finnes regulering av falskt innhold på nettet. I dag florerer det av falskt innhold, forteller Strümke. Blant annet deepfakes, som er AI-genererte bilder og videoer som fremstår ekte.

– Det er jo megaforbudt å forfalske i den fysiske verden, mens i den digitale verden har det blitt sånn at alle bare sier å nei, nå er det masse falske greier. Men man kunne jo tenkt da at man kunne si at det ikke er lov å forfalske. 

Hadde det vært en løsning å forby digital forfalskning?

– Altså, det er masse utfordringer rundt det. Det ene er jo hvordan skal du regulere noe på internett og i den digitale verden? Hvordan skal du ettergå det her? Skal politiet begynne å forfølge alle sammen som legger ut AI-genererte bilder? 

– Det er veldig mange praktiske utfordringer her. Men det jeg liker veldig dårlig er at vi sier hm, det blir vanskelig, la oss ikke engang diskutere det. Det er trist at vi ikke er i gang med de diskusjonene engang. For det kommer til å bli vanskelig, men det blir ikke noe lettere å la være.

Kunstig intelligens eksisterer ikke i et lovløst rom

Brenna oppfatter ikke behovet for regulering av kunstig intelligens på samme måte som Strümke. 

– Alle opplever nå at utviklingen går fort, uansett hvor mange lovforslag noen legger frem, så føles det likevel som at det går veldig fort, mener Brenna. 

Det vi må huske på, vektlegger hun, er at kunstig intelligens ikke opererer i et lovløst rom. 

– Reglene for personvern, likestilling og diskriminering gjelder. Forbrukerrettighetene dine gjelder også enten de kommer til uttrykk i et digitalt rom eller analogt rom, så vi må ikke heller snakke om kunstig intelligens som noe som skjer på siden av alt annet.

Det finnes jo en del ny utvikling med generativ AI, der det ikke finnes reguleringer. Som for eksempel ved deepfakes og desinformasjon. Hva tenker du om det?

– Nei, og det er åpenbart en del dilemmaer knyttet til dette. For eksempel at veldig mange av de plattformene som brukes for å formidle ting som kanskje ikke er lovlige, de er ikke i Norge, men som nordmenn kan man likevel finne de plattformene gjennom sine digitale verktøy. 

Det at vi bruker sosiale medier som tilhører helt andre steder i verden gjør at samarbeidet med EU og andre land er desto viktigere, påstår Brenna.  

– Og så mener jeg at det understreker en veldig viktig ting; nemlig at vi må lære barna våre å tenke kritisk, og vi som voksne må fortsette å tenke kritisk, og tenke gjennom: er det jeg ser sant? Og gjøre hverandre i stand til å tyde og tenke kritisk om informasjonen vi får.

Hva vil dere gjøre for å hindre at det havner for mye ansvar på enkeltindividet?

– Jeg tror det viktigste vi gjør alle sammen, det er når vi scroller oss ned og godtar et eller annet premiss for å logge inn et sted, så må vi vite hva vi har lest. Det tror jeg nesten ingen av oss kan ha samvittighet på, at vi faktisk leser hva vi godtar. Det er jo liksom regel nummer en for oss alle.