
(+) – Chatboter kan påvirke psyken vår
Vi bør gjøre det ulovlig at datamaskiner har et «jeg», mener KI-forsker Inga Strümke.
Kunstig intelligens bringer med seg en rekke nye utfordringer vi aldri har vært borti før og som vi enda ikke vet hvordan vi skal løse, forteller førsteamanuensis og forsker innen kunstig intelligens ved Norwegian Open AI Lab på NTNU, Inga Strümke. Det haster aller mest å forby manipulativt design, vektlegger hun. At maskiner kan snakke om seg selv i førsteperson og fremstår som om de har en egen identitet, kan ha store konsekvenser for vår menneskelige psyke.
Les også: – Å legge ansvaret på individet er en skjør løsning på et stort problem – ALTSÅ
– My AI i Snapchat lyver jo så det renner
Det som haster aller mest å gjøre noe med, mener Strümke, er det som kalles for manipulativt design. Her er hun spesielt opptatt av hvordan chatboter, det vil si dataprogrammer som mennesker kan stille spørsmål til og føre samtaler med, utvikles og fremstår som individer med en egen identitet.
– Jeg mener at chatboter utvikles med et veldig manipulativt design. For eksempel MyAI i Snapchat lyver jo så det renner. Den sier ting som jeg har det bra. Hele setningen er en løgn, hvert ord i den setningen er en løgn. Den kan ikke ha det bra eller dårlig, det er et jævla dataprogram, sier hun.
– Den har ikke en identitet, det er ikke en aktør, den har ikke et «jeg».
Chatboter som MyAI i Snapchat finnes av to grunner, mener Strümke. Nummer en er å gjøre Snapchat morsommere slik at unge mennesker blir enda mer vant til å bruke Snapchat og henter det frem hver gang de kjeder seg. Og nummer to er for etter hvert å selge oss produkter. Strümke hevder derfor at designet er hundre prosent manipulativt.
– Jeg synes ikke at det burde være lov for datamaskiner å omtale seg selv i førsteperson.
Har ikke forsvarsmekanismene vi trenger
Vi mennesker opplever at noen som fører et godt språk, har en høy grad av bevissthet, mener Strümke. Det at maskiner behersker språk like godt som mennesker, er villedende i seg selv.
– Vi har ikke de forsvarsmekanismene vi trenger. Det er ikke alle som forstår hva en chatbot er, og da mener jeg kanskje man rett og slett må beskyttes mot manipulativt design.
Hvilke konsekvenser kan det ha?
– Vi så et eksempel på det i vår allerede. Den belgiske avisen La Libre skrev om en mann som hadde tatt selvmord etter å ha snakket med en chatbot. Hans enke viste chat-logger til avisa, og du kan langt på vei konkludere med at hadde han ikke snakket med den chatboten, så hadde han ikke tatt selvmord.
Hva er det første vi burde ha gjort?
– Å forby at datamaskiner snakker om seg selv, som de hadde et “jeg”.
Dette er ingen ny og banebrytende tanke, forteller Strümke. Slike lover finnes fra før – det er for eksempel ikke lov å nudge folk i ulike retninger ved å gjøre ja, jeg aksepterer-knappen større enn nei, jeg aksepterer ikke-knappen.
Maskiner som lager kunst, musikk og tekst
Når det gjelder kunstig intelligens, tror hun også at folk flest vil merke generativ AI. Dette er programmer som lager tekst, bilde, video og lyd – inkludert musikk og tale – fra bunnen, basert på data de er trent med. I sommer så vi et eksempel på dette, der influencer Oskar Westerlin lanserte en AI-generert versjon av låten Josefin av Albin Lee Meldau, og som nådde førsteplass på den norske Spotify-lista. Uten å ha sunget i det hele tatt, er det likevel stemmen til Westerlin vi hører.
– Det er helt sinnsykt hvor fort den utviklingen har gått. I fjor høst så jeg liksom det første programmet der jeg tenkte jøss, nå er vi inne på noe. Og nå finnes det ekstremt mange verktøy der du kan gå inn og skrive hva slags musikk du vil høre på, hvilken artist som skal synge hvilken sang, og så bare lages det på bestilling. Så det vil overraske meg om for eksempel ikke Spotify er nødt til å ta stilling til noen greier der fremover.
Utfordrende caser fremover
Strümke forteller oss at å skille tekst, bilde, video og musikk som er maskinskapte fra menneskeskapte nesten allerede er umulig. Og utfordringene som følger med er mange. Hvem skal for eksempel ha opphavsrett til AI-generert musikk eller AI-generert kunst?
– Det er et veldig interessant spørsmål, for det går ikke an å snakke om at et dataprogram har laget noe, for dataprogrammer kan ikke være avsendere eller aktører. Dataprogrammer er ikke etterrettelige. Så spørsmålet er hvilket menneske eller instans dataprogrammet har hentet det skapte fra.
Strümke forteller at utfordringen her er at slike programmer er trent med enorme mengder data. Hvis opphavet til kunst eller musikk som er laget med AI skal plasseres i dataene som programmene er trent på, må det muligens fordeles på en million forskjellige skapere.
– En milliondelt opphav er veldig vanskelig å se for seg at man skal klare å forvalte, mener Strümke.
– Jeg tror vi kommer til å få mange utfordrende caser fremover, som jeg håper vi kan lage en eller annen instans, et apparat eller tilsyn, som kan håndtere på en sånn måte at vi klarer å stimulere til en god utvikling.

En digital verden fylt av forfalsket innhold
En annen utfordring som følger generativ AI er deepfakes, det vil si falske bilder og videoer som lages av kunstig intelligens og som fremstår realistiske. Mens i den fysiske verden er forfalskninger forbudt, vektlegger Strümke.
Helt nylig har vi sett eksempler på bruk av deepfakes i sosiale medier, der det sirkulerte en falsk video av verdens største Youtuber, MrBeast, på TikTok som hevder å gi bort gratis iPhones, hvor målet er å svindle folk for penger, melder BBC. Vi så også et eksempel på hvordan deepfakes kan brukes som desinformasjon da en falsk video av President Zelensky som deklarerte at ukrainere skulle overgi seg, sirkulerte i sosiale medier i fjor. Utfordringen er at videoene ser tilnærmet ekte ut, og skal vi tro ekspertene vil denne teknologien bare bli bedre og mer virkelighetsnær.
Mer kritiske til digitalt innhold
Hvordan skal vi vite at vi blir sannferdig informert?
– Det kan vi ikke vite.
Blir kritisk tenkning en viktigere egenskap for fremtiden?
– Helt enormt. Vi kan ikke stole på at noe digitalt innhold er sannferdig lenger, med mindre du kan verifisere avsenderen og avsenderen går god for det.
Strümke håper likevel at dette er en velsignelse i forkledning. Hun håper vissheten om at den digitale verden er fylt med forfalsket innhold vil fungere som et insentiv til å være enda mer kildekritisk.
– Siden vi nå vet at det er kjempeenkelt å svindle og villede hverandre, og at vi blir littegranne mer på vakt, tenker jeg at det kan motivere oss til å trene på å bruke den kritiske sansen vår mer. Risikoen er så klart at folk ikke blir mer kritiske og samtidig lettere å lure.
Her kan våre menneskelige egenskaper også jobbe mot oss, erkjenner Strümke. Vi kan både bli late og ledes av det som kalles bekreftelsestendens eller confirmation bias på engelsk, en tendens til å legge merke til eller oppsøke informasjon som bekrefter vårt eget verdensbilde.
– Det er synd at det er mye lettere å ikke tenke kritisk.
Avgjørelser vi ikke tar
De yngste generasjonene er som regel de største konsumentene og de første som tar i bruk ny teknologi. Samtidig er det også de som har hatt minst tid til å utvikle den kritiske evnen, vedkjenner Strümke.
Hun forteller at vi enda ikke vet hvordan vi skal håndtere integreringen av kunstig intelligens i skolen, og det er allerede mange elever som har tatt det i bruk. Vi må finne en måte å gjennomføre det på, hevder hun. Det at vi enda ikke har bestemt oss for hvordan vi skal løse det og at vi heller ikke har tatt diskusjonen om problemene kunstig intelligens medfører, kaller Strümke for bemerkelsesverdig.
Hva tenker du er farlig med det?
– Det er jo et gigantisk sosialt eksperiment. Det å ikke ta en avgjørelse er også en avgjørelse, å bare la det flyte. Det er også en avgjørelse fordi tiden fortsetter å gå, utviklingen går, folk fortsetter å bli påvirket.
I september annonserte regjeringen at de vil øke forskningsinnsatsen på kunstig intelligens med minst én milliard kroner de neste fem årene. Et av fokusområdene vil være hvordan kunstig intelligens påvirker samfunnet, og her er lovreguleringer, undervisning og læring sentrale tema, skriver de. Strümke mener det haster at regjeringen tar tak i de nye utfordringene kunstig intelligens bidrar med.
– Hvis vi ikke har denne diskusjonen, er det potensielt en hel generasjon som vokser opp under avgjørelser vi ikke tar, understreker hun.