Stikkord: Kunstig intelligens
(+) – Chatboter kan påvirke psyken vår
Vi bør gjøre det ulovlig at datamaskiner har et «jeg», mener KI-forsker Inga Strümke.
Kunstig intelligens bringer med seg en rekke nye utfordringer vi aldri har vært borti før og som vi enda ikke vet hvordan vi skal løse, forteller førsteamanuensis og forsker innen kunstig intelligens ved Norwegian Open AI Lab på NTNU, Inga Strümke. Det haster aller mest å forby manipulativt design, vektlegger hun. At maskiner kan snakke om seg selv i førsteperson og fremstår som om de har en egen identitet, kan ha store konsekvenser for vår menneskelige psyke.
Les også: – Å legge ansvaret på individet er en skjør løsning på et stort problem – ALTSÅ
– My AI i Snapchat lyver jo så det renner
Det som haster aller mest å gjøre noe med, mener Strümke, er det som kalles for manipulativt design. Her er hun spesielt opptatt av hvordan chatboter, det vil si dataprogrammer som mennesker kan stille spørsmål til og føre samtaler med, utvikles og fremstår som individer med en egen identitet.
– Jeg mener at chatboter utvikles med et veldig manipulativt design. For eksempel MyAI i Snapchat lyver jo så det renner. Den sier ting som jeg har det bra. Hele setningen er en løgn, hvert ord i den setningen er en løgn. Den kan ikke ha det bra eller dårlig, det er et jævla dataprogram, sier hun.
– Den har ikke en identitet, det er ikke en aktør, den har ikke et «jeg».
Chatboter som MyAI i Snapchat finnes av to grunner, mener Strümke. Nummer en er å gjøre Snapchat morsommere slik at unge mennesker blir enda mer vant til å bruke Snapchat og henter det frem hver gang de kjeder seg. Og nummer to er for etter hvert å selge oss produkter. Strümke hevder derfor at designet er hundre prosent manipulativt.
– Jeg synes ikke at det burde være lov for datamaskiner å omtale seg selv i førsteperson.
Har ikke forsvarsmekanismene vi trenger
Vi mennesker opplever at noen som fører et godt språk, har en høy grad av bevissthet, mener Strümke. Det at maskiner behersker språk like godt som mennesker, er villedende i seg selv.
– Vi har ikke de forsvarsmekanismene vi trenger. Det er ikke alle som forstår hva en chatbot er, og da mener jeg kanskje man rett og slett må beskyttes mot manipulativt design.
Hvilke konsekvenser kan det ha?
– Vi så et eksempel på det i vår allerede. Den belgiske avisen La Libre skrev om en mann som hadde tatt selvmord etter å ha snakket med en chatbot. Hans enke viste chat-logger til avisa, og du kan langt på vei konkludere med at hadde han ikke snakket med den chatboten, så hadde han ikke tatt selvmord.
Hva er det første vi burde ha gjort?
– Å forby at datamaskiner snakker om seg selv, som de hadde et “jeg”.
Dette er ingen ny og banebrytende tanke, forteller Strümke. Slike lover finnes fra før – det er for eksempel ikke lov å nudge folk i ulike retninger ved å gjøre ja, jeg aksepterer-knappen større enn nei, jeg aksepterer ikke-knappen.
Maskiner som lager kunst, musikk og tekst
Når det gjelder kunstig intelligens, tror hun også at folk flest vil merke generativ AI. Dette er programmer som lager tekst, bilde, video og lyd – inkludert musikk og tale – fra bunnen, basert på data de er trent med. I sommer så vi et eksempel på dette, der influencer Oskar Westerlin lanserte en AI-generert versjon av låten Josefin av Albin Lee Meldau, og som nådde førsteplass på den norske Spotify-lista. Uten å ha sunget i det hele tatt, er det likevel stemmen til Westerlin vi hører.
– Det er helt sinnsykt hvor fort den utviklingen har gått. I fjor høst så jeg liksom det første programmet der jeg tenkte jøss, nå er vi inne på noe. Og nå finnes det ekstremt mange verktøy der du kan gå inn og skrive hva slags musikk du vil høre på, hvilken artist som skal synge hvilken sang, og så bare lages det på bestilling. Så det vil overraske meg om for eksempel ikke Spotify er nødt til å ta stilling til noen greier der fremover.
Utfordrende caser fremover
Strümke forteller oss at å skille tekst, bilde, video og musikk som er maskinskapte fra menneskeskapte nesten allerede er umulig. Og utfordringene som følger med er mange. Hvem skal for eksempel ha opphavsrett til AI-generert musikk eller AI-generert kunst?
– Det er et veldig interessant spørsmål, for det går ikke an å snakke om at et dataprogram har laget noe, for dataprogrammer kan ikke være avsendere eller aktører. Dataprogrammer er ikke etterrettelige. Så spørsmålet er hvilket menneske eller instans dataprogrammet har hentet det skapte fra.
Strümke forteller at utfordringen her er at slike programmer er trent med enorme mengder data. Hvis opphavet til kunst eller musikk som er laget med AI skal plasseres i dataene som programmene er trent på, må det muligens fordeles på en million forskjellige skapere.
– En milliondelt opphav er veldig vanskelig å se for seg at man skal klare å forvalte, mener Strümke.
– Jeg tror vi kommer til å få mange utfordrende caser fremover, som jeg håper vi kan lage en eller annen instans, et apparat eller tilsyn, som kan håndtere på en sånn måte at vi klarer å stimulere til en god utvikling.

En digital verden fylt av forfalsket innhold
En annen utfordring som følger generativ AI er deepfakes, det vil si falske bilder og videoer som lages av kunstig intelligens og som fremstår realistiske. Mens i den fysiske verden er forfalskninger forbudt, vektlegger Strümke.
Helt nylig har vi sett eksempler på bruk av deepfakes i sosiale medier, der det sirkulerte en falsk video av verdens største Youtuber, MrBeast, på TikTok som hevder å gi bort gratis iPhones, hvor målet er å svindle folk for penger, melder BBC. Vi så også et eksempel på hvordan deepfakes kan brukes som desinformasjon da en falsk video av President Zelensky som deklarerte at ukrainere skulle overgi seg, sirkulerte i sosiale medier i fjor. Utfordringen er at videoene ser tilnærmet ekte ut, og skal vi tro ekspertene vil denne teknologien bare bli bedre og mer virkelighetsnær.
Mer kritiske til digitalt innhold
Hvordan skal vi vite at vi blir sannferdig informert?
– Det kan vi ikke vite.
Blir kritisk tenkning en viktigere egenskap for fremtiden?
– Helt enormt. Vi kan ikke stole på at noe digitalt innhold er sannferdig lenger, med mindre du kan verifisere avsenderen og avsenderen går god for det.
Strümke håper likevel at dette er en velsignelse i forkledning. Hun håper vissheten om at den digitale verden er fylt med forfalsket innhold vil fungere som et insentiv til å være enda mer kildekritisk.
– Siden vi nå vet at det er kjempeenkelt å svindle og villede hverandre, og at vi blir littegranne mer på vakt, tenker jeg at det kan motivere oss til å trene på å bruke den kritiske sansen vår mer. Risikoen er så klart at folk ikke blir mer kritiske og samtidig lettere å lure.
Her kan våre menneskelige egenskaper også jobbe mot oss, erkjenner Strümke. Vi kan både bli late og ledes av det som kalles bekreftelsestendens eller confirmation bias på engelsk, en tendens til å legge merke til eller oppsøke informasjon som bekrefter vårt eget verdensbilde.
– Det er synd at det er mye lettere å ikke tenke kritisk.
Avgjørelser vi ikke tar
De yngste generasjonene er som regel de største konsumentene og de første som tar i bruk ny teknologi. Samtidig er det også de som har hatt minst tid til å utvikle den kritiske evnen, vedkjenner Strümke.
Hun forteller at vi enda ikke vet hvordan vi skal håndtere integreringen av kunstig intelligens i skolen, og det er allerede mange elever som har tatt det i bruk. Vi må finne en måte å gjennomføre det på, hevder hun. Det at vi enda ikke har bestemt oss for hvordan vi skal løse det og at vi heller ikke har tatt diskusjonen om problemene kunstig intelligens medfører, kaller Strümke for bemerkelsesverdig.
Hva tenker du er farlig med det?
– Det er jo et gigantisk sosialt eksperiment. Det å ikke ta en avgjørelse er også en avgjørelse, å bare la det flyte. Det er også en avgjørelse fordi tiden fortsetter å gå, utviklingen går, folk fortsetter å bli påvirket.
I september annonserte regjeringen at de vil øke forskningsinnsatsen på kunstig intelligens med minst én milliard kroner de neste fem årene. Et av fokusområdene vil være hvordan kunstig intelligens påvirker samfunnet, og her er lovreguleringer, undervisning og læring sentrale tema, skriver de. Strümke mener det haster at regjeringen tar tak i de nye utfordringene kunstig intelligens bidrar med.
– Hvis vi ikke har denne diskusjonen, er det potensielt en hel generasjon som vokser opp under avgjørelser vi ikke tar, understreker hun.
– Å legge ansvaret på individet er en skjør løsning på et stort problem
Hvordan vil Arbeiderpartiet redde jobbene når kunstig intelligens får innpass på norske arbeidsplasser? Det spør KI-forsker Inga Strümke. Nestleder i Arbeiderpartiet, Tonje Brenna, mener at norske arbeidstakere allerede er i gang med omstillingen.
En stor undersøkelse viser at hele 49 prosent er bekymret for at kunstig intelligens vil ta over jobbene deres. Førsteamanuensis og forsker innen kunstig intelligens ved Norwegian Open AI Lab på NTNU, Inga Strümke, spør hva som Arbeiderpartiets politikk er for å redde arbeidsplasser.
– De aller fleste som sier at de er skeptiske til kunstig intelligens, sier at de er redde for å miste jobben. Hvis ikke det her er en sak som snakker rett til Arbeiderpartiet sin kjernepolitikk, så vet ikke jeg, sier Strümke og understreker at ansvaret for å omstille seg i arbeidslivet ikke hører hjemme på individnivå, men bør være et politisk ansvar.
– Vi omstiller oss hele tiden
Nestleder i Arbeiderpartiet og kunnskapsminister Tonje Brenna mener norsk arbeidsliv er godt i gang med den omstillingen Strümke etterlyser.
– Det som ofte skjer når vi snakker om omstilling, er at vi sier at vi må begynne med det. Men sannheten er at norsk arbeidsliv og norske arbeidstakere har omstilt seg hver eneste dag i veldig mange år allerede, mener Brenna.
Kunnskapsministeren anerkjenner at kunstig intelligens vil påvirke arbeidslivet på en annen måte enn før, og at vi vil stå overfor nye typer endringer enn det vi har erfart tidligere, men også dette kommer vi til å klare, mener hun.
Har Arbeiderpartiet noen konkrete tiltak for å ivareta arbeidstakere i de endringene som kommer i arbeidsmarkedet med kunstig intelligens?
– Vi vet at KI vil bety omstilling for mange arbeidstakere, og nettopp for å ruste oss for dette legger regjeringen nå frem en egen KI-milliard. Sammen med partene i arbeidslivet skal vi bruke denne til å få bedre kunnskap og forskning, og dette vil også føre til mer kompetanse i arbeidslivet.

Gode forutsetninger
Brenna vektlegger viktigheten av det tette samarbeidet mellom myndigheter, arbeidslivets parter, næringsliv og utdanningsinstitusjoner. Det er dette samarbeidet vi må bruke godt i omstillingen, mener hun. Etter hennes mening gjør dette samarbeidet at vi har verdens beste forutsetning for å takle endringene som kommer.
Her er også utdanningssystemet et viktig ledd, mener Brenna, og forteller at det oppdateres hele tiden i tråd med de nye teknologiske endringene og ny utvikling.
– På mitt felt jobber vi mye med digitalisering av skolen. Der er jo partene inne og diskuterer med oss, da inviterer jeg som kunnskapsminister kommunene, lærerorganisasjonene, skoleforbundet, ulike interessenter, forskere, de som jobber på høyskole og universitet, og så sammen diskuterer vi hvordan vi håndterer den nye teknologien inn i skolen. Så dette gjør vi hver eneste dag allerede.
Nye jobber krever ny kompetanse
KI-forsker Strümke ser imidlertid ikke noe til at den kompetansen som vil kreves for de nye jobbene som vil oppstå, er underveis.
– Ja, det kommer til å oppstå nye jobber, men det betyr jo ikke at den nye kompetansen til de nye jobbene bare oppstår.
Under den første industrielle revolusjonen, da vevemaskinene kom, måtte arbeiderne flytte tilbake til bygda. Vi trengte ikke lenger mennesker til å veve, forteller hun.
– Hva er tilsvarende situasjon nå? Hvordan ivaretar vi disse menneskene? spør Strümke.
Er det noe vi kan gjøre som enkeltpersoner for å være mer rustet i jobbmarkedet?
– Jeg mener at ansvaret ikke hører hjemme på individnivået i det hele tatt. Ingen enkeltpersoner kan for eksempel løse klimakrisen. Kjøttbransjen er jo det mest uetiske vi noen gang har skapt. Det at enkeltpersoner bestemmer seg for å spise mindre kjøtt, er en veldig lite koordinert, lite robust måte å løse det på.
Når ansvaret først havner på individnivå, slik som nå, mener Strümke at det viktigste vi gjør er å skjønne hva som foregår. Eksempelvis er det viktig å være bevisst på at kunstig intelligens manipulerer oss gjennom databaserte anbefalingssystemer. Vi kan være bevisst på at vi blir manipulerte når vi ikke klarer slutte å scrolle.
– Dette er likevel en skjør løsning på et stort problem, understreker hun.

Politikerne har ansvar for offentlig sektor
Kunnskapsminister Tonje Brenna mener at politikernes ansvar er å levere et godt innhold i skolen.
Tenker du at politikerne har et ansvar for å endre kompetansen i arbeidslivet med de endringene som kommer med kunstig intelligens?
– For private bedrifter vil det gå over ende hvis de ikke henger med, så de må omstille seg. Det politiske ansvaret handler om å levere kompetente medarbeidere som har gått skoleløp hvor de håndterer den digitale virkeligheten de skal ut i, og det mener jeg norsk skole er veldig godt skikka til, mener Brenna.
– Vi leverer også verdens beste arbeidstakere til offentlig sektor. I offentlig sektor har vi et større politisk ansvar for å sørge for å omstille arbeidstakere.
Brenna forteller at regjeringen derfor har begynt med en stor, ny digital strategi for offentlig sektor.
– Vi har sagt at vi skal bruke en milliard kroner på forskning på blant annet kunstig intelligens de neste fem årene. For å både ta innover oss hva det betyr, hva det krever av oss og hvilke politiske beslutninger vi må ta, sier Brenna.
I tillegg foregår et tett samarbeid med EU, forteller hun. Fordi kunstig intelligens har en grenseoverskridende natur, er vi helt avhengig av samarbeid, mener hun.
Regulering av kunstig intelligens
Reguleringer vil gi et regelverk for hvordan kunstig intelligens skal utvikles og brukes. I dag lener Norge seg på EU-kommisjonens utvikling av regelverk for KI. Strümke mener vi har kompetanse nok i Norge til å lage egne reguleringer av kunstig intelligens, men vi er allerede for langt bakpå til å skulle begynne med det nå, påstår hun.
Har du noen tanker om hvorfor Norge er bakpå her?
– Det ene er jo at vi har en regjering med partier som ikke tradisjonelt har vært veldig teknologi-bejaende. Og det forundrer meg, for jeg tenker jo at Arbeiderpartiet har drømmesaken sin her nå.
– Kanskje det bare er litt mangel på… Jeg har ikke lyst til å si kriseforståelse, men mangel på forståelse for hvor viktig dette er nå.
Deepfakes og desinformasjon
En av Strümkes bekymringer er at det ikke finnes regulering av falskt innhold på nettet. I dag florerer det av falskt innhold, forteller Strümke. Blant annet deepfakes, som er AI-genererte bilder og videoer som fremstår ekte.
– Det er jo megaforbudt å forfalske i den fysiske verden, mens i den digitale verden har det blitt sånn at alle bare sier å nei, nå er det masse falske greier. Men man kunne jo tenkt da at man kunne si at det ikke er lov å forfalske.
Hadde det vært en løsning å forby digital forfalskning?
– Altså, det er masse utfordringer rundt det. Det ene er jo hvordan skal du regulere noe på internett og i den digitale verden? Hvordan skal du ettergå det her? Skal politiet begynne å forfølge alle sammen som legger ut AI-genererte bilder?
– Det er veldig mange praktiske utfordringer her. Men det jeg liker veldig dårlig er at vi sier hm, det blir vanskelig, la oss ikke engang diskutere det. Det er trist at vi ikke er i gang med de diskusjonene engang. For det kommer til å bli vanskelig, men det blir ikke noe lettere å la være.
Kunstig intelligens eksisterer ikke i et lovløst rom
Brenna oppfatter ikke behovet for regulering av kunstig intelligens på samme måte som Strümke.
– Alle opplever nå at utviklingen går fort, uansett hvor mange lovforslag noen legger frem, så føles det likevel som at det går veldig fort, mener Brenna.
Det vi må huske på, vektlegger hun, er at kunstig intelligens ikke opererer i et lovløst rom.
– Reglene for personvern, likestilling og diskriminering gjelder. Forbrukerrettighetene dine gjelder også enten de kommer til uttrykk i et digitalt rom eller analogt rom, så vi må ikke heller snakke om kunstig intelligens som noe som skjer på siden av alt annet.
Det finnes jo en del ny utvikling med generativ AI, der det ikke finnes reguleringer. Som for eksempel ved deepfakes og desinformasjon. Hva tenker du om det?
– Nei, og det er åpenbart en del dilemmaer knyttet til dette. For eksempel at veldig mange av de plattformene som brukes for å formidle ting som kanskje ikke er lovlige, de er ikke i Norge, men som nordmenn kan man likevel finne de plattformene gjennom sine digitale verktøy.
Det at vi bruker sosiale medier som tilhører helt andre steder i verden gjør at samarbeidet med EU og andre land er desto viktigere, påstår Brenna.
– Og så mener jeg at det understreker en veldig viktig ting; nemlig at vi må lære barna våre å tenke kritisk, og vi som voksne må fortsette å tenke kritisk, og tenke gjennom: er det jeg ser sant? Og gjøre hverandre i stand til å tyde og tenke kritisk om informasjonen vi får.
Hva vil dere gjøre for å hindre at det havner for mye ansvar på enkeltindividet?
– Jeg tror det viktigste vi gjør alle sammen, det er når vi scroller oss ned og godtar et eller annet premiss for å logge inn et sted, så må vi vite hva vi har lest. Det tror jeg nesten ingen av oss kan ha samvittighet på, at vi faktisk leser hva vi godtar. Det er jo liksom regel nummer en for oss alle.
(+) Algoritmene som sender folk i fengsel
Kunstig intelligens har allerede begynt å endre hvordan det amerikanske rettssystemet fungerer.
Det er en kjent sak at en svart person oftere blir kjent skyldig enn en hvit person i amerikanske domstoler. Amerikanske dommere har i mange år allerede brukt et system som heter COMPAS til å sortere store datamengder, og beregne hvor sannsynlig det er at en domfelt kommer til å begå nye kriminelle handlinger. Denne beregningen blir ofte lagt til grunn når en dommer skal fastsette straffen. Er det stor sannsynlighet for gjentagelse, blir straffen lengre.
Datamengdene som ligger til grunn for beregningene til COMPAS er basert på tidligere dommer i USA.
Svart kvinne, hvit mann
Systemet fungerer slik at det gir tiltalte i rettssaker en score som sier noe om hva som er sannsynligheten for at vedkommende blir en kriminell gjenganger, ifølge The Brink. En undersøkelse av den ideelle organisasjonen ProPublica viser at to tilsvarende saker ga totalt ulik risikoscore der den viktige markøren var hudfarge. 18 år gamle Brisha Borden, som er svart, ble i 2013 arrestert for et tyveri til en verdi av 80 dollar. Hennes rulleblad viste forseelser, det vil si mindre lovbrudd. 41 år gamle Vernon Prater, som er hvit, ble året før arrestert for tyveri av 86 dollar. Hans rulleblad bestod av væpnet ran og forsøk på væpnet ran som han hadde sonet en dom på fem år for. I tillegg hadde han enda en tiltale mot seg for væpnet ran. Til tross for at den svarte kvinnen bare hadde mindre forseelser på rullebladet og den hvite mannen hadde flere tilfeller av grov kriminalitet, regnet COMPAS ut at den svarte kvinnen hadde en risikoscore på åtte. Det vil si at COMPAS vurderte henne til å være i høyrisikogruppen for å begå nye lovbrudd. Den hvite mannen fikk en risikoscore på tre og ble ansett som lavrisiko. To år senere viste det seg at COMPAS tok feil – den svarte kvinnen hadde ikke begått nye lovbrudd, den hvite mannen sonet en dom på åtte år for innbrudd og tyveri.
Undersøkelsen til ProPublica viser at systemet spår feil risikofaktor to ganger så ofte for svarte mennesker som for hvite, og at hvite mennesker oftere blir feilmerket som lavrisiko enn svarte. Slik kan algoritmene ha innvirkning på amerikanske borgere sine liv, skriver organisasjonen.
Kjønnsdiskriminerende algoritmer
Jusstudent ved Harvard Law og programutvikler Ellora Thadaney Israni skriver i New York Times at også kjønn kan spille inn i algoritmene sine avgjørelser. Hun forteller om en mann ved navn Eric Loomis som i 2013 hadde begått en forbrytelse som normalt ikke ville gi fengselsstraff. Ifølge Aftenposten, som omtalte saken i 2016, hadde han kjørt en stjålet bil og stukket av fra politiet. Han fikk en dom på elleve år, der han måtte sone i fengsel i seks av disse. Dommeren viste til COMPAS sin utregning av Loomis sin risikofaktor for å begå nye lovbrudd som en del av grunnlaget for avgjørelsen. Loomis mente kjønnet hans ble brukt som en del av algoritmene, og utfordret retten på dette. Han mente dette var brudd på hans rett til å bli dømt individuelt og uavhengig av faktorer som kjønn. Loomis fikk ikke innsikt i algoritmenes begrunnelse – de er hemmelige. Søksmålet hans om urettferdig behandling basert på kjønn ble avvist av Wisconsins høyesterett i 2016. Retten besluttet den gangen at det ikke var brudd på hans rettigheter så lenge dommeren stoler på algoritmene som ligger til grunn. Tvert imot sa retten at hvis algoritmene brukte kjønnet hans som en del av begrunnelsen for å vurdere framtidig risiko, ga det en mer presis risikovurdering, og var derfor ikke kjønnsdiskriminerende.
– Vi lærer maskinene våre fordommer og de speiler ikke bare våre skjevheter, men forverrer dem, skriver Israni.
(+) – Aldri i livet om Andrew Tate hadde fått den oppmerksomheten han har i dag for tyve år siden
Kunstig intelligens forsterker motsetninger. Dette er en av professor Morten Goodwins største bekymringer med den nye teknologien.
TEMA KUNSTIG INTELLIGENS: Tre eksperter om sine fem største bekymringer knyttet til kunstig intelligens.
I dag: Morten Goodwin
LES OGSÅ: (+) De som bruker AI, vinner kampen om jobbene i framtida – ALTSÅ
Professor i kunstig intelligens ved Universitetet i Agder og nestleder for Centre for Artificial Intelligence Research, Morten Goodwin, mener vi må skjerpe vår kritiske sans fremover. Kunstig intelligente systemer (KI), som ChatGPT, blir primært trent på data fra USA, og algoritmene som mater oss med tilrettelagt innhold kommer med en pris. Vår evne til kritisk tenkning blir en desto viktigere egenskap for fremtiden, understreker han.
Her er hans fem største bekymringer knyttet til kunstig intelligens:
1. De som kontrollerer teknologien
Er det en ting vi skal bekymre oss for, er det hvem som står bak og kontrollerer teknologien vi bruker, mener Goodwin. Han forteller at ChatGPT, en kunstig intelligent teknologi som kan lage tekst basert på vår etterspørsel, hovedsakelig er trent på data fra Vesten og USA.
– Skal vi bruke teknologi som ChatGPT som forfattere eller journalister, så er det den amerikanske kulturen som strømmer gjennom.
Teknologien som raskt blir en større del av vår hverdag, inneholder dermed verdier og en kultur som ikke samsvarer med vår egen. Goodwin forteller at ettersom ChatGPT er styrt med regler fra USA, så vil det sette en begrensing for hva vi kan spørre den om. Stiller vi for eksempel ChatGPT spørsmål om politiske temaer som er betente i USA, som for eksempel rasisme, vil vi få opp advarsler, og svarene vil være preget av hvordan temaet oppfattes i det amerikanske samfunnet, sier han.
– Og spør vi ChatGPT om middagstips, vil vi hovedsakelig få opp amerikanske middager.
Hvorfor er det en bekymring at én kultur ligger til grunn?
– Når én kultur strømmer gjennom, kan det bety tap av kulturmangfold og en homogenisering av en global kultur hvor unike kulturelle trekk blir utvannet eller forsvinner. Kultur, språk, og normer er tett knyttet sammen, og når én kultur dominerer, kan lokale verdier og normer bli erstattet av de som er fremtredende i den dominerende kulturen.
2. Gammel kjønnsstereotypi i ny teknologi
Goodwin sin andre bekymring er diskrimineringen som skjer med kunstig intelligente verktøy. Teknologien kan videreføre sosiale skjevheter, som for eksempel historiske holdninger til kjønn eller etnisiteter. Han forteller at dette er det lett å finne eksempler på, blant annet med ChatGPT.
– Jeg kan spørre ChatGPT om å skrive en historie om mellomleder og en sykepleier på date, så kan du banne på at mellomlederen er en mann og sykepleieren er en kvinne. Ikke fordi det bør være sånn, men fordi dataene den er trent med er sånn.
Ettersom kunstig intelligente systemer trenes på data fra samfunnet vårt, vil den plukke opp at det historisk sett har vært flest mannlige ledere og flest kvinnelige sykepleiere.
– Det er veldig vanskelig for ChatGPT eller annen kunstig intelligens å forstå at dette er en historisk norm som ikke bør være sånn i fremtiden.
3. Autonome våpen i høyteknologisk krigføring
Kunstig intelligens er ikke bare en banebrytende teknologi vi bruker i hverdagen vår, men har også blitt prominent i utviklingen av nye våpen. Goodwin er bekymret over investeringen han ser i våpenteknologien, blant annet av land som Kina og Iran.
– De lager autonome droner som er helt selvstyrte og kan skyte mennesker uten at noen kontrollerer dem. Det betyr at alle terrorister med et mål i sikte, kan lage en drone som et våpen på hjemmekontoret.
– At våpen blir autonomt, at vi som mennesker ikke lenger bestemmer hvem vi skal drepe, men at en robot bestemmer hvem vi skal drepe, er veldig bekymringsverdig.
Terskelen for et menneske å skyte et annet, er ganske høy selv i krig, mener Goodwin. Han er bekymret for hvordan de etiske dilemmaene som mennesker står overfor vil forsvinne i høyteknologisk krigføring.

4. Latskap og mangel på kritisk tenkning
Som professor erfarer Goodwin at studenter bruker kunstig intelligens som ChatGPT i studiene sine. Det er også mange eksempler på dette på grunnskolenivå. Goodwin er ikke bekymret over bruken av kunstig intelligens i skolen, men han er urolig for hvordan den brukes og hva dette gjør med utviklingen av kritisk tenkning.
– Min bekymring her er at vi ikke bruker det riktig som undervisningsmateriell, men at vi bruker det som en hvilepute.
Når man ber kunstig intelligens som ChatGPT lage tekster til innleveringer eller til eksamen, er det evnen til kritisk tenkning Goodwin er bekymret for skal forsvinne.
– Det er veldig enkelt å koble vekk tankeprosessen. Som journalist kan du bare be ChatGPT skrive en artikkel, så får du en ok tekst. Det er mye læring i det å være med på tankeprosessen og skjønne hva som skal skrives – jeg er bekymret for at vi blir late, rett og slett.
I en tid der det florerer av falskt innhold og informasjon i digitale medier, vil kritisk tenkning bli en desto viktigere egenskap for fremtiden. Og å sørge for at vi blir sannferdig informert vil kreve mer av enkeltindividet, understreker Goodwin. Å utvikle vår evne til kritisk tenkning blir derfor en viktigere del av skolegangen.
5. Algoritmer som forsterker det ekstreme
Goodwin er bekymret for algoritmenes påvirkningskraft i en tid der vi konsumerer enorme mengder tilrettelagt innhold, blant annet i sosiale medier. Gjennom algoritmer kan man dyttes i ulike retninger, basert på innholdet man presenteres med.
Er det risiko for at kunstig intelligens er med på å forsterke ekstreme meninger?
– Helt åpenbart. Hvis vi ser på videoer som bekrefter holdninger vi allerede har, og det finnes masse av disse videoene, så blir du mer og mer ekstrem. Jeg vil si at du da kan dyttes til det ekstreme på venstre eller høyre side, eller i hvilken som helst retning, fordi det skaper engasjement i deg.
Med engasjement mener Goodwin det som vekker sterke følelser i oss. Målet til YouTube, TikTok og Instagram er at du skal bli værende der. Det som vekker sterke følelser i oss, gjør at vi engasjerer oss mer. Algoritmene i sosiale medier er derfor styrt av engasjement – kommentarer som vekker sterkest engasjement vil derfor ligge øverst under innlegg i sosiale medier.
– Det kan bety at du får opp hvem som er mest motstandere av utspillet, for eksempel. Og det er jo derfor klimaskeptikere som maser mye i sosiale medier blir synlige, for det skaper litt mer engasjement å være klimaskeptiker enn en som er enig i klimautfordringene.
Så når sånne som Andrew Tate publiserer ekstreme meninger, kan det da potensielt få veldig stor rekkevidde fordi det vekker sterke følelser?
– Ja, siden det vekker sterke følelser så ser folk på det. Når han eller andre presenterer noe ekstremt, så skaper det engasjement, og kunstig intelligens er med på å få det til å blomstre opp. Så aldri i livet om Andrew Tate hadde fått den oppmerksomheten han har i dag for tyve år siden, før sosiale medier og før kunstig intelligens.
– Mange unge vet ikke hvor de selv begynner og TikTok slutter
Hun var frisør, men begynte å studere teknologi for å beskytte det menneskelige i en algoritmestyrt verden.
Dette er et debattinnlegg. Teksten gir uttrykk for forfatterens meninger. Hvis du ønsker å delta i debatten, kan du sende oss e-post på redaktor@xn--alts-toa.no.
Jeg begynte å jobbe i frisørsalong som ryddehjelp da jeg var 16 år. Jeg sniklyttet til samtalene frisørene hadde med alle kundene. For å bli frisør selv, måtte jeg naturligvis lære meg å klippe hår. Men jeg vil si den viktigste ferdigheten som frisør er å se mennesker. Forstå det usagte og kjenne på veien inn til akkurat dette mennesket. Jeg tror alle som har vært hos frisøren, vil være enig i at uten kjemi mellom deg og frisøren, spiller det ikke noen rolle hvor kledelig og god klippen var – du kommer sannsynligvis ikke tilbake.
Ville lære mer
Jeg har alltid vært glad i å observere, analysere, se mønstre og forstå sammenhenger. Derfor kjente jeg en trang til å lære noe nytt etter å ha jobbet som frisør i noen år.
Jeg begynte med å ta studiespesialiserende og ulike realfag slik at jeg hadde alle muligheter åpne.
I 2016 ble jeg forelsket i triologien til forfatteren og historikeren Yuval Noah Harari. Boken Homo deus. En kort historie om i morgen ble en åpenbaring. Jeg som er så glad i ekte menneskemøter, syntes det var urovekkende lesning da han skrev at den teknologiske utviklingen vil føre til at menneskeheten slik vi kjenner den i dag, vil slutte å eksistere. Spesielt ordet ALGORITMER skremte vettet av meg. Vil disse algoritmene føre til at vi mister vår identitet og evnen til empati? Disse tankene fikk meg etter hvert til å tenke at jeg skulle studere informatikk!
Bratt læringskurve
Jeg begynte å studere på universitetet i Bergen ved Institutt for informatikk høsten 2020. Pandemihøsten. Mine datakunnskaper før det var å opprette mapper på skrivebordet og legge Word-dokumenter inn i disse. Nå skulle jeg altså lære meg databasehåndtering, programmering, operativsystem og programvaresikkerhet, for å nevne noe. Denne høsten satt jeg hjemme alene i stuen som et fortvilet spørsmålstegn. Læringskurven har vært bratt, for å si det mildt.
Heldigvis kunne vi etter hvert returnere til fysiske forelesninger og møte andre medstudenter på lesesalen. Men selv ikke dette var bare-bare for en frisør som var ti år eldre enn de fleste andre. Jeg møtte opp med krøller i håret og spurte om alle hadde det bra. Feil. Dette var ikke plassen for smalltalk.
Fordeler og ulemper
Men det var stedet for å lære om kunstig intelligens. Jeg synes det er interessant hvordan den nå kan bli brukt til å sortere bort uønskede fiskearter i elvene ved å skanne bevegelsesmønsteret og utseende på fisken og kun slippe ønsket fisk gjennom sluser. Kunstig intelligens kan allerede oppdage tjue prosent flere krefttilfeller ved mammografi. Mulighetene innen medisin er store i fremtiden.
Samtidig er det alltid noen som vil utnytte det ,og vi må eksempelvis bli mer bevisste på svindelforsøk, overvåkning, diskriminering og grusomst av alt – at KI kan bli brukt til å lage seksualiserte bilder av barn.
Jeg er bekymret for at vi ligger bakpå med lovverket som skal hindre den nye teknologien å bli en fare for helse, personvern og diskriminering.
Avhengighet og avstand
Min interesse innenfor datateknologi ligger først og fremst hvordan kunstig intelligens påvirker oss mennesker psykologisk. Jeg vil påstå at vi alle trenger å bli sendt på rehab for algoritme-avhengighet.
Ny forskning har konkludert med at vi ikke blir deprimerte av sosiale medier, og det er jo bra. Samtidig er jeg bekymret for at det skaper en usynlig avstand mellom oss. Barn som kommer til verden i dag, ligger ved mors bryst og søker blikkontakt med en mor som skroller på Instagram. Mange unge vet ikke hvor de selv begynner og TikTok slutter.
Den nye valutaen
Dine meninger og valg du gjør er et resultat av noe du har erfart, sett, lest eller hørt. Dette er noe teknologi-gigantene i Silicon Valley har forstått. De tjener milliarder på å manipulere og overvåke oppmerksomheten din. Det er blitt den nye valutaen i samfunnet, derfor er det viktigere enn noen gang å spørre seg selv: hvor plasserer jeg min oppmerksomhet?
Jeg vet i hvert fall at min oppmerksomhet skal fortsette å være blant menneskene rundt meg og jeg skal i min nye tilværelse som teknolog bruke alt jeg har erfart som frisør. Jeg har selv alltid fulgt intuisjonen min i valg jeg har tatt. Jeg vil ikke at kunstig intelligens skal ta fra oss vår intuisjon. For mennesker trenger mennesker, og jeg vil helst at disse menneskene skal være homo sapiens.
(+) De som bruker AI, vinner kampen om jobbene i framtida
Alle bør å ta i bruk kunstig intelligens. Så fort som mulig. Ellers er teknologiekspert Silvija Seres redd for konsekvensene.
TEMA KUNSTIG INTELLIGENS: Tre eksperter om sine fem største bekymringer knyttet til kunstig intelligens.
I dag: Silvija Seres
Matematiker, forfatter og teknologiinvestor Silvija Seres mener det er nytteløst å forsøke å stoppe bruken av kunstig intelligens (KI), eller artificial intelligence (AI) på engelsk. Derimot bør vi komme på banen og være med på utviklingen. Hvis ikke, kan KI bidra til en samfunnsutvikling vi ikke ønsker, sier hun.
Her er hennes fem største bekymringer knyttet til kunstig intelligens:
1. Vi venter for lenge med å ta det i bruk
Seres sin største bekymring er at vi ikke kommer i gang fort nok med bruken av kunstig intelligens, slik at vi ikke får være med og forme verktøyene som vil prege våre liv.
– Det er massevis at ting vi ikke forstår, masse nye etiske spørsmål, men poenget er at det må ikke være sånn at det er en liten håndfull mennesker i verden som skjønner hvordan dette funker, og at de styrer fullstendig utviklingen og disse verktøyene som kommer til å styre våre liv.
Utfordringen, forteller Seres, er at det potensielt er en liten gruppe mennesker som står for verdiene som bakes inn i teknologien.
– Jeg er veldig opptatt av at vi nasjonalt og individuelt skal kunne ta dette i bruk, og påføre noen av våre prinsipper og verdier til denne utviklingen. Derfor tenker jeg at vi må lære oss hva kunstig intelligens er, hva den kan brukes til, og vi må bestemme oss for å anvende den.
Hvis vi ikke kommer i gang, er det verdiene fra Kina og USA som vil dominere kunstig intelligens?
– Ja, og utnyttelsen. Og ikke bare to land, men et lite fåtall mennesker i de landene. Så det er fullstendig utenfor demokratisk kontroll, advarer hun.
– Og jeg er veldig glad i vennene mine i Silicon Valley, men vi har litt andre verdier og filosofier om verden. De er veldig liberalistiske, og de mener at det bare er å konkurrere. Men det er ikke bare å konkurrere her i verden. Vi kommer med forskjellige utgangspunkt, og hvis du tror på et samfunn som utjevner litt mer, da vil ikke deres AI være bra for deg.
2. Forsterker urettferdighet
Vi bør bekymre oss for hvordan kunstig intelligens kan fremheve og forsterke sosiale skjevheter, mener Seres. Kunstig intelligente systemer kan ingenting annet enn de dataene den har blitt trent med – data som er basert på vår menneskelige historie og som har bestått av urettferdigheter som rasisme og kjønnsdiskriminering.
– Kunstig intelligens setter et forstørrelsesglass, eller akselerasjon, på det vi mennesker har gjort tidligere i vår manuelle praksis, forklarer hun.
Å sørge for at kunstig intelligens fungerer slik at de retter opp urettferdigheter fremfor å videreføre og forsterke dem, er et menneskelig ansvar, sier Seres.
– Det er vårt ansvar å utvikle oss og å utvikle våre samfunn, og da må vi hjelpe alle disse verktøyene å følge med. Ellers gjør vi ikke vår demokratiske jobb, vår demokratiske oppgave eller privilegium.
3. Jobbene som blir borte
– Det tredje området jeg er bekymret for, er job displacement – hvordan jobbene forsvinner. Og der er det en veldig reell fare som vi egentlig ikke tør å snakke om, fordi ingen har lyst til å snakke om det.
Seres forespeiler oss et nytt jobbmarked: jobber vil forsvinne, nye jobber vil bli til. Problemet er at kunstig intelligens og robotikk vil ta over oppgaver og løse dem mye mer effektivt enn vi mennesker er i stand til. Antall oppgaver og arbeidsmengde vil derfor krympe.
– Der hvor du trengte ti ansatte for å nå et visst servicenivå, så kan du gjøre det samme med tre ansatte hvis de tre ansatte bruker de nye verktøyene. Så det store samfunnsproblemet er: hva skal de syv andre ansatte gjøre?
Er det fare for at utviklingen av kunstig intelligens skjer så fort at vi blir sittende igjen med stor arbeidsledighet?
– Ja, det tror jeg er kanskje den mest realistiske faren når det gjelder AI. Og for meg er de største globale bekymringene akkurat nå at vi ikke følger med nok. Og jeg er bekymret for antall jobber om fem og ti år, og da er jeg bekymret for alle som nekter å ta i bruk disse verktøyene.
– De som bruker det, det er de som vinner morgendagens kamp.
4. Store sikkerhetsutfordringer
Den digitale verden vi står overfor kommer med nye utfordringer knyttet til personvern, datavern og sikkerhet, forteller Seres.
– Når alt blir digitalt fordi man samler data, så blir det selvfølgelig mye datasårbarhet. Hvis vår helse blir fullstendig modellert av data, så kan hvem som helst egentlig bryte seg inn hvis man ikke har laget gode nok systemer, og hente våre helsedata.
Hva kan dataen om oss brukes til?
– Den brukes til å dekke noens kommersielle behov. Eller noen kan overstyre pacemakeren vår, overstyre behandlingen vi får eller forsikringen vi skulle fått. For eksempel.
Den digitale verden vi allerede eksisterer i, krever derfor gode systemer som beskytter oss.
– Dette med datavern, og ikke bare personvern, er et kjempeviktig tema, og det må vi anse som en hygienefaktor i et samfunn som er digitalisert og bruker AI.
5. Vi lar AI ta beslutningene
Seres femte bekymring handler om hvilken rolle kunstig intelligens skal ha i samfunnet. Dersom vi lener oss for mye på at kunstig intelligens skal ta beslutninger for oss, står vi etter hennes syn overfor en rekke utfordringer.
Dyp læring er den formen for kunstig intelligens vi bruker aller mest i dag, der maskinene finner mønstre i store datasett, og basert på disse mønstrene anbefaler maskinene oss løsninger. Problemet, forteller Seres, er at maskinene ikke forklarer oss hvorfor den har funnet det mønsteret den har funnet. Mønsteret som maskinene baserer løsningene sine på, er usynlige for oss mennesker.
– Poenget her er at det ikke er så lett å forstå hvorfor et sånt system for eksempel har puttet noen i fengsel eller har nektet noen en operasjon. Og hvis vi forventer at et samfunn alltid skal kunne ha en forklaring på avgjørelser som gjelder vår helse, forsikring, utdanning, fengsel og lignende, så blir det veldig krevende med dyp læring og den type kunstig intelligens, sier hun.
– Vi må være tydelige på hva AI skal få bestemme, og hva mennesker skal bestemme. Det som er viktig, er at det er vi mennesker som tar avgjørelsene, basert på de anbefalingene AI-systemene gir oss, sier hun.
– AI er bare et verktøy. Det er ikke en sjef, det er en slave – og dette må vi huske, understreker Seres.
