Tekst: Torbjørn Vinje, daglig leder, Forum for offentlig service


 

Algoritmene som nye beslutningstakere

– Spørsmålet er ikke lenger om KI har makt, men hvordan vi kan være mer bevisste og ta mer kontroll, sier Elisabeth Austad Asser, doktor i kunstig intelligens og etikk, leder og forfatter av boka «Teknologiens makt».

 

I møte med organisasjonspsykolog Tor Åge Eikerapen i Lederpodden beskriver hun hvordan algoritmene har gått fra å være hjelpere i bakgrunnen til å bli usynlige beslutningstakere som filtrerer virkeligheten for oss – enten vi legger merke til det eller ikke.

 

– Vi tror vi går i den samme «gata» digitalt, og at alle ser det samme. Men alt du ser, er skreddersydd for deg. Budskap, nyheter, annonser – alt er tilpasset preferansene dine, ofte preferanser du ikke engang er bevisst på selv, sier hun.

 

Denne usynlige tilpasningen gjør at makten flyttes bort fra redaksjonsstyrte miljøer og demokratiske prosesser, og over til aktører som først og fremst er styrt av effekt og inntjening.

 

Fra ild til KI – når tempoet blir farligere enn teknologien

Asser minner om at teknologi ikke er noe nytt. Ilden, boktrykkerkunsten og telefonen har alle endret måten vi lever og organiserer samfunn på. Forskjellen nå er tempoet.

 

Hun viser til at boktrykkerkunsten brukte rundt 200 år på å bevege seg fra Tyskland til Norge. Telefonen brukte 75 år på å nå 75 millioner brukere. Da ChatGPT ble lansert, tok det omtrent to måneder å nå 100 millioner brukere.

 

– Vi har alltid blitt formet av teknologi, men vi har aldri tidligere hatt teknologier som både utvikles og tas i bruk globalt i et tempo som dette. Det gjør det nesten umulig å forutse konsekvensene før teknologien allerede er overalt, sier hun.

 

Her peker hun på det såkalte Collingridge-dilemmaet: I starten er det mulig å styre en teknologi, men da forstår vi ikke konsekvensene. Når konsekvensene blir synlige, er teknologien så innvevd i samfunnet at det er nesten umulig å trekke den tilbake.

 

– Selv om vi i ettertid skulle mene at det hadde vært klokt å «trekke tilbake» for eksempel Facebook, så lar det seg ikke gjøre. Teknologien er blitt infrastruktur, ikke et valg, sier Asser.

 

Når effektivitet blir øverste verdi

En rød tråd i samtalen er hvordan effektivitet har blitt en nesten uuttalt hovedverdi i teknologibruken vår – også i ledelse.

 

– Vi lar oss forføre av hvor effektive vi blir. Språkmodeller som ChatGPT gjør oss vanvittig effektive. Men det jeg prøver å vise i boka, er at det er mye som settes i spill når vi outsourcer tankearbeidet vårt til teknologien, sier Asser.

 

Forskning tyder på at det å skrive selv styrker kognitive og rasjonelle evner. Når KI får gjøre mer og mer av skrivearbeidet, er spørsmålet hva som skjer med de evnene over tid.

 

– Hvis vi overlater mer av tenkningen, vurderingen og formuleringen til språkmodeller, må vi ta på alvor at vi også outsourcer noe av det som gjør oss menneskelige, sier hun.

 

Samtidig er det en materiell bakside: Treningen av store språk- og bildemodeller krever enorme mengder energi, vann og datakraft. Bak de tilsynelatende «magiske» tjenestene finnes det mennesker som modererer innhold og filtrerer bort det groveste materialet – ofte i sårbare deler av verden.

 

– Det er lett å glemme at bak det rene grensesnittet sitter det mennesker som eksponeres for det vi slipper å se. De betaler en pris for vår effektivitet, sier Asser.

 

Skjult påvirkning i hverdagen

Skjult påvirkning er ikke nytt – reklame har alltid handlet om å trigge oss uten at vi helt merker det. Det nye er presisjonen og omfanget.

 

– Tidligere måtte annonsører ha flaks for å treffe deg. I dag sitter du alene foran en skjerm og blir møtt med budskap som er ekstremt målrettede, basert på en enorm mengde data om hva du liker, klikker på og blir værende ved, sier Asser.

 

Hun skiller mellom verdier og preferanser. Verdier er det som betyr noe for oss på lang sikt – for eksempel å leve sunt. Preferanser er det vi faktisk gjør i øyeblikket – som å kjøpe sjokolade når vi er slitne og sultne.

 

– De digitale aktørene er eksperter på preferanser, ikke verdier. Når du sitter og scroller «uten at noen ser deg», avslører du preferansene dine. Det er disse som brukes til å styre hva du eksponeres for – ikke det du egentlig ønsker å stå for, sier hun.

 

Resultatet er en informasjonsstrøm som i liten grad styres av sannhet og kvalitet, men av hva som holder deg lengst mulig på plattformen. Og jo lenger du blir, jo mer data og penger genereres.

 

En ny digital kolonialisme

Asser mener vi står midt i en ny form for kolonialisme – ikke styrt av nasjonalstater, men av teknologigiganter.

 

– Tidligere reiste kolonimakter ut i verden, tok ressurser med makt, og solgte bearbeidede varer tilbake til de samme områdene. I dag skjer noe liknende, men ressursen er dataene våre, sier hun.

 

Hun peker på globale teknologiledere som Sam Altman, Mark Zuckerberg og Elon Musk, og beskriver hvordan de med sin programvare og maskinvare samler inn data fra hele verden, bygger tjenester på toppen av disse – og selger dem tilbake til oss.

 

– De tar ressursgrunnlaget vårt, omformer det til tjenester og tjener penger på å selge dem til oss. Det er lag på lag av makt i denne strukturen, sier hun.

 

Denne maktkonsentrasjonen blir ekstra tydelig når kjernesystemer i offentligheten er bundet til enkelte leverandører. Hun viser til episoder der brukere plutselig har mistet tilgang til sentrale verktøy som e-post, fordi politiske eller kommersielle beslutninger tas langt borte.

 

– Det sier noe om hvor sårbare vi er når kritisk infrastruktur ligger i hendene på noen få, kommersielle aktører, sier Asser.

 

Mennesker som «ressurs» i et algoritmisk arbeidsliv

Konsekvensene merkes allerede i arbeidslivet. I samtalen viser Eikerapen til rapporter om at junioroppgaver i konsulentselskaper nå tas over av KI, og til lokale konflikter om areal og energibruk til datasentre.

 

– Det er ekte mennesker som mister jobber, eller aldri får foten innenfor, når inngangsoppgavene automatiseres. Hva skjer med læringsløpene når de enkle oppgavene forsvinner først? spør han.

 

Asser peker på at arbeidslivet alltid har blitt endret av teknologi, men at KI endrer både jobbinnhold og styringslogikk. Hun trekker fram dokumentarer fra Amazons lagre, der algoritmer overvåker arbeidsinnsats og kan «si opp» medarbeidere hvis leveransehastigheten ikke er høy nok.

 

– Når algoritmen bestemmer om du beholder jobben, uten å ta høyde for at nøkkelen manglet, bilen streiket eller barnet ditt var sykt, da har vi gått langt i å gjøre mennesker til en ressurs i et system de ikke har reell innflytelse over, sier hun.

 

Det mørke scenariet, slik Asser beskriver det, er et samfunn der mennesker primært blir datapunkter i en infrastruktur som styres av algoritmer og effektivitet.

 

Barn, unge og hjernen vi gir fra oss

En av konsekvensene hun tror vi virkelig vil angre på, handler om barn og unge.

 

– Vi har i stor grad sluppet algoritmestyrte sosiale medier inn i barndommen og ungdomstiden, uten at vi forsto hva det ville gjøre med konsentrasjonsevne, selvbilde og psykisk helse. Det tror jeg vi kommer til å se tilbake på som et alvorlig feilgrep, sier Asser.

 

Hun peker også på bekymringsfulle tendenser i kognitiv utvikling.

 

– Det er forskning som peker på at IQ-nivået nå synker i Norge etter mange tiår med økning. Det er vanskelig å ikke koble det til hvordan vi bruker teknologi, selv om årsak og korrelasjon ikke er det samme. Når vi hele tiden distraheres og outsourcer tenkningen vår, påvirker det oss, sier hun.

 

Klasseforskjeller i et KI-samfunn

Teknologi forsterker også eksisterende klasseskiller. Tilgang til kvalitetssikret informasjon og gode verktøy blir et spørsmål om ressurser.

 

– Redaksjonsstyrte medier koster, og det må de gjøre hvis de skal gi oss uavhengig og kvalitetssikret innhold. Da får vi et skille mellom dem som både forstår verdien av det og har råd til å betale, og dem som ikke har det, sier Asser.

 

Det samme gjelder tilgang på verktøy.

 

– De beste KI-verktøyene koster penger. De som ikke har råd til å kjøpe dem, sitter igjen med de dårligste. Det er ikke nytt at ressurser gir fortrinn, men KI kan forsterke forskjellene, sier hun.

 

Konsekvensen kan bli et mer polarisert samfunn, der ulike grupper lever i helt forskjellige informasjonsverdener – uten å vite hvor ulike de faktisk er.

 

Hva ledere må gjøre nå

Midt i alt dette er spørsmålet: Hva betyr dette konkret for ledere?

 

– Det viktigste for en leder nå er å forstå teknologien. Ikke på kode-nivå, men på nivået av hva den gjør, hva den ikke gjør, og hvilke verdier den bygger inn i beslutningene, sier Asser.

 

Hun mener mange ledere har ventet for lenge med å stille «dumme spørsmål» om KI, og at terskelen for å innrømme at man ikke forstår, er blitt høy.

 

– Mitt råd er enkelt: Sett deg inn i grunnprinsippene. Les, still spørsmål, be om forklaringer. Du kan ikke lede i en KI-verden hvis du ikke forstår de mest grunnleggende mekanismene, sier hun.

 

Hun peker på tre områder ledere bør agere på nå:

 

1. Bygg kompetanse i organisasjonen

– Gi medarbeiderne opplæring i hva KI er, hvilke verktøy som finnes, og ikke minst hvilke begrensninger de har. Ukritisk bruk er farligere enn ingen bruk, sier hun.

2. Etabler klare kjøreregler

– Alt du legger inn i en åpen språkmodell, må du kunne se på forsiden av en avis. Hvis du ikke tåler det, skal det ikke inn der. Ledere må være tydelige på hva som er greit og ikke, både av hensyn til personvern, sikkerhet og etikk, sier Asser.

3. Sikre medvirkning og menneskelig kontroll

– Ikke sett teknologer alene til å lage forretningskritiske KI-løsninger. De som faktisk gjør jobben, må være med å forme løsningene. Hvis ikke risikerer du å miste det som er viktigst for virksomheten, sier hun.

 

Hun mener vi må endre språket vårt fra «human in the loop» til «machine in the loop».

 

– Mennesket må være i førersetet. Hvis vi gjør teknologien til fasit, ser vi i studier at mennesker skyver ansvaret over på algoritmen. Da blir det fort: «Jeg synes du burde fått lånet, men algoritmen sier nei». Det er farlig for både fagligheten og etikken, sier Asser.

 

Håp, motstand og behovet for formål

Til tross for de dystre scenariene ser Asser også tegn til håp. Hun peker på at politisk og strategisk bevissthet er i ferd med å våkne, ikke minst fordi geopolitiske hendelser har tydeliggjort hvor sårbar vår teknologiske avhengighet er.

 

– Vi ser nå at flere innser at teknologi er infrastruktur på linje med kloakk og strøm. Det tvinger fram spørsmål om hvem som skal eie, styre og sette rammene, sier hun.

 

Hun merker også en gryende tretthet over KI-generert innhold.

 

– Mange blir lei når de ser enda en glatt tekst eller et hyperperfekt bilde som åpenbart er generert. Vi lengter etter det menneskelige, etter å kjenne at det faktisk er et menneske bak ordene. Det gir meg håp, sier hun.

 

Men håpet forutsetter én ting: at ledere våger å være verdidrevne, ikke bare effektivitetsdrevne.

 

– Hvis målet bare er effektivitet og profitt, er det akkurat det vi får – og det har en pris. Vi må tørre å spørre: Hva er formålet? Hva slags samfunn og arbeidsliv vil vi være med på å skape? sier Asser.

 

Å bli «dydige teknologer»

Avslutningsvis løfter hun fram filosofen Heidegger og Aristoteles’ idé om de fire årsakene: materiale, form, metode – og formål. I vår tid, mener hun, har vi blitt svært gode på de tre første, men har mistet den fjerde av syne.

 

– Vi vet masse om hvordan vi lager teknologi, men altfor lite om hvorfor – utover at den skal være effektiv og lønnsom. Da er vi prisgitt teknologiens egen logikk, sier hun.

 

For ledere betyr det et nytt slags håndverk:

 

– Vi må bli dydige teknologer. Ledere som både forstår verktøyene og insisterer på formålet. Som setter menneskelige verdier inn i teknologiutviklingen, ikke etterpå, men fra start, sier Asser.

 

Om vi lykkes med det, kan KI bli et kraftfullt verktøy for et mer menneskevennlig arbeidsliv. Hvis ikke, risikerer vi at teknologien ikke bare former hverdagen vår – men også reduserer oss til ressurser i et maskineri vi ikke lenger styrer selv.

 


 

Lytt til podcasten

 


 

Om artikkelen

  • Fra tale til tekst med NB Whisper Large
  • Bearbeiding av tekst med ChatGPT 5.1
  • Ferdig artikkel utarbeidet av Torbjørn Vinje