Tekst: Torbjørn Vinje, daglig leder, Forum for offentlig service


 

Tallaksen beskrev utviklingen som en reise gjennom tre faser: først uro og usikkerhet, deretter grenseløs entusiasme – og til slutt en mer edruelig fase der kvalitet og dømmekraft må veie tyngre enn teknologibegeistring.

 

Fra frykt til hverdag

Tallaksen tok salen tilbake til høsten 2022 og tiden da ChatGPT plutselig dukket opp på alles skjermer og skapte uro i mange fagmiljøer.

 

– Mister vi jobben? Hva skjer? Hvordan skal det gå med kvaliteten i språket? sa han om reaksjonene mange hadde i starten.

 

De første månedene handlet mye om å forstå hva slags teknologi man egentlig sto overfor. Ifølge Tallaksen har mye av opplæringsarbeidet siden den gang handlet om å rydde opp i misforståelser.

 

Han understreket at generativ KI ikke er en tenkende tekstskaper, men i bunn og grunn en sannsynlighetsmaskin som gjetter seg fram til det mest sannsynlige svaret.

 

– De er først og fremst veldig gode til å gjette, sa han.

 

Det er nettopp derfor det ikke holder å be en språkmodell om å skrive en tekst og håpe på det beste. Skal resultatet bli godt, må brukeren gi tydelig kontekst, klare føringer og relevant bakgrunnsstoff.

 

Gode svar krever gode føringer

Tallaksen var tydelig på at kvaliteten i KI-arbeid ikke først og fremst ligger i modellen, men i menneskets evne til å bruke den klokt.

 

Han løftet fram språkprofiler, maler, gode eksempler og egne utkast som avgjørende byggesteiner når man skal bruke KI i skrivearbeid. De beste resultatene får du ikke ved å overlate oppgaven til maskinen, men ved å gi den et tydelig rammeverk.

 

– Aller helst et første utkast vi allerede har skrevet selv, sa han.

 

Dermed blir ikke KI en erstatning for språkkompetanse, men et verktøy som bare fungerer godt når det styres av mennesker som allerede kan skrive, vurdere og redigere.

 

Tallaksen pekte også på at dette krever opplæring. Ikke bare i teknologien som sådan, men i hvordan vi skriver gode instrukser og vurderer svarene kritisk.

 

Ikke alt bør skrives med KI

Et sentralt poeng i foredraget var at det ikke finnes én riktig måte å bruke KI på i skrivearbeid. Verktøyet passer bedre til noen oppgaver enn til andre.

 

For korte og oversiktlige tekster, som e-poster og enkle nyhetsbrev, kan det fungere godt å bruke KI til førsteutkast, mente han. Der er konteksten ofte begrenset og lettere å kontrollere.

 

For lengre og mer komplekse tekster er han langt mer skeptisk. En rapport på 20 sider krever så mye faglig presisjon, sammenheng og bakgrunnskunnskap at det blir risikabelt å la en språkmodell produsere førsteutkastet.

 

Derimot kan KI være nyttig i etterarbeidet: til å korte ned tekster, strukturere stoff, foreslå forbedringer og gi hjelp i redigeringsfasen.

 

– Det å bruke språkmodellene krever opplæring, understreket han.

 

Kritisk til måling av KI-bruk

Tallaksen advarte mot en kultur der høy KI-bruk i seg selv blir sett på som et mål på modenhet eller effektivitet.

 

Han beskrev hvordan enkelte virksomheter har vært mer opptatt av hvor mye ansatte bruker KI enn av om bruken faktisk er god. Det gir, slik han ser det, et skjevt bilde av hva som er verdifullt.

 

– Å bruke KI godt handler ikke om å bruke det mest mulig, sa han.

 

Han gjorde også narr av forestillingen om at den som bruker KI til alt, nødvendigvis ligger lengst framme. Tvert imot kan det bety at den personern bruker mye tid på oppgaver som kanskje ville vært løst bedre og raskere uten.

 

Poenget hans var at klok bruk handler om å velge riktig oppgave, riktig tidspunkt og riktig rolle for verktøyet – ikke om å maksimere antall instrukser eller KI-genererte utkast.

 

Når effektivitetspresset skyver etikken til side

Et av de sterkeste partiene i foredraget handlet om hva som skjer når ønsket om effektivisering blir viktigere enn etiske vurderinger.

 

Tallaksen fortalte om eksempler fra virksomheter der KI ble brukt i situasjoner som krever særlig menneskelig skjønn, blant annet i arbeid med nedbemanningsbrev og i saker som involverer sensitive opplysninger.

 

Spørsmålet hans var ikke bare om verktøyet kan brukes, men om det bør brukes.

 

– Bør det være et menneske involvert er alltid et viktig spørsmål, understreket han.

 

Han mente mange ansatte er blitt satt i en vanskelig situasjon: De har fått KI-verktøy på plass uten tilstrekkelig opplæring og uten tydelige rammer, og blir deretter stående alene med ansvaret når noe går galt.

 

Derfor understreket han at dette ikke først og fremst er et individproblem, men et lederansvar.

 

Feilene har tvunget fram tydeligere rammer

Tallaksen brukte også NTBs egen KI-feil som eksempel på hvor galt det kan gå når kvalitetssikringen svikter. Han viste til saken der et KI-generert utkast inneholdt sitater som ikke fantes, og en kildeperson som ikke eksisterte.

 

For ham er lærdommen ikke at KI må avvises, men at bruken må styres langt bedre.

 

– Teksten må alltid kvalitetssikres etter ordinært manuelt journalistisk arbeid før publisering, sa han.

 

Han fortalte at NTB derfor har utviklet egne verktøy for konkrete rutineoppgaver, som sitathjelpere, tittelhjelpere og oversettere, med faste og kvalitetssikrede instrukser i bunnen.

 

Det frigjør tid til det menneskelige arbeidet som fortsatt er uerstattelig: kildekontakt, verifisering, oppfølging og redaksjonelle vurderinger.

 

Vi må begynne å tenke som redaktører

Et annet hovedpoeng i foredraget var at KI endrer rollen til den som skriver. Når verktøyet brukes aktivt i skriveprosessen, må mennesket i større grad gå inn i en redaktørrolle.

 

Det innebærer å stille kritiske spørsmål, gi tydelige tilbakemeldinger, forkaste dårlige forslag og stå ansvarlig for det endelige resultatet.

 

– Vi må i større grad begynne å tenke som redaktører, sa Tallaksen.

 

Han understreket samtidig at dette ikke betyr at mennesker skal slutte å skrive. Snarere handler det om å være bevisst på hva vi selv gjør, og hva vi lar KI gjøre.

 

Brukeren må fortsatt eie teksten, forstå innholdet og kunne stå inne for språket og vurderingene.

 

Beste praksis i 2026: avgrens, tilpass og ta ansvar

Mot slutten forsøkte Tallaksen å oppsummere hva slags beste praksis som har vokst fram etter tre år med prøving og feiling.

 

Det viktigste rådet var å avgrense bruken. Virksomheter bør først og fremst bruke KI på rutineoppgaver der nytten er tydelig og risikoen håndterbar. Samtidig bør de utvikle felles løsninger, felles instrukser og retningslinjer som er tilpasset egne arbeidsoppgaver.

 

Han etterlyste også en tydeligere plass for språkfolk i beslutningene om KI.

 

– Sørg for at språkansvarlige er med i viktigdste KI-avgjørelsene, sa han.

 

Tallaksens konklusjon var at de tre første årene med KI ikke har gitt én universell oppskrift, men en viktig erkjennelse:

 

Teknologien fungerer best når den brukes med begrensning, kompetanse og tydelig ansvar.

 

Eller sagt på en annen måte: Det er ikke lenger selve KI-en som er nyheten, men hvordan vi velger å bruke den.

 


 

Læringspunkter:

  • Tre år med KI i skrivearbeid har vist at verktøyene må brukes mer nøkternt og mer målrettet enn i den første begeistringsfasen.
     
  • Gode resultater med KI krever tydelige instrukser, relevant kontekst og helst et menneskeskrevet utgangspunkt.
     
  • KI er ikke en erstatning for skrivekompetanse, men et verktøy som fungerer best når det styres av folk som kan skrive, vurdere og redigere godt.
     
  • Det er ikke nødvendigvis de største og mest komplekse tekstene som egner seg best for KI; ofte er verktøyet mer nyttig i avgrensede oppgaver og i redigeringsfasen.
     
  • Høy KI-bruk er ikke et mål i seg selv; det avgjørende er om verktøyet brukes på en måte som faktisk gir bedre kvalitet og arbeidsflyt.
     
  • Etiske vurderinger må være en del av KI-bruken, særlig i tekster som handler om sensitive saker eller får store konsekvenser for mottakeren.
     
  • Feil og hallusinasjoner viser at menneskelig kontroll fortsatt er helt nødvendig før publisering.
     
  • Den som bruker KI i skrivearbeidet, må i større grad tenke som en redaktør: stille spørsmål, vurdere forslag kritisk og ta ansvar for sluttresultatet.
 

 

Om artikkelen

  • Basert på innlegg på konferansen Klarspråk 2026
  • Transkripsjon fra tale til tekst med JoJo / NB Whisper
  • Råfil bearbeidet med ChatGPT
  • Endelig tekst utarbeidet av Torbjørn Vinje