Tekst: Torbjørn Vinje, daglig leder, Forum for offentlig service


 

Cognite: AI-agenter som digitale eksperter i tungindustrien

– Industridata er vanskelige å tolke; vi startet med å bygge «Google Maps for tungindustrien» gjennom full kontekstualisering, sa Andreas Prøsch, leder for Atlas AI i Cognite.

 

Neste steg er AI-agenter som både forstår og utfører oppgaver på tvers av sensordata, manualer og planleggingssystemer.

 

– En AI-agent kan gjøre rotårsaksanalyser på sekunder, foreslå tiltak og se konsekvenser i planen. Vi ser opp mot 90 % tidsbesparelse på flere arbeidsoppgaver – og en demokratisering av datadrevet innsikt.

 

– Riktig infrastruktur gjør at agenten «holder seg på veien»; du kan følge logikken og styre risikonivået.

 


Statens vegvesen: Data som prioriterer tiltak – for færre drepte i trafikken

– Målet er å redusere antall drepte fra 89 til 50 på fire og et halvt år. Data og innsikt skal hjelpe oss å finne riktige tiltak på riktig sted, sa Line Nilsen, direktør for data, innsikt og analyse.

 

Ved å analysere veigeometri og svinger med høy risiko, skaleres innsikten fra enkeltfylker til hele landet.

 

– 10 % av jobben var modellering. 90 % var å trygge bruk, vise nytte og få det inn i arbeidslister og kontrakter. Data redder ikke liv alene – folk redder folk, og data er verktøyet.

– Første fysiske skilt for risikosving er allerede ute på vei. Nå handler det om uthenting av effekt: fra analyse til tiltak.

 


Ruter: Fra billettkontroll til kapasitet – AI og kvante for kollektivflyt

– Vi bygget en prediksjonsmodell for hvor snik er mest sannsynlig, og fjernet manuelle beslutninger der algoritmen gjør jobben, fortalte Umair Imam, direktør for AI & Quantum Computing i TeT Digital/Ruter.

 

Arbeidet avdekket også uregelmessigheter i kontrollprosessen.

 

– Ved å bruke maskinlæring fant vi mønstre i store datamengder på uker, ikke måneder. Vi gjorde også sentimentanalyse av henvendelser og prioriterer de mest kritiske først.

 

Ruter måler kapasitet i sanntid og optimerer rutenett.

 

– Kvantedatabehandling hjelper oss i komplekse optimaliseringsproblemer for ruter, stopp og nye tjenester. Vi har dessuten lansert en norsk LLM («Ruter GPT») og egne GenAI-assistenter – og ser på kvante for sikkerhet.

 


Annonse

Service- og tjenestekonferansen 2025 - spor A, 06.11: Kundeservice og omsorgseffektivitet

Linda Skogheim Øiseth annonse.jpeg


 

Telenor AI Factory: Suveren, sikker og grønn produksjon av «egen intelligens»

– Hvem her bruker norske eller europeiske skyleverandører for AI-utvikling? spurte Kaaren Hilsen, CEO i Telenor AI Factory.

 

Begrunnelsen for å bygge en norsk AI-fabrikk er kontroll på data, kritisk infrastruktur og sikkerhet.

 

– Vi satte opp våre første klynger i et sikkert Telenor-datasenter med fornybar energi. Kundene våre kommer med konkrete use case – de vil produsere og prosessere data på norsk jord.

 

Eksempelvis kjører Babelspeak sensitive språklige dialoger i fabrikken.

 

– Vi trenger steder der vi kan produsere vår egen intelligens – for innovasjon, beredskap og verdiskaping. Poenget var å begynne å bygge, eksperimentere og levere sammen med kundene.

 


Nordre Follo kommune: Fra datasplint til beslutningsstøtte i e-helse

– Vi har færre hender og flere oppgaver. Sensorer og systemer produserer enorme datamengder, men helheten mangler, sa Audun Wigdel, leder for e-helseteamet.

 

Kommunen tester GILIs AI-plattform som samler sensordata, GPS, medisinlister og tekstjournaler på tvers – og prioriterer tiltak.

 

– Vi har rundt 200 000 journalnotater i måneden. I stedet for 40–60 separate signaler får helsepersonell nå to–tre prioriterte anbefalinger. Helsepersonellet er i førersetet – AI foreslår, mennesket avgjør.

 

– Gevinsten er tidligere oppdagelse, færre feil og en mer proaktiv tjeneste. Tiden frigjøres til relasjoner og omsorg.

 


Nasjonalbiblioteket: Nasjonale språkmodeller trent på norsk kulturarv

– Chatboten er blitt mange unges første kunnskapskilde, men modellene er knapt trent på norsk kulturarv, sa Wilfred Østgulen, IT-direktør ved Nasjonalbiblioteket.

 

Norge har digitalisert bøker, aviser, lyd og nettinnhold gjennom to tiår – med uttrekkbar tekst.

 

– Vi har vist at norsk materiale løfter modellkvalitet, også når innholdet er opphavsrettslig beskyttet og brukes med hjemmel. Vi har trent BERT-, WISP- og GPT-modeller – og lanserer en første serie norske GPT-modeller i høst.

 

– Norge er i en unik posisjon: Vi har data, kapasitet og kompetanse til å produsere språkmodeller som forstår norsk, samisk og norske forhold.

 


Fellestrekk: Agentikk, eierskap og endringsledelse

  • AI må inn i linja, ikke ligge i laben.
  • Datakvalitet og domene­kontekst avgjør.
  • Suverenitet og sikkerhet etterspørres – hvor data behandles, betyr noe.
  • –Gevinster tas ut når mennesker stoler på løsningene og arbeidsprosesser justeres.
  • –Agentiske mønstre brer om seg: fra industriell analyse til kollektivplanlegging og helseprioritering.
     

Konklusjon: Norske miljøer flytter AI fra demo til drift – med tydeligere ansvarslinjer, bedre kontroll på data og sterkere kobling mellom innsikt og handling.


 

Om artikkelen

  • Opptak transkribert fra tale til tekst med NB Whisper
  • Råfil bearbeidet med ChatGPT
  • Endelig tekst utarbeidet av Torbjørn Vinje