Cognite: AI-agenter som digitale eksperter i tungindustrien
– Industridata er vanskelige å tolke; vi startet med å bygge «Google Maps for tungindustrien» gjennom full kontekstualisering, sa Andreas Prøsch, leder for Atlas AI i Cognite.
Neste steg er AI-agenter som både forstår og utfører oppgaver på tvers av sensordata, manualer og planleggingssystemer.
– En AI-agent kan gjøre rotårsaksanalyser på sekunder, foreslå tiltak og se konsekvenser i planen. Vi ser opp mot 90 % tidsbesparelse på flere arbeidsoppgaver – og en demokratisering av datadrevet innsikt.
– Riktig infrastruktur gjør at agenten «holder seg på veien»; du kan følge logikken og styre risikonivået.
Statens vegvesen: Data som prioriterer tiltak – for færre drepte i trafikken
– Målet er å redusere antall drepte fra 89 til 50 på fire og et halvt år. Data og innsikt skal hjelpe oss å finne riktige tiltak på riktig sted, sa Line Nilsen, direktør for data, innsikt og analyse.
Ved å analysere veigeometri og svinger med høy risiko, skaleres innsikten fra enkeltfylker til hele landet.
– 10 % av jobben var modellering. 90 % var å trygge bruk, vise nytte og få det inn i arbeidslister og kontrakter. Data redder ikke liv alene – folk redder folk, og data er verktøyet.
– Første fysiske skilt for risikosving er allerede ute på vei. Nå handler det om uthenting av effekt: fra analyse til tiltak.
Ruter: Fra billettkontroll til kapasitet – AI og kvante for kollektivflyt
– Vi bygget en prediksjonsmodell for hvor snik er mest sannsynlig, og fjernet manuelle beslutninger der algoritmen gjør jobben, fortalte Umair Imam, direktør for AI & Quantum Computing i TeT Digital/Ruter.
Arbeidet avdekket også uregelmessigheter i kontrollprosessen.
– Ved å bruke maskinlæring fant vi mønstre i store datamengder på uker, ikke måneder. Vi gjorde også sentimentanalyse av henvendelser og prioriterer de mest kritiske først.
Ruter måler kapasitet i sanntid og optimerer rutenett.
– Kvantedatabehandling hjelper oss i komplekse optimaliseringsproblemer for ruter, stopp og nye tjenester. Vi har dessuten lansert en norsk LLM («Ruter GPT») og egne GenAI-assistenter – og ser på kvante for sikkerhet.
Annonse:
Telenor AI Factory: Suveren, sikker og grønn produksjon av «egen intelligens»
– Hvem her bruker norske eller europeiske skyleverandører for AI-utvikling? spurte Kaaren Hilsen, CEO i Telenor AI Factory.
Begrunnelsen for å bygge en norsk AI-fabrikk er kontroll på data, kritisk infrastruktur og sikkerhet.
– Vi satte opp våre første klynger i et sikkert Telenor-datasenter med fornybar energi. Kundene våre kommer med konkrete use case – de vil produsere og prosessere data på norsk jord.
Eksempelvis kjører Babelspeak sensitive språklige dialoger i fabrikken.
– Vi trenger steder der vi kan produsere vår egen intelligens – for innovasjon, beredskap og verdiskaping. Poenget var å begynne å bygge, eksperimentere og levere sammen med kundene.
Nordre Follo kommune: Fra datasplint til beslutningsstøtte i e-helse
– Vi har færre hender og flere oppgaver. Sensorer og systemer produserer enorme datamengder, men helheten mangler, sa Audun Wigdel, leder for e-helseteamet.
Kommunen tester GILIs AI-plattform som samler sensordata, GPS, medisinlister og tekstjournaler på tvers – og prioriterer tiltak.
– Vi har rundt 200 000 journalnotater i måneden. I stedet for 40–60 separate signaler får helsepersonell nå to–tre prioriterte anbefalinger. Helsepersonellet er i førersetet – AI foreslår, mennesket avgjør.
– Gevinsten er tidligere oppdagelse, færre feil og en mer proaktiv tjeneste. Tiden frigjøres til relasjoner og omsorg.
Nasjonalbiblioteket: Nasjonale språkmodeller trent på norsk kulturarv
– Chatboten er blitt mange unges første kunnskapskilde, men modellene er knapt trent på norsk kulturarv, sa Wilfred Østgulen, IT-direktør ved Nasjonalbiblioteket.
Norge har digitalisert bøker, aviser, lyd og nettinnhold gjennom to tiår – med uttrekkbar tekst.
– Vi har vist at norsk materiale løfter modellkvalitet, også når innholdet er opphavsrettslig beskyttet og brukes med hjemmel. Vi har trent BERT-, WISP- og GPT-modeller – og lanserer en første serie norske GPT-modeller i høst.
– Norge er i en unik posisjon: Vi har data, kapasitet og kompetanse til å produsere språkmodeller som forstår norsk, samisk og norske forhold.
Fellestrekk: Agentikk, eierskap og endringsledelse
- AI må inn i linja, ikke ligge i laben.
- Datakvalitet og domenekontekst avgjør.
- Suverenitet og sikkerhet etterspørres – hvor data behandles, betyr noe.
- –Gevinster tas ut når mennesker stoler på løsningene og arbeidsprosesser justeres.
- –Agentiske mønstre brer om seg: fra industriell analyse til kollektivplanlegging og helseprioritering.
Konklusjon: Norske miljøer flytter AI fra demo til drift – med tydeligere ansvarslinjer, bedre kontroll på data og sterkere kobling mellom innsikt og handling.