AI flytter farten i begge retninger
Kunstig intelligens er i ferd med å endre cybersikkerhet i et tempo som gjør det vanskelig for virksomheter å holde følge. Det som tidligere krevde tung kompetanse, tid og manuell innsats, kan nå i større grad automatiseres.
André Lambertsen peker på at mye av angrepskjeden allerede ser ut til å være automatisert.
– Det vi har sett den siste tiden, er at ting går veldig fort. Og det er tegn på at det er aktører som har klart å automatisere mye av angrepskjeden.
Foreløpig er det fortsatt mennesker inne i loopen for å styre de siste valgene, men skillet mellom menneskestyrte og helautomatiserte angrep blir stadig mindre. Ifølge gjestene i episoden er det ikke lenger et spørsmål om dette kommer, men hvor raskt.
Fra spam til presisjonsvåpen
En av de tydeligste endringene handler om phishing. Der angrep tidligere ofte var preget av dårlige formuleringer og lett gjenkjennelige feil, kan AI nå produsere meldinger som fremstår langt mer troverdige.
Kato Kristiansen beskriver utviklingen som et skifte fra masseutsendelser til målrettede angrep.
– Det vi tidligere så på som typisk spam, har jo egentlig blitt et presisjonsvåpen.
Konsekvensen er at det blir vanskeligere for både ansatte og privatpersoner å skille ekte fra falskt. Den gamle tommelfingerregelen om å se etter språkfeil eller klønete formuleringer holder ikke lenger. Dermed blir grunnleggende sikkerhetsvaner viktigere enn før: ikke klikke på lenker i e-poster, gå direkte til kjente tjenester, og være ekstra oppmerksom når noe haster.
Nye verktøy gjør middelmådige angripere farligere
Et annet poeng i samtalen er at AI ikke bare gjør de mest avanserte angriperne bedre. Den gjør også middelmådige angripere langt mer effektive. Ferdige verktøy, playbooks og AI-drevne løsninger senker terskelen for å gjennomføre angrep betraktelig.
– Nå kan mange flere utføre ganske kompetente angrep uten kanskje nødvendigvis å helt forstå hvordan og hva man gjør, sier Kristiansen.
Det betyr at trusselbildet blir bredere. Virksomheter må ikke bare forsvare seg mot de mest profesjonelle miljøene, men også mot flere aktører med enklere tilgang til kraftige verktøy.
Mythos-eksempelet viser hvor alvorlig dette kan bli
I episoden trekkes også fram AI-modellen Claude Mythos, som ifølge Anthropic skal være spesielt sterk på cybersikkerhet. Poenget er ikke bare at modellen er kraftig, men at den illustrerer hvor raskt AI kan finne sårbarheter som har unngått tradisjonelle verktøy og menneskelige eksperter i årevis.
Gjestenes vurdering er at slike modeller kan bli et stort gode dersom de brukes kontrollert til å finne og lukke hull før angripere utnytter dem. Samtidig understreker de at konsekvensene kunne vært alvorlige dersom tilsvarende kapasitet ble sluppet fritt uten begrensninger.
– Hvis den hadde blitt sluppet ut nå, så ville den også blitt brukt til å angripe. Det kunne vært enormt skadelig.
Eksempelet illustrerer kjernen i AI-kappløpet i cybersikkerhet: De samme verktøyene som kan styrke forsvaret, kan også gi angripere et kraftig forsprang.
Åpne modeller og AI-agenter gir nye angrepsflater
Samtalen løfter også fram en mer grunnleggende utfordring: Mange virksomheter tar i bruk AI raskere enn de bygger styring og kontroll. Åpne språkmodeller uten tydelige begrensninger kan gi detaljert hjelp til uønsket bruk. Samtidig introduserer AI-agenter nye risikoer, fordi de ikke bare svarer på spørsmål, men også kan utføre handlinger på vegne av brukeren.
Hvis en agent har tilgang til e-post, kalendere, dokumenter og interne systemer, kan feilkonfigurasjoner eller skjulte instruksjoner få store konsekvenser. Gjestene viser til eksempler der agenter kan trigges av usynlig tekst i en e-post og deretter hente ut eller sende videre sensitiv informasjon.
– Med en gang man gir sånne verktøy videre tilganger, så er det selvfølgelig ønskelig for de som ønsker å misbruke det, å gjøre det.
Det gjør identitetskontroll, tilgangsstyring og minst mulige rettigheter enda viktigere i tiden som kommer.
Norske virksomheter er allerede på etterskudd
Ifølge Kristiansen og Lambertsen preges mange virksomheter av en form for AI-fomo. Jakten på produktivitet og konkurransefortrinn gjør at verktøy tas i bruk før man har oversikt over hvilke data som deles, hvilke modeller som brukes, og hvilke risikoer det innebærer.
– Når noen snakker om AI, så snakker de gjerne om produktivitet og konkurransefortrinn i samme setning.
Det skaper en situasjon der ansatte tar i bruk verktøy på egen hånd, ofte uten at virksomheten har etablert tydelige rammer. Resultatet kan være datalekkasje, manglende kontroll og svakere sikkerhet – selv i virksomheter som ellers mener de jobber strukturert.
Dette bør virksomhetene gjøre nå
Begge gjestene er tydelige på at norske virksomheter ikke først og fremst trenger å løpe ut og kjøpe nye AI-sikkerhetsverktøy. Første steg er langt mer grunnleggende: få oversikt.
– Skaff en oversikt over hvilke modeller som brukes blant de ansatte i dag. Hvilke AI-verktøy er det vi har? Hvilken data har de tilgang til?
Derfra handler det om klassisk sikkerhetshygiene: kontroll på identiteter, tydelig tilgangsstyring, oppdaterte systemer, opplæring av ansatte og overvåking som faktisk fungerer hele døgnet. For mange vil det også være nødvendig å bruke eksterne sikkerhetsmiljøer som kan overvåke og respondere 24/7.
Budskapet er at AI endrer mye, men ikke alt. Det viktigste er fortsatt å ha orden i grunnmuren.
Fra reaktivt til proaktivt forsvar
Samtalen peker også framover. Sikkerhetsarbeidet er i ferd med å gå fra å reagere på hendelser til å forutse dem. For å få til det må systemer analysere enorme datamengder, se mønstre mennesker ikke oppfatter og ta beslutninger i maskinhastighet.
Lambertsen mener de neste årene blir avgjørende.
– Vi vil nok se at 2026 og 2027 er de årene hvor man går fra å være reaktiv til at man må være proaktiv.
Det betyr ikke at mennesker forsvinner ut av sikkerhetsarbeidet, men at de i økende grad må støtte seg på automatiserte systemer som kan oppdage, tolke og stanse angrep før skade oppstår.
AI-kappløpet er allerede i gang
Konklusjonen fra episoden er tydelig: AI har gitt angriperne nye muligheter, høyere tempo og lavere terskel. Men den samme teknologien er også avgjørende for å bygge et forsvar som kan holde tritt.
Spørsmålet er derfor ikke om norske virksomheter skal forholde seg til AI i sikkerhetsarbeidet. Spørsmålet er hvor raskt de klarer å gjøre det på en kontrollert måte.
– Vi må ta i bruk AI for beskyttelse, samtidig som angriperen også i stor grad bruker AI for å angripe oss.
Kappløpet er i gang. De som lykkes best, blir trolig ikke de som eksperimenterer mest, men de som kombinerer ny teknologi med god sikkerhetsstyring, tydelig kontroll og en mer proaktiv tilnærming til risiko.
Anbefalinger
- Skaff full oversikt over hvilke AI-verktøy som brukes i virksomheten.
- Kartlegg hvilke språkmodeller ansatte har tilgang til, og hvilke data som deles med dem.
- Innfør tydelige retningslinjer for bruk av AI i arbeidshverdagen.
- Sørg for at sensitiv informasjon ikke legges inn i åpne språkmodeller.
- Styrk den grunnleggende sikkerhetshygienen, særlig rundt identitet og tilgangsstyring.
- Bruk minst mulige rettigheter for brukere, systemer og AI-agenter.
- Prioriter opplæring av ansatte i phishing, lenkesikkerhet og trygg bruk av AI.
- Etabler bedre kontroll med datalekkasje til eksterne AI-tjenester.
- Bygg rutiner for løpende overvåking av trusler, helst døgnet rundt.
- Vurder 24/7-overvåking fra eksterne sikkerhetsmiljøer dersom virksomheten ikke har kapasitet selv.
- Ikke kjøp nye AI-sikkerhetsverktøy før dere har oversikt over dagens risiko og verktøybruk.
- Test og kvalitetssikre AI-agenter grundig før de får tilgang til e-post, dokumenter eller interne systemer.
- Sørg for at AI-løsninger opererer innenfor trygge rammer, med tydelige begrensninger og kontrollmekanismer.
- Ta tak i teknisk gjeld før nye AI-løsninger og agenter slippes bredt løs i organisasjonen.
- Gå fra reaktiv til mer proaktiv sikkerhetstenkning, der målet er å forutse og stanse angrep tidlig.
- Ta i bruk AI i forsvarsarbeidet, ikke bare se på AI som en ny trussel.
