Shadow AI sikkerhed: Opdag og stop uautoriserede AI-tools

IT-afdeling der kortlægger uautoriserede AI-værktøjer og datalæk i Microsoft 365

Shadow AI sikkerhed: Opdag og stop uautoriserede AI-tools

Af Sten Albert Person A-one Solutions ·
·
Kategori: IT-sikkerhed

Medarbejdere kopierer kundedata, tilbud og kontrakter ind i AI-tools, som IT aldrig har godkendt. I kan ikke beskytte data, I ikke kan se. Med en kort Shadow AI-gennemgang kan I kortlægge brugen, sætte klare regler og håndhæve dem i Microsoft 365 uden at stoppe produktiviteten.

  • Få synlighed hurtigt: kør Cloud Discovery og få en liste over AI-apps, brugere og datamønstre I skal reagere på.
  • Stop de værste lækager først: håndhæv blokering eller “allow med kontrol” for udvalgte AI-tjenester via Microsoft Defender for Cloud Apps.
  • Skeln mellem Copilot og “gratis AI”: lav en enkel beslutningsregel for hvilke data, der må bruges hvor, og gør den målbar i logs.
  • Dokumentér drift til audit: gem rapporter, policies og hændelser, så I kan vise “day 2” kontrol (relevant ift. NIS2-krav om dokumenteret drift).
  • Gør det praktisk: brug labels/DLP og Conditional Access, så regler følger data og enheder – ikke kun en PDF-politik.

Dashboard der viser Cloud Discovery og Shadow AI-apps i virksomheden

Hvorfor Shadow AI er et større problem end “klassisk” Shadow IT

Shadow IT handlede ofte om fildeling eller chat. Shadow AI handler om at sende indhold ud af jeres kontrol og få det blandet med andre kunders data og modeltræning, afhængigt af tjenestens vilkår. Gartner beskriver Shadow AI som en voksende kilde til datalæk via ikke-godkendte LLM’er (Gartner, 2026). Det gør “vi har MFA” til et svagt svar, fordi lækagen sker, efter brugeren er logget ind.

Micro “Før → Efter” #1 (synlighed)

Før: IT gætter på hvilke AI-værktøjer der bruges, og reagerer kun når der sker en fejl.
Efter: I har en aktuel liste over AI-apps, risikoscore og hvem der bruger dem, så I kan prioritere og dokumentere beslutninger.

Sådan opdager I Shadow AI med Microsoft Defender for Cloud Apps (Cloud Discovery)

Målet er ikke at “fange” medarbejdere. Målet er at kortlægge dataflow og styre risiko. Defender for Cloud Apps kan hjælpe jer med at identificere cloud-apps i brug og klassificere dem, så I kan skelne mellem acceptabel og uacceptabel brug.

  1. Vælg datakilder: Start med firewall/proxy logs eller integrer relevante signaler, så I ser trafik til AI-tjenester.
  2. Kortlæg apps og kategorier: Filtrér på AI/LLM-relaterede tjenester og se hvilke afdelinger/brugere der driver brugen.
  3. Lav en “top 10” risikoliste: Prioritér apps med høj risiko eller høj brug. Det er her I får mest effekt.
  4. Beslut kontroltype: Block, allow, eller allow med sessionskontrol (fx forhindr upload/download i browser).
  5. Gør det målbart: Definér hvad I vil måle: antal forsøg på upload, antal blokerede sessions, antal policy hits pr. uge.

Hvis I allerede arbejder med IT-sikkerhed som en driftsdisciplin, er Shadow AI et oplagt område at gøre “kontinuerligt”: scan, håndhæv, rapportér, justér.

Policy-opsætning der blokerer data-upload til uautoriserede AI-tjenester

Tjekliste: Hvad jeres Shadow AI-politik skal indeholde (og hvordan I håndhæver den)

En god politik er kort. Den bliver bedre, når den kan håndhæves teknisk. Brug tjeklisten her til at få regler, som både HR, ledelse og IT kan stå på mål for.

Kontrolpunkt Hvad I kigger efter Sådan håndhæver I i Microsoft 365
Godkendte AI-værktøjer En kort “allow list” (fx Copilot + evt. én enterprise-LMM) Defender for Cloud Apps: block/allow; Entra: Conditional Access for app-adgang
Data der aldrig må kopieres ind CPR, kundekontrakter, løn, helbredsdata, NDA Microsoft Purview labels + DLP-regler på mail/SharePoint/Teams
Browser- og sessionskontrol Upload/download i browser til uautoriserede tjenester Defender for Cloud Apps: session policies (kontrolleret adgang)
Adgang fra ikke-administrerede enheder Privat PC uden compliance/policy Entra Conditional Access: kræv compliant device (Intune) for følsomme apps
Logning og bevis At I kan vise hændelser, beslutninger og ændringer Central logning og rapporter; planlagt rapportering til ledelse/compliance
Undtagelser Hvem kan godkende, hvor længe, og med hvilke vilkår Change log + tidsbegrænsede policies; månedlig review af undtagelser

Micro “Før → Efter” #2 (håndhævelse)

Før: En AI-politik i PDF og en mail til alle. Ingen ved om den bliver fulgt.
Efter: Policies rammer faktisk trafikken, DLP stopper kopiering af følsomt indhold, og I kan fremvise rapporter ved audit.

Få en Shadow AI-risikoanalyse på jeres tenant

Vi kortlægger AI-apps i brug, vurderer datarisiko og leverer en prioriteret plan med konkrete policies i Defender for Cloud Apps, Entra og Purview. Start med 30 minutter – I får en rapport, I kan bruge i ledelsen og til compliance.

Book et møde med A-one Solutions

Fejl der koster: 6 typiske faldgruber når I vil blokerer AI

  1. Alt bliver blokeret på én gang: Det skaber omgåelser. Start med de 3–5 apps med størst risiko/brug.
  2. Ingen skelnen mellem data-typer: Hvis alt behandles ens, stopper I forretningen. Brug labels og DLP til at segmentere.
  3. Ingen beslutningsregel for Copilot vs andre LLM’er: Definér hvor virksomhedsdata må bruges, og hvad der altid er forbudt.
  4. Undtagelser uden udløb: En undtagelse uden dato bliver permanent. Sæt udløb og review hver måned.
  5. Ingen fokus på enheder: Hvis I tillader adgang fra ikke-compliant devices, er I blinde for lokale kopier og exfiltration.
  6. Manglende dokumentation: Ved NIS2-lignende audits er det drift og bevis, der tæller (ENISA, 2026 peger på fokus på dokumenteret drift og leverandørstyring).

IT-team der dokumenterer policies og rapporter til audit og NIS2-krav

Hvordan vælger I mellem at blokere, tillade eller styre AI-brug?

Brug en enkel beslutningsregel, så I kan handle hurtigt – og forklare beslutningen bagefter.

  • Blokér hvis: tjenesten ikke har enterprise-kontrol, uklar databehandling, eller I ser kopiering af følsomt indhold.
  • Tillad hvis: der er kontrakt/enterprise-vilkår, klart ejerskab, og I kan logge brugen.
  • Tillad med kontrol hvis: forretningen har behov, men risikoen kræver sessionskontrol (fx stop upload i browser) og DLP.

FAQ om Shadow AI sikkerhed

Hvad betyder Shadow AI i en dansk virksomhed?

Det er, når medarbejdere bruger AI-tools uden godkendelse og sender virksomhedens data ud af jeres kontrol. Fokus er typisk tekst, filer og screenshots fra M365, CRM eller økonomisystem.

Hvordan opdager vi hvilke AI-apps der bliver brugt?

Start med Cloud Discovery i Microsoft Defender for Cloud Apps og en liste over trafik til AI-tjenester. Prioritér apps med høj brug og høj risiko først, så I får effekt uden at drukne i data.

Kan vi blokerer ChatGPT for medarbejdere uden at ødelægge alt?

Ja. Brug “block” for uautoriserede tjenester og “allow med kontrol” hvor der er et legitimt behov. Gør det gradvist: blokér upload/download i browser først, før I går efter total blokering.

Er Microsoft 365 Copilot nok, så vi bare kan forbyde alt andet?

Copilot kan være jeres primære godkendte løsning, men forbud alene virker sjældent. Kombinér en kort, konkret AI-sikkerhedspolitik med teknisk håndhævelse (DLP, sessionskontrol, device compliance) og en godkendelsesproces for undtagelser.

Hvilke data skal vi altid holde ude af AI-tools?

Tommelfingerregel: persondata med høj følsomhed (fx CPR, helbred), løn, juridiske dokumenter under NDA, kundekontrakter og alt der kan identificere kunder/leverandører direkte. Hvis data kræver label “Fortrolig”, skal den ikke kopieres ud i ikke-godkendte AI-tjenester.

Hvordan dokumenterer vi Shadow AI-kontroller ift. compliance og NIS2?

Gem en fast pakke: (1) jeres allow/block-liste, (2) policy-ændringslog, (3) månedlig rapport over policy hits, (4) håndtering af undtagelser, (5) en kort proces for incident-håndtering. ENISA (2026) peger på, at fokus er rykket til dokumenteret drift – ikke kun implementering.

Hvad er et realistisk første skridt, hvis vi ikke har tid?

Kør en 14-dages discovery, lav en top-10 liste og blokér de 3 værste. Sæt derefter DLP/labels på de mest følsomme dokumentbiblioteker og kræv compliant device for adgang til følsomme M365-data.

Sådan kommer I i gang (7 konkrete skridt)

  1. Udpeg en ejer: én ansvarlig for AI-apps, policies og undtagelser.
  2. Kør Cloud Discovery og lav en top-10 liste over AI-tjenester i brug.
  3. Vælg kontrol pr. app: blokér, tillad, eller tillad med sessionskontrol.
  4. Definér 5 datatyper, der aldrig må kopieres ind i uautoriserede AI-tools, og map dem til labels/DLP.
  5. Håndhæv device compliance for adgang til følsomme M365-ressourcer via Entra Conditional Access.
  6. Opsæt månedlig rapportering: policy hits, undtagelser, og ændringer – gem det til audit.
  7. Test og justér: kør en “lækage-test” med en kontrolleret brugergruppe, og finjustér før fuld udrulning.

Tilmeld dig vores nyhedsbrev

Synes du også det er fantastisk at lære nye ting? Tilmeld dig til vores nyhedsbrev, og få opdateringer og tilbud.

Ved at tilmelde, accepterer du vores datapolitik

Kontakt os

Har du flere spørgsmål? Vi står klar ved linjen

Du kan ringe til dette nummer for alle relvante sprøgsmål eller support.

+45 70 26 48 50