Shadow AI sikkerhed: Opdag og stop uautoriserede AI-tools
·
Kategori: IT-sikkerhed
Medarbejdere kopierer kundedata, tilbud og kontrakter ind i AI-tools, som IT aldrig har godkendt. I kan ikke beskytte data, I ikke kan se. Med en kort Shadow AI-gennemgang kan I kortlægge brugen, sætte klare regler og håndhæve dem i Microsoft 365 uden at stoppe produktiviteten.
- Få synlighed hurtigt: kør Cloud Discovery og få en liste over AI-apps, brugere og datamønstre I skal reagere på.
- Stop de værste lækager først: håndhæv blokering eller “allow med kontrol” for udvalgte AI-tjenester via Microsoft Defender for Cloud Apps.
- Skeln mellem Copilot og “gratis AI”: lav en enkel beslutningsregel for hvilke data, der må bruges hvor, og gør den målbar i logs.
- Dokumentér drift til audit: gem rapporter, policies og hændelser, så I kan vise “day 2” kontrol (relevant ift. NIS2-krav om dokumenteret drift).
- Gør det praktisk: brug labels/DLP og Conditional Access, så regler følger data og enheder – ikke kun en PDF-politik.

Hvorfor Shadow AI er et større problem end “klassisk” Shadow IT
Shadow IT handlede ofte om fildeling eller chat. Shadow AI handler om at sende indhold ud af jeres kontrol og få det blandet med andre kunders data og modeltræning, afhængigt af tjenestens vilkår. Gartner beskriver Shadow AI som en voksende kilde til datalæk via ikke-godkendte LLM’er (Gartner, 2026). Det gør “vi har MFA” til et svagt svar, fordi lækagen sker, efter brugeren er logget ind.
Micro “Før → Efter” #1 (synlighed)
Før: IT gætter på hvilke AI-værktøjer der bruges, og reagerer kun når der sker en fejl.
Efter: I har en aktuel liste over AI-apps, risikoscore og hvem der bruger dem, så I kan prioritere og dokumentere beslutninger.
Sådan opdager I Shadow AI med Microsoft Defender for Cloud Apps (Cloud Discovery)
Målet er ikke at “fange” medarbejdere. Målet er at kortlægge dataflow og styre risiko. Defender for Cloud Apps kan hjælpe jer med at identificere cloud-apps i brug og klassificere dem, så I kan skelne mellem acceptabel og uacceptabel brug.
- Vælg datakilder: Start med firewall/proxy logs eller integrer relevante signaler, så I ser trafik til AI-tjenester.
- Kortlæg apps og kategorier: Filtrér på AI/LLM-relaterede tjenester og se hvilke afdelinger/brugere der driver brugen.
- Lav en “top 10” risikoliste: Prioritér apps med høj risiko eller høj brug. Det er her I får mest effekt.
- Beslut kontroltype: Block, allow, eller allow med sessionskontrol (fx forhindr upload/download i browser).
- Gør det målbart: Definér hvad I vil måle: antal forsøg på upload, antal blokerede sessions, antal policy hits pr. uge.
Hvis I allerede arbejder med IT-sikkerhed som en driftsdisciplin, er Shadow AI et oplagt område at gøre “kontinuerligt”: scan, håndhæv, rapportér, justér.

Tjekliste: Hvad jeres Shadow AI-politik skal indeholde (og hvordan I håndhæver den)
En god politik er kort. Den bliver bedre, når den kan håndhæves teknisk. Brug tjeklisten her til at få regler, som både HR, ledelse og IT kan stå på mål for.
| Kontrolpunkt | Hvad I kigger efter | Sådan håndhæver I i Microsoft 365 |
|---|---|---|
| Godkendte AI-værktøjer | En kort “allow list” (fx Copilot + evt. én enterprise-LMM) | Defender for Cloud Apps: block/allow; Entra: Conditional Access for app-adgang |
| Data der aldrig må kopieres ind | CPR, kundekontrakter, løn, helbredsdata, NDA | Microsoft Purview labels + DLP-regler på mail/SharePoint/Teams |
| Browser- og sessionskontrol | Upload/download i browser til uautoriserede tjenester | Defender for Cloud Apps: session policies (kontrolleret adgang) |
| Adgang fra ikke-administrerede enheder | Privat PC uden compliance/policy | Entra Conditional Access: kræv compliant device (Intune) for følsomme apps |
| Logning og bevis | At I kan vise hændelser, beslutninger og ændringer | Central logning og rapporter; planlagt rapportering til ledelse/compliance |
| Undtagelser | Hvem kan godkende, hvor længe, og med hvilke vilkår | Change log + tidsbegrænsede policies; månedlig review af undtagelser |
Micro “Før → Efter” #2 (håndhævelse)
Før: En AI-politik i PDF og en mail til alle. Ingen ved om den bliver fulgt.
Efter: Policies rammer faktisk trafikken, DLP stopper kopiering af følsomt indhold, og I kan fremvise rapporter ved audit.
Få en Shadow AI-risikoanalyse på jeres tenant
Vi kortlægger AI-apps i brug, vurderer datarisiko og leverer en prioriteret plan med konkrete policies i Defender for Cloud Apps, Entra og Purview. Start med 30 minutter – I får en rapport, I kan bruge i ledelsen og til compliance.
Fejl der koster: 6 typiske faldgruber når I vil blokerer AI
- Alt bliver blokeret på én gang: Det skaber omgåelser. Start med de 3–5 apps med størst risiko/brug.
- Ingen skelnen mellem data-typer: Hvis alt behandles ens, stopper I forretningen. Brug labels og DLP til at segmentere.
- Ingen beslutningsregel for Copilot vs andre LLM’er: Definér hvor virksomhedsdata må bruges, og hvad der altid er forbudt.
- Undtagelser uden udløb: En undtagelse uden dato bliver permanent. Sæt udløb og review hver måned.
- Ingen fokus på enheder: Hvis I tillader adgang fra ikke-compliant devices, er I blinde for lokale kopier og exfiltration.
- Manglende dokumentation: Ved NIS2-lignende audits er det drift og bevis, der tæller (ENISA, 2026 peger på fokus på dokumenteret drift og leverandørstyring).

Hvordan vælger I mellem at blokere, tillade eller styre AI-brug?
Brug en enkel beslutningsregel, så I kan handle hurtigt – og forklare beslutningen bagefter.
- Blokér hvis: tjenesten ikke har enterprise-kontrol, uklar databehandling, eller I ser kopiering af følsomt indhold.
- Tillad hvis: der er kontrakt/enterprise-vilkår, klart ejerskab, og I kan logge brugen.
- Tillad med kontrol hvis: forretningen har behov, men risikoen kræver sessionskontrol (fx stop upload i browser) og DLP.
FAQ om Shadow AI sikkerhed
Hvad betyder Shadow AI i en dansk virksomhed?
Det er, når medarbejdere bruger AI-tools uden godkendelse og sender virksomhedens data ud af jeres kontrol. Fokus er typisk tekst, filer og screenshots fra M365, CRM eller økonomisystem.
Hvordan opdager vi hvilke AI-apps der bliver brugt?
Start med Cloud Discovery i Microsoft Defender for Cloud Apps og en liste over trafik til AI-tjenester. Prioritér apps med høj brug og høj risiko først, så I får effekt uden at drukne i data.
Kan vi blokerer ChatGPT for medarbejdere uden at ødelægge alt?
Ja. Brug “block” for uautoriserede tjenester og “allow med kontrol” hvor der er et legitimt behov. Gør det gradvist: blokér upload/download i browser først, før I går efter total blokering.
Er Microsoft 365 Copilot nok, så vi bare kan forbyde alt andet?
Copilot kan være jeres primære godkendte løsning, men forbud alene virker sjældent. Kombinér en kort, konkret AI-sikkerhedspolitik med teknisk håndhævelse (DLP, sessionskontrol, device compliance) og en godkendelsesproces for undtagelser.
Hvilke data skal vi altid holde ude af AI-tools?
Tommelfingerregel: persondata med høj følsomhed (fx CPR, helbred), løn, juridiske dokumenter under NDA, kundekontrakter og alt der kan identificere kunder/leverandører direkte. Hvis data kræver label “Fortrolig”, skal den ikke kopieres ud i ikke-godkendte AI-tjenester.
Hvordan dokumenterer vi Shadow AI-kontroller ift. compliance og NIS2?
Gem en fast pakke: (1) jeres allow/block-liste, (2) policy-ændringslog, (3) månedlig rapport over policy hits, (4) håndtering af undtagelser, (5) en kort proces for incident-håndtering. ENISA (2026) peger på, at fokus er rykket til dokumenteret drift – ikke kun implementering.
Hvad er et realistisk første skridt, hvis vi ikke har tid?
Kør en 14-dages discovery, lav en top-10 liste og blokér de 3 værste. Sæt derefter DLP/labels på de mest følsomme dokumentbiblioteker og kræv compliant device for adgang til følsomme M365-data.
Sådan kommer I i gang (7 konkrete skridt)
- Udpeg en ejer: én ansvarlig for AI-apps, policies og undtagelser.
- Kør Cloud Discovery og lav en top-10 liste over AI-tjenester i brug.
- Vælg kontrol pr. app: blokér, tillad, eller tillad med sessionskontrol.
- Definér 5 datatyper, der aldrig må kopieres ind i uautoriserede AI-tools, og map dem til labels/DLP.
- Håndhæv device compliance for adgang til følsomme M365-ressourcer via Entra Conditional Access.
- Opsæt månedlig rapportering: policy hits, undtagelser, og ændringer – gem det til audit.
- Test og justér: kør en “lækage-test” med en kontrolleret brugergruppe, og finjustér før fuld udrulning.