Jeg samler også det vigtige om databehandleraftale, underdatabehandlere, logning og sletning, og giver en grøn gul rød model der gør det nemt at gøre det rigtigt.

Den typiske ChatGPT fejl i danske virksomheder
Det sker næsten hver dag i danske virksomheder. Ikke fordi nogen er uansvarlige, men fordi det er så nemt. Du åbner ChatGPT, skriver din prompt og trykker enter. Inden du når at tænke over det, har du kopieret noget ind, som egentlig ikke burde befinde sig der.Det er ikke ond vilje. Det er effektivitet der løber lidt hurtigere end retningslinjerne. Og det er præcis der, mange virksomheder er havnet i 2026: medarbejderne bruger AI flittigt, men ingen har rigtig taget stilling til hvad der må komme ind i en prompt, hvem der er ansvarlig og hvad der sker med data bagefter.
Det er ikke et spørgsmål om man stoler på sine kolleger. Det er et spørgsmål om man ved nok til at træffe de rigtige valg, og om virksomheden har gjort det nemt at gøre det rigtigt frem for det forkerte.
Når gode intentioner ender som kopieret persondata
Den klassiske situation ser nogenlunde sådan ud: En sælger skal skrive et opfølgningsmails til en potentiel kunde. I stedet for at formulere det selv kopierer han navne, virksomhed, en tidligere mailkorrespondance og måske en note fra CRM-systemet direkte ind i ChatGPT og beder om hjælp til at formulere mailen.Resultatet er fint. Mailen er skarp. Men undervejs har han sendt personoplysninger om en navngiven kontaktperson og fortrolig korrespondance til en tredjepartstjeneste, som virksomheden sandsynligvis ikke har indgået en databehandleraftale med.
Eller tag HR-eksemplet: en personalekonsulent modtager en jobansøgning og indsætter den i ChatGPT for at få hjælp til at lave spørgsmål til en samtale. Ansøgningen indeholder navn, adresse, telefonnummer og en personlig motivation. Alt sammen særdeles defineret som persondata under GDPR.
Og den tredje klassiker er support: en medarbejder dumper en hel mailtråd fra en utilfreds kunde ind i en AI, for at få hjælp til svaret. Mailtråden indeholder kundens fulde navn, ordrenumre, muligvis betalingsoplysninger og måske helbredsoplysninger, hvis kunden for eksempel klager over noget der handler om en medicinsk vare.
Alle tre situationer er opstået med de bedste intentioner. Men alle tre er potentielle GDPR-brud.
Hvorfor det ofte er uklart hvem der har ansvaret
Den udfordring de fleste virksomheder sidder med, handler ikke om ondsindede medarbejdere. Den handler om et tomrum i organisationen. Ingen har formelt taget ejerskab over spørgsmålet: hvad må vi bruge AI til, og hvem er ansvarlig når noget går galt?I mange virksomheder er det sket gradvist. ChatGPT kom, det var gratis, det var nyttigt og folk begyndte at bruge det. IT vidste det godt. Ledelsen syntes det var fint. Men ingen skrev det ned. Ingen aftalte rammerne. Ingen spurgte til databehandleraftalen.
Under GDPR er det klart nok på papiret: den dataansvarlige er den virksomhed der bestemmer formål og midler for behandlingen af persondata. Det er altså din virksomhed. Ikke OpenAI, ikke Microsoft, ikke leverandøren. Dig. Det ansvar kan du ikke sende videre fordi medarbejderen klikkede selv.
Det betyder at hvis en medarbejder sender persondata til ChatGPT uden at der er en gyldig retslig ramme for det, er det virksomheden der har et GDPR-problem. Ikke medarbejderen som individ, men virksomheden som dataansvarlig.
Hvad er persondata, når det står i en prompt
Først og fremmest: persondata er meget mere end et CPR-nummer. GDPR definerer persondata som enhver oplysning der kan henføres til en identificerbar fysisk person. Det lyder abstrakt, men i praksis dækker det rigtig meget af det indhold folk normalt kopierer ind i AI-prompts.Når vi taler om sikker brug af ChatGPT og kunstig intelligens i en dansk virksomhed, er det vigtigt at forstå hvad der faktisk udgør persondata, og hvad der er trygt at arbejde med. For der er stor forskel på de to kategorier, og mange medarbejdere kender dem ikke tilstrækkeligt.
Forståelsen af persondata i prompts er i øvrigt ikke kun et juridisk spørgsmål. Det er også et tillidsanliggende. Når du sender en klients oplysninger til en ekstern tjeneste uden at vide præcis hvad der sker med dem, er det et tillidsbrud over for klienten. Selv hvis der aldrig opstår et formelt GDPR-brud, kan det skade relationen hvis det kommer frem.
Navn, mail og telefon er det nemme
De fleste medarbejdere forstår intuitivt at et fuldt navn kombineret med en mailadresse er persondata. Det er det oplagte og det nemme at forholde sig til. Og ja, det er persondata under GDPR og det må ikke bare sendes ukritisk videre til en AI-tjeneste.Men det stopper ikke der. Et telefonnummer er persondata. En virksomheds-mailadresse med den ansattes navn i er persondata. En titulering kombineret med en afdeling og virksomhedsnavn kan i visse sammenhænge være nok til at identificere en person. Det er den kombination der gælder, ikke nødvendigvis det enkelte datapunkt i sig selv.
I langt de fleste tilfælde er det relativt nemt at undgå disse oplysninger. Du kan anonymisere din prompt ved at erstatte navne med roller (f.eks. kunden, kontakten, leverandøren) og fjerne direkte kontaktoplysninger, inden du indsætter teksten. Resultatet er som regel næsten det samme, men risikoen er dramatisk lavere.
Sager, noter og fritekst er det farlige
Den kategori der skaber flest problemer er den ustrukturerede fritekst. Det er mailkorrespondancer, CRM-noter, sagsbeskrivelser, interne referater og kundetilbagemeldinger. Alle disse teksttyper er fyldt med persondata, men det er ikke altid åbenlyst fordi oplysningerne er begravet i formuleringer og kontekst.En intern note om en medarbejders præstation er persondata. En sag i et supportsystem der beskriver en kundes problem med en specifik ordre, knyttet til et navn eller en konto, er persondata. En transskription fra et møde med en klient er persondata. Alt sammen potentielt sensitivt, alt sammen noget folk regelmæssigt forsøger at bruge som input til AI.
Noget af det allermest problematiske er det vi kalder særlige kategorier af persondata under GDPR. Det dækker over helbredsoplysninger, religiøs overbevisning, fagforeningsmedlemskab, seksuel orientering og mere. Disse oplysninger kræver et skærpet behandlingsgrundlag og er i langt de fleste erhvervsmæssige sammenhænge slet ikke lovlige at sende til en ekstern AI-tjeneste.
Al fritekst bør betragtes med et skærpet blik. Tommelfingerreglen er enkel: hvis du ikke ville sende det i en åben mail til en uvedkommende tredjepart, bør du heller ikke sende det ukrypteret og ustruktureret til en AI-tjeneste du ikke fuldt ud forstår.
Eksempler på prompts der bør omskrives
Her er tre konkrete eksempler på prompts der bør omskrives, inden de sendes:Problematisk: "Hjælp mig med at skrive en opfølgningsmail til Lars Petersen fra Firma A. Han sagde i vores møde den 14. februar at han var utilfreds med leveringstiden og nævnte at hans kollega Mette Sørensen overvejede at skifte leverandør."
Omskrevet: "Hjælp mig med at skrive en opfølgningsmail til en kontakt i et produktionsvirksomhed. Kontakten har givet udtryk for utilfredshed med leveringstiden og nævnte at virksomheden overvejer at skifte leverandør."
Den omskrevne version giver AI-modellen nok kontekst til at levere en god mail, men indeholder ingen identificerbare personoplysninger. Det er dataminimering i praksis.
Hvor ender data, når du bruger en AI tjeneste
Det er et af de spørgsmål de fleste medarbejdere aldrig tænker over i øjeblikket, de trykker enter. Men det er faktisk et af de mest centrale spørgsmål i forhold til GDPR og AI, og svaret varierer enormt afhængigt af hvilken tjeneste du bruger og hvordan du bruger den.Den store fejlantagelse er, at det der sendes til en AI-tjeneste, forsvinder igen når du lukker vinduet. I mange tilfælde gør det ikke det. Det bliver logget, det kan potentielt bruges til at forbedre modeller og det ligger på servere i lande med en anden retslig standard end Danmark og EU. Det er ikke en skræmmestrategi, det er simpelthen den tekniske virkelighed for mange gratis og forbrugerfokuserede AI-tjenester.
Det er dog vigtigt at skelne her. Der er forskel på at bruge den gratis version af ChatGPT som privatperson og at bruge ChatGPT Enterprise, Microsoft Copilot med en virksomhedsaftale, eller en anden AI-løsning med en klar databehandleraftale. Det handler ikke om at forbyde AI, det handler om at bruge det rigtigt.
Logning, opbevaring og adgang i praksis
De fleste større AI-tjenester opererer med to vigtige skel: om de bruger dine prompts og outputs til at træne modellen, og om din data er tilgængelig for mennesker hos leverandøren.For forbrugerversioner af AI-tjenester, som den gratis version af ChatGPT, har OpenAI historisk set brugt samtaledata til modeltræning, medmindre brugeren aktivt fravalgte det. Adgang til data fra menneskelige reviewers til kvalitetssikring er også forekommet. Det er præcis det man ikke ønsker, når en medarbejder kopierer fortrolige kundeoplysninger ind.
For enterprise-aftaler og API-brug er situationen typisk anderledes og mere beskyttet. Microsoft garanterer f.eks. via Azure OpenAI at kundedata ikke bruges til modeltræning, og at data forbliver inden for EU. Tilsvarende gælder for ChatGPT Enterprise, der tilbyder stærkere databeskyttelsesvilkår.
I praksis betyder det at du bør kende forskel på det produkt dine medarbejdere faktisk bruger, ikke bare produktnavnet. Er det den gratis version? En betalingsversion? En enterprise-aftale? Det har afgørende betydning for jeres GDPR-efterlevelse.
Hvad du bør få på skrift fra leverandøren
Før du kan bruge en AI-tjeneste til at behandle persondata, skal du have styr på følgende:- Databehandleraftale: Er der indgået en formel aftale der definerer formål, ansvar og rammer?
- Dataopbevaring: Hvor opbevares data, og i hvilke lande?
- Modeltræning: Bruges dine prompts og outputs til at forbedre modellen?
- Adgang: Kan leverandørens medarbejdere tilgå jeres data?
- Sletning: Hvad sker der med data, og kan du anmode om sletning?
- Underdatabehandlere: Deler leverandøren data med andre tjenester?
Hvis du ikke kan besvare disse spørgsmål, er det ikke en løsning der er klar til at håndtere persondata fra jeres virksomhed. Det er heller ikke nødvendigvis diskvalificerende at bruge tjenesten, men den skal kun bruges til anonymiseret eller offentligt tilgængeligt indhold.
Databehandleraftale og underdatabehandlere, uden juristsprog
Databehandleraftalen er det juridiske dokument der formaliserer forholdet mellem din virksomhed (den dataansvarlige) og en ekstern leverandør der behandler persondata på dine vegne (databehandleren). Når du sender persondata til en AI-tjeneste og den behandler dem for dig, er leverandøren i udgangspunktet en databehandler.Under GDPR er du som dataansvarlig forpligtet til at have en databehandleraftale med alle dine databehandlere. Det gælder også for AI-tjenester. Det er ikke valgfrit, og det er ikke noget du kan springe over fordi tjenesten er international eller meget stor.
I praksis eksisterer databehandleraftalen ofte allerede som en del af leverandørens servicevilkår for enterprise og API-kunder. Men du skal aktivt finde den, gennemlæse den og sikre at den dækker jeres konkrete brug. Det er ikke nok at antage at den er der.
Underdatabehandlere er leverandørens egne leverandører. Dvs. dem som AI-tjenesten selv sender data videre til. Det kan være cloud-udbydere, oversættelsestjenester, overvågningstjenester osv. GDPR kræver at du er informeret om disse underdatabehandlere og at du har mulighed for at gøre indsigelse. Det er et punkt mange virksomheder overser fuldstændigt.
Hvad en databehandleraftale skal afklare
En god databehandleraftale for AI-brug skal som minimum afklare:- Formålet med databehandlingen og hvilke typer data der behandles
- Geografisk placering af servere og eventuelle overførsler til tredjelande
- Sikkerhedsforanstaltninger leverandøren har implementeret
- Instruktionsretten: at leverandøren kun behandler data som du instruerer dem til
- Fortrolighed: at leverandørens medarbejdere er underlagt tavshedspligt
- Bistand ved registreredes rettigheder: at leverandøren hjælper dig hvis en person beder om indsigt, sletning eller rettelse
- Sletning eller returnering af data ved aftalens ophør
- Revisionsret: at du har ret til at kontrollere overholdelse
Hvilke spørgsmål økonomi og IT bør stille sammen
Det er ikke et område der kun tilhører IT. Økonomi og HR er mindst ligeså eksponerede, fordi de håndterer de mest følsomme personoplysninger i en virksomhed. De rigtige spørgsmål at stille i fællesskab er:Har vi en gyldig databehandleraftale med de AI-tjenester vi faktisk bruger? Ikke de vi har godkendt, men dem der faktisk er i brug? Det er to meget forskellige lister i de fleste virksomheder.
Ved vi hvilke data der i praksis sendes til disse tjenester? Hvem logger det? Hvem har overblik? Og hvis vi fik en GDPR-forespørgsel fra Datatilsynet i morgen, kunne vi svare på det?
Har vi taget stilling til hvad der sker, hvis en AI-leverandør får et databrud? Er vi klar til at notificere Datatilsynet inden for 72 timer? Er vi overhovedet i stand til at identificere hvilke persondata der var involveret?
Sletning og udtræk når samarbejdet stopper
Et af de mest oversete punkter i GDPR og AI-sammenhæng er hvad der sker med data, når du stopper med at bruge en tjeneste eller skifter leverandør. GDPR kræver at den dataansvarliges data slettes eller returneres ved aftalens ophør, og at databehandleren dokumenterer dette.For AI-tjenester er det særligt relevant at afklare om prompts og outputs gemmes og i givet fald i hvor lang tid. Det er også relevant at vide om du som virksomhed kan anmode om et udtræk af de data leverandøren har registreret om dig og dine brugere, og om du kan anmode om fuldstændig sletning.
Dette bør stå sort på hvidt i aftalen, og du bør teste det inden du er i en situation hvor du har brug for det.
En intern AI politik der rent faktisk bliver fulgt
Der er mange virksomheder der har skrevet en AI-politik. Udfordringen er, at den oftest ligner noget en jurist har skrevet til en jurist. Den er lang, den er abstrakt og ingen medarbejdere læser den mere end én gang.En intern retningslinje for AI-brug der rent faktisk virker, er en der er operationel. Den fortæller medarbejderne hvad de konkret må og ikke må, den er nem at forstå og den er tilgængelig der hvor arbejdet sker. Ikke i en mappe på intranettet ingen besøger.
Det handler om at gøre det nemt at gøre det rigtigt. Og det starter med at tale om data i et sprog alle forstår, frem for et sprog der kræver en uddannelse i jura at navigere i. GDPR og AI behøver ikke at være svært. Det behøver bare at være konkret.
Tre niveauer af data: grønt, gult og rødt
Et af de mest effektive redskaber til at gøre AI-politikken operationel er at inddele data i tre niveauer, som alle medarbejdere kan lære og huske:Grønt: Offentligt tilgængeligt indhold, generiske tekster, anonymiseret fagviden, intern procesbeskrivelse uden personoplysninger. Dette kan frit bruges i AI-prompts.
Gult: Interne dokumenter uden personoplysninger, branche- og markedsanalyser, ikke-identificerbare sagseksempler, anonymiserede kundesituationer. Dette kan bruges, men kræver omtanke og eventuelt godkendelse.
Rødt: Navn, CPR-nummer, mailadresser, helbredsoplysninger, sager knyttet til navngivne personer, HR-dokumenter, fortrolig korrespondance. Dette må aldrig sendes til en AI-tjeneste uden godkendt databehandleraftale og behandlingsgrundlag.
De tre niveauer kan printes og hænges op. De kan gøres til en del af onboardingen. De kan deles i et Slack-kanal eller Teams-chat. De er nemme at kommunikere og nemme at huske. Det er præcis hvad en intern AI-retningslinje har brug for at være.
Standardtekst medarbejdere kan kopiere i prompts
Et konkret og undervurderet redskab er at give medarbejderne standardiserede promptskabeloner der allerede er konstrueret til at undgå persondata. Kombineret med en kort forklaring om hvorfor skabelonen ser ud som den gør, skaber det forståelse og adfærdsændring på samme tid.For eksempel kan en skabelon til kundekorrespondance se sådan ud: "Hjælp mig med at formulere en professionel opfølgningsmail til en kontakt i [branche]. Kontakten har udtrykt [generel beskrivelse af situation] og vi ønsker at imødekomme dem ved at [generel løsning]."
Nøglen er at skabelonen er generisk nok til at den ikke kræver persondata, men specifik nok til at AI kan give et meningsfyldt svar. Det kræver lidt øvelse, men det er en færdighed der kan læres på meget kort tid.
Du kan også lave skabeloner til HR-situationer, support-svar, referatopsummeringer og strategianalyser. Fælles for dem alle er at de er konstrueret med dataminimering og pseudonymisering i bagsædet, så det ikke er noget medarbejderne aktivt behøver at tænke over hver gang.
Træning der tager 20 minutter og virker bagefter
Organisatorisk kompetenceopbygning på AI og GDPR behøver ikke at være et halvdagskursus. Det kan gøres effektivt på 20 minutter, hvis du fokuserer på det rigtige.De tre ting du bør sikre at alle medarbejdere forstår:
Hvad er persondata i praksis. Ikke definitionen fra loven, men konkrete eksempler fra jeres hverdag. Vis dem de tre situationer fra artiklens begyndelse og spørg hvad de ville have gjort.
Grønt, gult og rødt systemet. Gå igennem de tre niveauer med eksempler fra jeres egen branche og processer. Lad medarbejderne byde ind med egne eksempler. Det skaber ejerskab.
Hvad de skal gøre, hvis de er i tvivl. Ikke bare "spørg din leder", men en konkret person eller kanal med et konkret svar-SLA. Tvivl der ikke har et svar, ender med at blive ignoreret.
En risikovurdering af AI-brugen behøver heller ikke at være et langt dokument. Det kan starte som en enkel liste over hvilke AI-tjenester virksomheden faktisk bruger, hvilke datakategorier der typisk behandles og om der er en gyldig aftale på plads. Derfra bygger man videre.
Ro i maven er ikke et tilfælde, det er et valg
Denne artikel har ikke haft til hensigt at skræmme dig fra kunstig intelligens. Tværtimod. AI og ChatGPT er kraftfulde redskaber der gør hverdagen lettere, hurtigere og mere effektiv for danske virksomheder. Men de kræver en ramme for at fungere ansvarligt.Du har fået en konkret forståelse af hvad persondata er i prompts, herunder at det ikke kun er CPR-numre og navne, men alt indhold der kan henføres til en identificerbar person. Du har set hvad der sker med data på de forskellige typer AI-tjenester, og hvad du bør have på skrift fra din leverandør.
Du har fået en forståelse af databehandleraftalen og underdatabehandlere uden juristsprog, og du ved nu hvilke spørgsmål økonomi, HR og IT bør stille i fællesskab. Du har også fået et konkret redskab i grønt, gult og rødt systemet, og en tilgang til intern træning der er til at gennemføre uden et halvt årsværk.
Det, der adskiller virksomheder der bruger AI ansvarligt fra dem der ikke gør, er ikke størrelse eller budget. Det er om nogen har taget et bevidst valg om at sætte rammerne. Det er ikke svært. Det kræver bare at nogen gider at gøre det.
Og det er præcis den slags valg der giver ro i maven. Ikke en paragraf, men en klar aftale med sig selv og sine medarbejdere om hvad der er okay og hvad der ikke er.
Ofte stillede spørgsmål
Må medarbejdere bruge ChatGPT til kundemails under GDPR?▼
Hvad tæller som persondata i prompts til AI?▼
Skal der altid være en databehandleraftale for ChatGPT og andre AI værktøjer?▼
Hvad er forskellen på anonymisering og pseudonymisering i AI prompts?▼
Hvordan laver man en enkel AI politik som medarbejdere faktisk følger?▼
Relaterede artikler

AI agenter eller automatisering: hvad passer til din proces?
Du behøver ikke en AI agent til alt. Ofte er en simpel automatisering i Make eller n8n nok til at fjerne manuel indtastning og fejl.<br><br>I artiklen får du et hurtigt beslutningstræ til automation vs AI baseret på stabilitet, risiko og data på tværs af systemer. Jeg gennemgår også human in the loop, logning, adgang og fallback, så løsningen kan køre i drift uden overraskelser.

AI og GDPR i Danmark: hvad må medarbejdere dele?
Kopierer du også lige en kundemail ind i ChatGPT, fordi det går hurtigere? Det føles smart, men navn, kontaktinfo og kontekst kan være nok til at skabe GDPR rod.<br><br>I artiklen får du de klassiske faldgruber i SMVer, en tommelfingerregel du kan huske, og en kort intern AI politik der faktisk bliver fulgt. Jeg tager også fat på anonymisering, databehandleraftale, logning, adgangsstyring og DPIA.
