Hvorfor dine ChatGPT prompts giver dårlige svar

Christoffer OhlsenChristoffer Ohlsen·
Får du pæne svar fra ChatGPT som stadig ikke kan bruges? Problemet er sjældent værktøjet. Det er prompten, der mangler mål, kontekst og et klart format.

Her får du de vigtigste greb til at skrive prompts, der giver bedre svar til marketing, kundeservice, HR og analyse. Du lærer også, hvordan du får AI til at spørge ind, så du sparer tid og retter mindre bagefter.
Medarbejdere i kontormiljø arbejder med ChatGPT prompts for at få bedre svar fra AI

Det AI svarer på, er ofte det du ikke fik sagt

Du har sikkert prøvet det. Du skriver en besked til ChatGPT, venter et sekund, og så ruller der et svar ud, der er pænt, velformuleret og fuldstændig ubrugeligt. Det er for generelt. Det rammer ikke din situation. Du ender med at omskrive det hele alligevel.

Det er ikke ChatGPT der er dum. Det er heller ikke dig. Det er bare grundvilkåret: AI svarer på det du faktisk skriver, ikke det du havde i tankerne, da du wrote det. Den læser ikke dine tanker. Den forstår ikke din kontekst. Den ved ikke, hvad du leder efter, medmindre du fortæller det.

Det er det, prompting handler om. Ikke tricks. Ikke hokuspokus. Det er bare kunsten at give AI præcis nok information til at levere et svar, du kan bruge med det samme. Og den gode nyhed er, at det kan alle lære i løbet af ret kort tid.

Vage prompts giver vage svar

Der er en direkte sammenhæng mellem kvaliteten af dit input og kvaliteten af output. Det er faktisk ret simpel mekanik. Hvis du skriver "skriv noget om vores produkt til hjemmesiden", så ved AI ikke noget om produktet, målgruppen, tonen, formatet eller formålet. Den vil give dig noget generisk markedsføringstekst, der ligner alt andet på nettet.

Det er ikke magikunst, der mangler. Det er kontekst. Vage prompts producerer vage svar, fordi der ikke er andet at arbejde med. AI er som en ny medarbejder på første dag: den gør sit bedste med den information den har fået, men hvis ingen har fortalt den hvad virksomheden laver, hvem kunderne er, og hvad tonen skal være, så ligner resultatet heller ikke noget.

Det er præcis, hvorfor dårlige svar fra ChatGPT sjældent skyldes AI selv. De skyldes det tomrum, prompten efterlader. Jo større tomrum, jo mere gætter AI. Jo mere AI gætter, jo mere tid bruger du på at rette til bagefter.

En god prompt starter med en konkret opgave

Første skridt mod bedre chatgpt prompts er at starte med en klar, afgrænset opgave. Ikke en idé. Ikke en stemning. En konkret opgave med et klart mål.

I stedet for "hjælp mig med at skrive til LinkedIn" kan du skrive "skriv et LinkedIn-opslag på ca. 150 ord om, at vi netop har lanceret en ny funktion i vores software til byggebranchen. Tonen skal være uformel og nøgtern. Formålet er at skabe interesse, ikke at sælge direkte." Det er en prompt der har en chance.

Den konkrete opgave er kernen. Alt det andet er kontekst, der gør opgaven mulig at løse. Og det bringer os til det næste vigtige element: hvem taler du til, hvad er målet, og hvordan skal svaret se ud.

Hvorfor rolle alene ikke redder et dårligt input

Du har måske læst om prompt engineering dansk teknik, hvor du fortæller AI, at den skal opføre sig som en ekspert. "Du er en erfaren marketingchef med 20 års erfaring..." Det er en populær tilgang, og den kan faktisk hjælpe lidt med tonen og niveauet på svaret.

Men det redder ikke et dårligt input. Hvis du beder en "erfaren marketingchef" om at skrive noget til "vores produkt", er resultatet stadig for generelt, fordi opgaven stadig er for vag. Rolle er krydderi, ikke fundament.

Fundamentet er den konkrete opgave plus kontekst. Rollen kan du lægge ovenpå, når fundamentet er på plads. Tænk på det som rækkefølge: hvad skal laves, hvem er det til, hvad er formålet, og hvordan skal det se ud. Roller er en bonus, ikke en løsning i sig selv.

Hvilken kontekst mangler dine ChatGPT prompts

Kontekst er det, der adskiller et middelmådigt svar fra et svar, du kan bruge direkte. Men hvad er kontekst egentlig i en prompt? Det er de oplysninger, som AI ikke selv kan vide, og som er nødvendige for at løse opgaven rigtigt. Det er din virksomhed, din målgruppe, dine begrænsninger og dit mål.

Når du bruger ChatGPT på arbejdet, er det fristende at gå direkte til opgaven. Du er i gang, du har travlt, og du vil bare have svaret. Men de 30 sekunder det tager at tilføje to linjer kontekst, kan spare dig for fem minutters omskrivning. Den indsats betaler sig hver gang.

Det hjælper at tænke på kontekst i tre lag: hvem er det til (målgruppe), hvad skal det opnå (mål), og hvordan skal det se ud (format). Når alle tre lag er med, har AI det, den har brug for til at levere noget brugbart.

Målgruppe, mål og format i samme besked

En prompt til ChatGPT der virker på jobbet, indeholder typisk tre ting ud over selve opgaven. Lad mig konkretisere det:
  • Målgruppe: Hvem skal svaret ramme? Er det en leder, en ny medarbejder, en kunde der aldrig har hørt om jer, eller en erfaren specialist der kender branchen?
  • Mål: Hvad skal svaret gøre? Informere, overbevise, opsummere, analysere, foreslå? Et svar der skal informere ser meget anderledes ud end et svar der skal overbevise.
  • Format: Hvad skal output se ud? En liste, et afsnit, en e-mail, en tabel, tre punkter, et referat? Hvis du ikke siger det, vælger AI selv, og det er sjældent præcis det, du havde brug for.
Når du har disse tre med, sker der noget. Svaret begynder at ligne noget, der hører hjemme i din arbejdsdag. Det er ikke længere generisk tekst, det er tekst skrevet til en specifik situation med et specifikt formål.

Prøv det næste gang du bruger AI prompts til marketing, kundeservice eller HR. Du vil mærke forskel allerede i den første prompt.

Eksempler gør svaret mere brugbart

Et af de mest undervurderede elementer i en god prompt er eksempler. Ikke fordi AI ikke kan finde på selv, men fordi eksempler sætter standarden for, hvad "rigtigt" ser ud i din kontekst.

Hvis du vil have AI til at skrive i din virksomheds tone, kan du inkludere en sætning eller to fra tidligere kommunikation, som du synes rammer rigtigt. Hvis du vil have en analyse struktureret på en bestemt måde, kan du give et eksempel på den slags output du forventer.

Det behøver ikke være langt. Selv et halvt eksempel er bedre end ingen. Eksempler eliminerer en stor del af gætteriet og giver AI en retning at arbejde i, som er forankret i din virkelighed frem for i en generisk standard.

Det gælder uanset om du arbejder med Claude prompts, Gemini prompts eller ChatGPT. Eksempler er universel kontekst.

Fra flot tekst til svar der kan bruges på arbejdet

Der er forskel på tekst der ser godt ud og tekst der er brugbar. AI er ret dygtig til at producere det første. Det er dit job som promptskriver at sikre, at det også bliver det andet.

Flot tekst er glat, velformuleret og fylder skærmen. Men på arbejdet har du brug for noget mere specifikt: udkast du kan sende, analyser du kan handle på, opsummeringer der fanger det rigtige, og beslutningsstøtte der faktisk hjælper dig med at vælge. Det kræver, at prompten aktivt beder om det.

Hvis du bruger ChatGPT til virksomheder og vil have svar, der kan bruges med minimal omskrivning, er det vigtigt at du er eksplicit om, hvad "brugbar" betyder for dig i den konkrete situation. Det er ikke nok at ønske et godt svar. Du skal definere, hvad et godt svar er.

Svarudkast og analyser med færre omskrivninger

En af de mest frustrerende oplevelser med kunstig intelligens på arbejdet er, når AI leverer et svar, der er halvvejs. Det mangler den specifikke detalje. Det er for optimistisk eller for neutralt. Tonen er lidt ved siden af. Og du ender med at omskrive det hele alligevel.

Det sker typisk, fordi prompten ikke specificerede nok om, hvad "rigtigt" ser ud. For at mindske omskrivning skal du i prompten fortælle AI om de begrænsninger og krav, der gælder. Hvad må den ikke inkludere? Hvad er "must-have"? Hvad er tonen hvis du ved, at din chef altid foretrækker kortere og mere kontant kommunikation, så skriv det ind.

Jo mere du fortæller om, hvad svaret ikke må være, jo tættere kommer AI på det, det faktisk skal være. Det lyder bagvendt, men det virker. Negative begrænsninger er overraskende stærke signaler til AI.

Bed om tabeller, trin og beslutningspunkter

ChatGPT output format er noget du har fuld kontrol over, hvis du bruger det. AI vil som standard producere løbende tekst, fordi det er den mindst risikable form. Men løbende tekst er sjældent det mest brugbare format på jobbet.

Når du laver analyser, er en tabel meget lettere at arbejde med end tre afsnit tekst. Når du skal lære en ny proces, er trin langt bedre end et sammenhængende afsnit. Når du skal tage en beslutning, vil du have fordele og ulemper listet op, ikke beskrevet i en flydende tekst.

Vær eksplicit om format i din prompt. Skriv "svar i en tabel med to kolonner", "giv mig fem konkrete trin i rækkefølge", eller "list fordele og ulemper som to separate lister". Det tager fem sekunder at tilføje, og det ændrer radikalt, hvor brugbart svaret er.

Så får du AI til at sige det den mangler

Noget af det smarteste du kan gøre i en prompt, er at bede AI om at fortælle dig, hvad den mangler for at svare godt. Det er en enkel tilføjelse, men den er effektiv.

Du kan slutte din prompt med "hvis du mangler oplysninger for at svare præcist, så spørg mig inden du svarer." Det giver AI lov til at afklare i stedet for at gætte. Og det sparer dig for en runde af "hmm, det var ikke helt det jeg mente."

Denne tilgang er specielt brugbar til komplekse opgaver, hvor der er mange måder at fortolke opgaven på. I stedet for at AI vælger en tolkning og kører med den, åbner du for en kort dialog der lander jer begge et bedre sted fra starten.

Fejl i prompts der skaber mere arbejde bagefter

Der er et par klassiske fejl, der igen og igen koster tid. Ikke fordi folk er uopmærksomme, men fordi fejlene er subtile og kræver lidt erfaring at genkende. De vigtigste at kende er: for bredt spørgsmål, ingen formatinstruks, manglende kontekst og ingen begrænsning af, hvad AI ikke ved.

Det aller mest tidsrøvende sker, når AI opfinder information, fordi prompten stillede et spørgsmål, den ikke havde grundlag for at svare på. Eller når AI oversimplificerer, fordi opgaven var for åben til at kræve nuancer. Begge dele resulterer i ekstraarbejde, der kunne have været undgået.

For virksomheder der bruger AI på daglig basis, er det vigtigt at have et bevidst forhold til disse fejltyper. Ikke for at blive bange for AI, men for at bruge det smartere. Kvalitetstjek er en del af arbejdet, og det er lettere, når du ved, hvad du tjekker for.

Når AI opfinder, gætter eller bliver for sikker

Kunstig intelligens er designet til at svare. Det er dens grundpræmis. Det betyder, at den i visse tilfælde fylder huller med det, der statistisk set lyder rigtigt, selvom det ikke er faktisk korrekt. Det kaldes hallucination i AI-verdenen, og det sker særligt, når du beder om specifikke tal, fakta, citater eller referencer.

Det er ikke AI der lyver. Det er AI der udfylder det tomrum, du efterlod. Den ved ikke, at den ikke ved det. Den gætter med stor overbevisning, fordi det er det, den er trænet til.

For at minimere dette skal du undgå at bede AI om specifikke tal eller fakta, som den ikke kan have adgang til. Brug i stedet AI til at strukturere, formulere og analysere information, som du selv leverer. Giv den dataene, og lad den arbejde med dem frem for at bede om data, den ikke har.

Hvorfor kvalitetstjek stadig er dit ansvar

Uanset hvor gode dine prompts til virksomheder er, er det stadig dit ansvar at tjekke output. AI er et redskab, og ligesom alle andre redskaber kan det bruges forkert og lave fejl. Det ændrer sig ikke bare fordi et svar ser professionelt ud.

Et godt tommelfingerregler er at spørge dig selv: "kan jeg stå inde for dette, hvis jeg sender det videre?" Hvis svaret er nej, eller hvis du er usikker, så tjek det. Det gælder specielt for tal, navne, citater, juridiske forhold og alt, hvad der er kritisk for din forretning.

AI sparer dig tid på at producere og formulere. Men den frigiver dig ikke fra ansvar. Det er en vigtig distinktion, der gælder uanset om du bruger AI prompts til analyse, HR, kundeservice eller markedsføring. Tjek det, der har konsekvenser.

ChatGPT, Claude og Gemini bruger samme grundlogik

Mange tror, at de skal lære et nyt sæt regler for hvert AI-værktøj de bruger. Det er ikke tilfældet. Den grundlæggende logik bag gode prompts er den samme, uanset om du bruger ChatGPT, Claude eller Gemini. Alle tre er sprogmodeller, og alle tre fungerer ud fra det samme princip: output er et spejl af input.

Der er nuancer. Claude er fx særligt god til lange dokumenter og analyse med meget kontekst. Gemini er tæt integreret med Googles produkter, hvilket kan være praktisk for virksomheder der allerede er i det økosystem. ChatGPT er den mest brugte og har bred understøttelse på tværs af værktøjer og integrationer.

Men hvis din prompt er god, vil alle tre levere et brugbart svar. Og hvis din prompt er vag, vil alle tre give dig noget generisk, uanset hvor avanceret modellen er. Platformen er sekundær. Inputtet er primært.

AI-værktøj Styrke Bedst til
ChatGPT Bred alsidighed og integrationer Daglig brug, udkast, analyse, chatbots
Claude Lang kontekst og nuanceret analyse Dokumentbehandling, lange tekster, research
Gemini Google-integration og multimodal Arbejde i Google Workspace, billedanalyse

God prompting handler mere om input end værktøj

Den vigtigste indsigt i hele denne artikel er egentlig enkel: det er dit input, der bestemmer kvaliteten af svar fra AI. Ikke hvilken version af ChatGPT du bruger. Ikke om det er Claude eller Gemini. Det er dig, der skriver prompten, og det er promptens kvalitet, der afgør resultatet.

Det er faktisk ret befordrende, for det betyder, at du ikke behøver at vente på den næste store AI-opdatering. Du kan forbedre dine resultater i dag ved at skrive mere konkrete, konteksttunge og formatspecifikke prompts. Ingen ny teknologi kræves.

Prompt engineering dansk stil handler ikke om at være teknisk. Det handler om at kommunikere klart. Det er en kompetence, som alle i en virksomhed kan lære, og som giver udbytte hver eneste dag, AI bruges på arbejdet.

De virksomheder, der får mest ud af kunstig intelligens på arbejdet, er ikke dem med de dyreste licenser. De er dem, der har lært at stille de rigtige spørgsmål. Det er faktisk den eneste forskel, der tæller.

Bedre svar fra ChatGPT starter ikke med AI, det starter med dig

Artiklen her har gennemgået, hvorfor dine ChatGPT prompts indimellem giver svar, der er flotte men ubrugelige. Og svaret er konsekvent det samme: AI mangler kontekst, et klart mål, en defineret målgruppe og et format at arbejde ud fra.

En god prompt starter med en konkret opgave. Den tilføjer de tre kontekstlag: hvem er det til, hvad skal det opnå, og hvordan skal output se ud. Den angiver begrænsninger, inkluderer eksempler hvor det er relevant, og beder om det format, der faktisk er brugbart. Og den inviterer AI til at spørge, hvis der mangler noget.

Den samme logik gælder uanset om du bruger ChatGPT, Claude eller Gemini. Og den gælder uanset om du skriver AI prompts til marketing, kundeservice, HR eller analyse. Platformen er underordnet. Din evne til at formulere en præcis, konteksttung prompt er det, der gør forskellen.

Kvalitetstjek er stadig dit ansvar. AI opfinder og gætter, når prompten efterlader tomrum. Men med de rigtige vaner kan du reducere det markant og begynde at få svar fra kunstig intelligens, som du faktisk kan bruge direkte, med langt færre omskrivninger og langt mere værdi i hverdagen.

Ofte stillede spørgsmål

Hvad er en god prompt til ChatGPT?
En god prompt til ChatGPT beskriver opgaven konkret og tilføjer målgruppe, mål og format. Når du også nævner tone, begrænsninger og gerne et eksempel, får du langt bedre svar fra ChatGPT og bruger mindre tid på at rette teksten bagefter.
Hvorfor giver ChatGPT prompts ofte dårlige svar?
Dårlige svar fra ChatGPT opstår ofte, når prompten er for vag. Hvis AI ikke får nok kontekst om virksomhed, målgruppe og formål, fylder den hullerne ud med generelle formuleringer eller rene gæt, og så bliver svaret pænt men ikke særligt brugbart.
Hvordan skriver man en prompt, der virker på arbejde?
Start med en konkret opgave og skriv, hvem svaret er til, hvad det skal opnå, og hvilket format du vil have. En prompt til ChatGPT på arbejde bliver markant bedre, når du beder om for eksempel en tabel, en e-mail, en kort analyse eller en liste med næste skridt.
Hvilket ChatGPT output format er bedst i en travl arbejdsdag?
Det bedste ChatGPT output format afhænger af opgaven, men tabeller, trin og punktopstillinger er ofte lettest at bruge i praksis. Når du vælger format direkte i prompten, får du et svar, der er nemmere at dele, vurdere og handle på.
Gælder de samme regler for Claude prompts og Gemini prompts?
Ja, den grundlæggende logik er den samme. Claude prompts, Gemini prompts og ChatGPT prompts bliver stærkere, når input er præcist, konteksten er tydelig, og output er defineret fra start, så værktøjet ikke skal gætte sig frem.
Hvordan undgår jeg, at AI opfinder fakta eller bliver for sikker?
Brug AI til at strukturere, formulere og analysere oplysninger, du selv giver den, i stedet for at bede om tal, citater eller kilder, den ikke har adgang til. Skriv også i prompten, at den skal spørge om manglende oplysninger, før den svarer, så du reducerer fejl og misforståelser.

Relaterede artikler