• Personlig AI 2026
    • Personlig AI
    • personlig data
  • AI på jobb 2026
    • AI på jobb
  • AI motorer
    • KI / AI plattform
  • om oss
    • AI abonnement
    • kanal på YouTube
    • my good friends
    • AI i hverdagen >
      • AI og ansvar
      • AI og etikk
    • opplevelser >
      • Møter og presentasjner
      • 2019 Seiltur i Egerhavet
    • aktiv 70 pluss >
      • aktiv 70 pluss utfordringer
      • AI og aktiv 70 pluss
      • aktiv 70 pluss apper
    • AI og klima - fakta >
      • AI / KI >
        • hverdag
        • hverdag med AI
        • AI kategorier
        • AI definisjoner
        • IOT - Smarte enheter
        • AI apper
        • AI roboten NEO
      • Introduksjon til KI
      • klima
    • Folkeopplysning
    • MGFteam dverse
    • e-post images >
      • 2025-12 Personlig Julehilsen
  • 2025 AI
    • 2025 månedens artikkel
    • 2024 arkiv
  • min side
MGFTEAM
  • Personlig AI 2026
    • Personlig AI
    • personlig data
  • AI på jobb 2026
    • AI på jobb
  • AI motorer
    • KI / AI plattform
  • om oss
    • AI abonnement
    • kanal på YouTube
    • my good friends
    • AI i hverdagen >
      • AI og ansvar
      • AI og etikk
    • opplevelser >
      • Møter og presentasjner
      • 2019 Seiltur i Egerhavet
    • aktiv 70 pluss >
      • aktiv 70 pluss utfordringer
      • AI og aktiv 70 pluss
      • aktiv 70 pluss apper
    • AI og klima - fakta >
      • AI / KI >
        • hverdag
        • hverdag med AI
        • AI kategorier
        • AI definisjoner
        • IOT - Smarte enheter
        • AI apper
        • AI roboten NEO
      • Introduksjon til KI
      • klima
    • Folkeopplysning
    • MGFteam dverse
    • e-post images >
      • 2025-12 Personlig Julehilsen
  • 2025 AI
    • 2025 månedens artikkel
    • 2024 arkiv
  • min side

Når språkmodeller tar feil:
Hvordan unngå hallusinering og få mer presise svar

AI og ansvar
​Artikkelen er skrevet av vår AI agent "Innhold Personlig AI" som bruker Copilot365. 
Artikkelen er AI-generert og gjennomgått av en menneskelig redaktør.
​Svarene fra språkmodeller kan være feil eller ufullstendige – bruk kritisk sans.
Hva betyr hallusinering – og hvorfor skjer det?
Hallusinering i AI-sammenheng betyr at en språkmodell gir et svar som virker troverdig, men som er feil eller oppdiktet. Dette skjer fordi modellen er trent til å forutsi ord og setninger basert på mønstre, ikke til å verifisere fakta. Når den mangler data eller blir presset til å svare, kan den «fylle inn» med antakelser.
Bilde
Hvordan kontrollere svarene?
For å redusere risikoen for feil, kan du bruke disse strategiene:
  • Be om kilder: Spør «Kan du vise til kilder?» eller «Hvor kommer denne informasjonen fra?».
  • Be om usikkerhetsgrad: Spør «Hvor sikker er du på dette svaret?».
  • Be modellen stille oppklarende spørsmål: Gi beskjed: «Still meg spørsmål før du svarer».
  • Be om steg-for-steg-resonnement: Spør «Kan du vise hvordan du kom frem til svaret?».
Tre praktiske eksempler på hallusinering – og hvordan du korrigerer dem
  1. Faktafeil:
    Eksempel: Modellen sier at «Norge har 8 millioner innbyggere».
    Avdekking: Spør «Hva er kilden til dette tallet?».
    Korrigering: Be om oppdaterte statistikk-kilder.
  2. Feil tolkning av oppgave:
    Eksempel: Du ber om «en kort oppsummering», men får en lang rapport.
    Avdekking: Spør «Kan du forklare hvordan du tolket oppgaven?».
    Korrigering: Presiser format og lengde.
  3. Overdreven selvsikkerhet:
    Eksempel: Svaret starter med «Dette er helt sikkert riktig».
    Avdekking: Spør «Hva er de tre største usikkerhetene i dette svaret?».
    Korrigering: Be om en vurdering av sannsynlighet.

Mini-verktøysett: Kontroll-setninger
  • «Er du sikker?»
  • «Kan du vise hvordan du kom frem til svaret?»
  • «Hva er de tre største usikkerhetene i dette svaret?»
  • «Hvilke kilder støtter dette?»

Eksempel:

ChatGPT prompt: ​kan du lage et eksempel på en prompt som gir et helt feil svar og hvor det er viktig å følge opp svaret
ChatGPT svar: ​
​
Her er et enkelt, tydelig eksempel du kan bruke i januar-temaet om hallusinering og hvorfor man må følge opp svar fra språkmodeller.

🟥 Eksempel på prompt som gir helt feil svar
Prompt (fra brukeren):
“Hva er hovedstaden i Skandinavia?”
Dette er en typisk prompt som fører til et feil svar, fordi begrepet Skandinavia ikke har en hovedstad – det er ingen stat, men en region.

Mulig feil svar fra en språkmodell:
“Hovedstaden i Skandinavia er København.”
Dette er et hallusinert svar. Det høres plausibelt ut, men det er faktisk feil.

🟦 Hvorfor må man følge opp svaret?
Fordi språkmodellen ikke nødvendigvis sier «jeg er usikker». Den gjetter ut fra mønstre i treningsdata, og København nevnes ofte i forbindelse med Skandinavia – derfor dukker det opp som et “troverdig” men feil svar.

🟩 Eksempel på god oppfølgingsprompt
For å kontrollere svaret kunne brukeren spurt:
1. Be om presisering:
“Er Skandinavia en stat som kan ha en hovedstad? Kan du forklare?”
2. Be om kildekontroll:
“Hva bygger du det svaret på? Kan du vise hvilke fakta som støtter det?”
3. Be om alternativ vurdering:
“Hvis spørsmålet mitt er feil stilt, hvordan burde jeg formulert det?”
Da vil modellen typisk svare noe slikt som:
“Skandinavia er ikke en stat, men en geografisk og kulturell region. Derfor finnes det ingen offisiell hovedstad.”

🟨 Kort versjon du kan bruke i din artikkel
Prompt: “Hva er hovedstaden i Skandinavia?”
Feil svar: “Hovedstaden i Skandinavia er København.”
Poeng: Spørsmålet var feil stilt. Modellen hallusinerer et troverdig, men uriktig svar.
Læring: Alltid følg opp ved å be om presisering, fakta­grunnlag eller en forklaring av begreper.

Hvis du vil, kan jeg lage flere eksempler, også fra andre områder – teknologi, helse, historie, matematikk – slik at du får en bred samling til januar-artiklene.
Picture
Opphavsrett © 2024. Med enerett.
  • Personlig AI 2026
    • Personlig AI
    • personlig data
  • AI på jobb 2026
    • AI på jobb
  • AI motorer
    • KI / AI plattform
  • om oss
    • AI abonnement
    • kanal på YouTube
    • my good friends
    • AI i hverdagen >
      • AI og ansvar
      • AI og etikk
    • opplevelser >
      • Møter og presentasjner
      • 2019 Seiltur i Egerhavet
    • aktiv 70 pluss >
      • aktiv 70 pluss utfordringer
      • AI og aktiv 70 pluss
      • aktiv 70 pluss apper
    • AI og klima - fakta >
      • AI / KI >
        • hverdag
        • hverdag med AI
        • AI kategorier
        • AI definisjoner
        • IOT - Smarte enheter
        • AI apper
        • AI roboten NEO
      • Introduksjon til KI
      • klima
    • Folkeopplysning
    • MGFteam dverse
    • e-post images >
      • 2025-12 Personlig Julehilsen
  • 2025 AI
    • 2025 månedens artikkel
    • 2024 arkiv
  • min side