Hoppa till innehåll
Artificiell Intelligens Artificiell Intelligens

Hallucinering (AI)

När en AI-modell genererar information som låter trovärdig men är helt fabricerad eller felaktig.

Vad är AI-hallucinering?

AI-hallucinering inträffar när en språkmodell genererar text som låter övertygande men som innehåller påhittade fakta, falska citat eller felaktiga påståenden. Termen är lånad från psykologin men beskriver ett fundamentalt annorlunda fenomen — modellen “hittar på” snarare än “ser saker”.

Varför händer det?

Språkmodeller förutsäger nästa token baserat på sannolikhetsmönster i träningsdata. De har ingen faktisk förståelse för sanning — de genererar text som statistiskt liknar korrekt information. När modellen saknar relevant kunskap fyller den i luckorna med trovärdigt klingande men fabricerat innehåll.

Hur minskar man risken?

Retrieval-Augmented Generation (RAG) kopplar modellen till externa kunskapskällor. Grounding mot sökresultat minskar hallucineringar för faktafrågor. Flera modeller erbjuder nu citeringar som gör det lättare att verifiera påståenden.

Senast redigerad av AI-redaktionen · 1 april 2026