Gå tillbaka

Hallucination

Vad är Hallucination inom AI?

Inom artificiell intelligens, särskilt när det gäller Generativ AI och LLM:er, inträffar en hallucination när modellen genererar information som är felaktig, ologisk eller helt påhittad, men presenterar den med stort självförtroende som fakta. Det kan handla om att den uppfinner icke-existerande lagfall, hänvisar till böcker som inte finns eller ger felaktiga historiska årtal.

Varför Hallucination är viktigt att förstå

Eftersom AI-modeller är så övertygande i sitt språkbruk är risken stor att användare litar blint på svaren. Detta kan leda till spridning av desinformation, säkerhetsrisker eller juridiska problem om beslutsfattande baseras på felaktig data. Att förstå hallucinationer är en del av kritisk datahantering och källkritik.

Hur fungerar Hallucination i praktiken?

Hallucinationer uppstår på grund av hur språkmodeller är byggda:

  • Sannolikhet vs Sanning: Modellen är designad för att skapa en trolig mening, inte nödvändigtvis en sann mening. Om den inte vet svaret, gissar den på det som "låter" mest rätt statistiskt.
  • Bias i träningsdata: Om datan modellen tränats på innehåller felaktigheter eller luckor, kommer modellen att spegla detta.

Vanliga frågor om Hallucination

Kan man ta bort hallucinationer helt?

I dagsläget är det mycket svårt att eliminera dem helt, men tekniken förbättras ständigt. Metoder som RAG (Retrieval-Augmented Generation), där modellen får tillgång till företagets egen säkra data, minskar risken avsevärt.

Är hallucination alltid dåligt?

I faktasammanhang är det dåligt. Men i kreativa sammanhang, som när man ber en AI skriva en science fiction-novell, är "påhittigheten" (hallucinationen) precis det man är ute efter.

Viktiga punkter att ta med sig:

  • Hallucination är när AI presenterar falsk information som sanning.
  • Det beror på att AI prioriterar språklig sannolikhet över faktakontroll.
  • Kräver mänsklig granskning och källkritik vid användning.