Gå tillbaka

Inference

Vad är Inference (Inferens)?

Inference, eller inferens, är fasen där en Maskininlärning- eller AI-modell sätts i arbete. Man brukar skilja på två faser i AI:s livscykel: Träning (där modellen lär sig) och Inferens (där modellen använder det den lärt sig). När du ställer en fråga till ChatGPT och den genererar ett svar, är det en inferens-process som sker.

Varför Inference är viktigt

Träning sker oftast en gång (eller periodvis), men inferens sker hela tiden, varje gång en användare interagerar med systemet. Det är här kostnaden och prestandan för drift blir avgörande. Effektiv inferens kräver optimerad hårdvara och mjukvara för att hålla nere svarstider (latens) och kostnader i molndrift.

Hur fungerar Inference i praktiken?

När du skickar data till modellen:

  1. Input: Din data (text, bild etc.) tas emot.
  2. Bearbetning: Modellen kör datan genom sina lager av neurala nätverk. Den gör inga ändringar i sig själv (den lär sig inte här), den bara räknar.
  3. Output: Modellen levererar en förutsägelse, en klassificering eller genererad text.

Vanliga frågor om Inference

Krävs GPU för inferens?

För tunga modeller (som LLM och bildgenerering) är GPU:er (grafikprocessorer) ofta nödvändiga för att få snabba svar. För enklare modeller kan vanliga CPU:er räcka.

Vad är Edge Inference?

Det är när inferensen körs direkt på användarens enhet (t.ex. i en smartphone eller en IoT-sensor) istället för i ett centralt datacenter. Detta ökar integriteten och snabbheten.

Viktiga punkter att ta med sig:

  • Inferens är när en färdigtränad modell används i skarpt läge.
  • Fokus ligger på snabbhet (låg latens) och kostnadseffektivitet.
  • Utgör den största delen av driftskostnaden för AI-tjänster.