Gå tillbaka

Foundation models

Vad är Foundation Models?

Foundation models (grundmodeller) är mycket stora AI-modeller tränade på enorma mängder data i bred skala. De kallas "foundation" eftersom de fungerar som en basplatta som man kan bygga många olika applikationer ovanpå. Exempel inkluderar GPT (text), Stable Diffusion (bild) och Whisper (ljud). Dessa modeller är inte tränade för *en* specifik uppgift, utan kan anpassas för att göra nästan vad som helst.

Varför Foundation Models är viktiga

Tidigare var man tvungen att bygga en ny AI-modell för varje enskilt problem (en för översättning, en för analys, en för chatt). Det var dyrt och tidskrävande. Med Foundation models har tröskeln sänkts drastiskt. Ett företag kan använda en existerande modell via molndrift och snabbt bygga en lösning genom Prompt Engineering eller Fine-tuning.

Hur fungerar Foundation Models i praktiken?

Nyckeln är "Self-supervised learning" på Big Data-skala.

  • Bred kunskap: Modellen matas med stora delar av internet. Den lär sig mönster, logik, språk och fakta.
  • Anpassningsbarhet: Eftersom den har en så bred basförståelse, behöver den bara se några få exempel på en ny uppgift (Few-shot learning) för att förstå vad den ska göra.

Vanliga frågor om Foundation Models

Vem äger dessa modeller?

Ofta stora techbolag (som OpenAI, Google, Microsoft) eller organisationer som Meta och Mistral, eftersom kostnaden för att träna dem (beräkningskraft i datacenter) är astronomisk. Vissa är dock öppna (Open Source).

Är en LLM samma sak?

En LLM är en *typ* av Foundation model som fokuserar på text. Men Foundation models kan även vara multimodala.

Viktiga punkter att ta med sig:

  • Foundation models är breda, kraftfulla modeller som andra system bygger på.
  • De har revolutionerat AI-utveckling genom att sänka tröskeln.
  • Kan anpassas för vitt skilda uppgifter utan omträning.