On-premises AI
Vad är On-premises AI?
On-premises AI innebär att AI-modeller och AI-infrastruktur körs i organisationens egna datacenter eller lokala servrar, istället för i publika molntjänster. Det ger full kontroll över data, modeller och beräkningskraft – en allt viktigare faktor för organisationer med höga krav på datasuveränitet, regelefterlevnad och säkerhet.
Varför välja On-premises AI?
De främsta drivkrafterna är datakontroll (känslig data lämnar aldrig organisationens infrastruktur), regelefterlevnad (GDPR, AI Act, sektorspecifika krav), latens (ingen fördröjning till molnet), anpassning (full kontroll över modellkonfiguration) och kostnad (vid hög och förutsägbar belastning kan on-premises vara mer kostnadseffektivt än molnet).
Tekniska krav
On-premises AI kräver betydande investeringar i hårdvara – framför allt GPU-kluster för modellträning och inferens. Organisationen behöver också kompetens inom MLOps, modellhantering och IT-drift. Alternativt kan man köra self-hosted LLM:er på mer modest hårdvara för specifika användningsfall.
Hybridlösningar
Många organisationer väljer en hybridstrategi där känsliga AI-arbetsbelastningar körs on-premises medan mindre känsliga uppgifter hanteras i molnet. Det ger en balans mellan kontroll, kostnadseffektivitet och skalbarhet. Molnleverantörer erbjuder även "on-premises molnlösningar" som Azure Stack och AWS Outposts.
Vanliga frågor om On-premises AI
Vad innebär on-premises AI?
On-premises AI betyder att AI-modeller körs i organisationens egna datacenter istället för i publika molntjänster, vilket ger full kontroll över data och infrastruktur.
Vilka organisationer bör överväga on-premises AI?
Organisationer med strikta krav på dataskydd, regulatorisk efterlevnad, låg latens eller mycket hög bearbetningsvolym gynnas mest av on-premises AI.
Vad kostar on-premises AI?
Initialkostnaden är hög (hårdvara, installation, kompetens) men driftkostnaden per beräkning kan bli lägre vid hög belastning jämfört med molntjänster.
Kan man köra stora språkmodeller on-premises?
Ja, med rätt GPU-hårdvara kan organisationer köra open source-modeller som LLaMA, Mistral och andra lokalt. Mindre modeller kräver begränsad hårdvara.
Vad är skillnaden mellan on-premises AI och Edge AI?
On-premises AI körs i organisationens datacenter, medan Edge AI körs på enheter ute i fält (sensorer, kameror etc.). Båda undviker molnet men har olika syften.
-
A
- Accesspunkt
- Active Directory
- Affärssystem
- Agent Assist
- Agentic AI
- Artificial General Intelligence (AGI)
- AI
- AI Act / AI-förordningen
- AI-compliant
- AI Factory
- AI-first
- AI governance
- AI PC
- AI-proofed
- AI-ready
- AIaaS
- AIOps
- Algoritm
- Alignment
- API
- Attack Surface Management (ASM)
- Automation
- Autonomous agents
- AWS (Amazon Web Services)
- Azure API Management
- Azure Arc
- Azure Cosmos DB
- Azure Data Factory
- Azure DevOps
- Azure Event Grid
- Azure Event Hubs
- Azure Function Apps
- Azure Integration Services
- Azure Key Vault
- Azure Logic Apps
- Azure Service Bus
- Azure Storage Account
- B
-
C
- C3PAO
- CapEx vs OpEx
- CCaaS
- CEaaS
- Chatbot
- CI/CD
- Cirkulär IT
- CIS
- Claude Code
- CLI
- Click to Do
- CLOUD Act
- Cloud Native
- Cloud Security (Molnsäkerhet)
- CMMC
- CNAPP
- Colocation
- Computer vision
- Confidential Computing
- Containerisering
- Content Delivery Network (CDN)
- Copilot
- Copilot Studio
- CRC
- CRM
- CSIRT
- CSP (Cloud Solution Provider)
- CSRD
- CTEM
- Customer experience
- Cyber range
- Cyber resilience
- Cyberresiliensförordningen
- Cybersäkerhet
- Cybersäkerhetslagen
- Cybersäkerhetsakten
-
D
- DaaS
- DANE
- Data-fabric plattform
- Data Governance
- Data Lake
- Data Lakehouse
- Data Mesh
- Data sovereignty
- Dataanalys
- Databas
- Databricks
- Datacenter
- Datahantering (Data Management)
- Datamigrering
- Datasuveränitet
- Datavisualisering
- DDoS
- Deep learning
- Deepfake
- DevOps
- DevSecOps
- Digital Employee Experience (DEX)
- Digital Experience Platform (DXP)
- Digital leveranskedja
- Digital motståndskraft
- Digital Operational Resilience
- Digital suveränitet
- Digital tvilling
- Digital twin
- Digitalisering
- Disaster Recovery
- DKIM
- Data Loss Prevention (DLP)
- DMA
- DMARC
- DNSSEC
- Docker
- DORA
- Disaster Recovery as a Service (DRaaS)
- DRP
- E
- F
- G
- H
-
I
- IAM
- Identity Governance and Administration (IGA)
- Immutable backups
- Incident Response
- Inference
- Informationssäkerhet
- Infrastruktur-som-kod
- Integration
- Integration ERP
- Integrationsförvaltning
- Intrångsdetektionssystem (IDS)
- Intune
- IoT - Internet of Things
- ISO
- ISO 27001
- IT-drift
- IT-forensik
- IT-säkerhet
- IT-upphandling
- ITAD Services
- IT Asset Management (ITAM)
- ITIL
- J
- K
- L
-
M
- Malware
- Managed Print Services (MPS)
- Managed Service Provider (MSP)
- Maskininlärning
- Managed Detection and Response (MDR)
- MFA
- Microservices
- Microsoft 365
- Microsoft Defender
- Microsoft Entra ID
- Microsoft Fabric
- Microsoft Foundry
- Microsoft Pluton
- Microsoft Sentinel
- Microsoft Teams Rooms
- MLOps (Machine Learning Operations)
- Model Context Protocol (MCP)
- Model serving
- Molndrift
- Molnsäkerhet
- Monoberoende - Ändringar som hotar
- Mopria
- MTA-STS
- Multiagent Systems / Multiagentsystem
- Multicloud
- Multimodal
- N
- O
- P
- Q
- R
-
S
- SaaS
- Säkerhetsgranskning
- SASE
- SBTi
- Scope 1/2/3
- SDN
- Secure-Core PC
- Security Posture Management (CSPM/SSPM)
- Self-hosted LLM
- SEO
- Serverless Computing
- Servicedesk
- Shadow AI
- Sharepoint
- SIEM
- Single Sign-On (SSO)
- SIT-test
- Service Level Agreement (SLA)
- Small Language Models (SLM)
- SMTP AUTH
- SOAR
- SOC
- SOC 2
- Social Engineering
- Sovereign AI
- Sovereign Cloud
- Spear phishing
- SPF (Sender Policy Framework)
- Spoofing
- SRE (Site Reliability Engineering)
- Svanenmärkningen
- Synthetic data
- Systemintegration
- T
- U
- V
- W
- X
- Y
- Z
- Å
- Ä
- Ö