Kör AI lokalt med Ollama: En guide för skolans personal

Den här kursen ger dig som arbetar i skolan praktiska kunskaper för att ta kontroll över din AI-användning. Vi går igenom fördelarna med att köra AI-modeller lokalt, från ökad datasäkerhet vid hantering av känslig information till möjligheten att arbeta helt offline. Du får lära dig att installera och hantera det kraftfulla verktyget Ollama, som gör processen överraskande enkel. Kärnan i kursen är en handfast genomgång och benchmark av flera populära AI-modeller. Vi utvärderar deras styrkor och svagheter i en svensk skolkontext, så att du kan välja rätt verktyg för dina specifika arbetsuppgifter – oavsett om det handlar om att skapa underlag, analysera texter, generera kod eller få pedagogiskt stöd. Allt är testat på en standarddator (Ubuntu med ett RTX 4070 8GB VRAM) för att ge en realistisk bild av vad som är möjligt utanför molntjänsterna.
Moment i denna kurs
Upptäck varför lokala AI-modeller är ett kraftfullt och säkert alternativ till molnbaserade tjänster för dig i skolan.
Lär dig hur du enkelt installerar och använder Ollama för att köra en AI-modell på din egen dator med ett enda kommando.
En transparent genomgång av testprocessen, inklusive de exakta frågorna och bedömningskriterierna som användes för att jämföra AI-modellerna.
En djupdykning i Gemma3:12b, en modell som briljerar i allt från faktakunskap till pedagogik och språklig kvalitet.
Lär känna Qwen3:8b, en modell som utmärker sig med stark logisk förmåga, utmärkt kodgenerering och hög språklig kvalitet.
Llama3.1:8b är blixtsnabb och bra på fakta, men tendensen att hallucinera och misslyckas med pedagogik kräver försiktighet.
En analys av DeepSeek-R1:8b, en modell som kan generera kod men som misslyckas med grundläggande fakta och språk.
Mistral:7b är en snabb och populär modell, men som i våra tester visade sig ha fundamentala brister i logik och förståelse.
En överskådlig tabell och analys som hjälper dig att välja rätt lokal AI-modell för just dina behov och arbetsuppgifter.
