
Lär dig de viktigaste AI-modellerna
Meta Llama: En nyckelspelare inom öppen källkods-AI
Lästid: ca 12 min
Vi har utforskat en rad kommersiella AI-modeller, och även DeepSeek som en representant för öppna källkodsmodeller. Nu är det dags att fokusera på en av de mest betydelsefulla och inflytelserika aktörerna inom öppen källkods-AI-landskapet: Meta Llama-familjen. Meta, företaget bakom Facebook och Instagram, har tagit en ledande roll i att göra kraftfulla AI-modeller tillgängliga för forskare och utvecklare globalt, vilket driver innovation och transparens i branschen.
Vad du lär dig
- Vad som utmärker Meta:s Llama-modeller och den unika licensieringsmodellen.
- Utvecklingen av Llama-familjen, inklusive de senaste Llama 3.3 och Llama 4-familjerna.
- Llama-modellernas kapacitet för textgenerering, resonemang, kodning och multimodalitet.
- Llamas prestanda i svenska.
- Viktiga överväganden och licensvillkor för användning av Llama i en skolkontext.
Grunderna: Vad är Meta Llama?
Meta Llama (Large Language Model Meta AI) är en familj av stora språkmodeller utvecklade av Meta AI. Till skillnad från många kommersiella modeller, som är stängda och endast tillgängliga via API:er eller specifika gränssnitt, har Meta valt att släppa sina Llama-modeller med öppna vikter (open weights). Det här innebär att modellens "hjärna" är fritt nedladdningsbar och kan inspekteras.
Llamas licensiering – "Öppna vikter" men inte alltid "Öppen källkod"
Det är dock viktigt att klargöra skillnaden: medan Llama-modellernas vikter är öppna och fritt tillgängliga, är licensen (Meta Llama Community License, nu i version 4) proprietär och bryter mot Open Source Initiative (OSI:s) strikta definition av öppen källkod. Det här beror på specifika restriktioner, bland annat en tröskel för kommersiell användning och vissa geografiska begränsningar som kan påverka användare inom EU.
Meta:s strategiska drag med öppna vikter har ändå haft en enorm inverkan på AI-forskning och utveckling, då det har möjliggjort för tusentals innovatörer att bygga vidare på, anpassa och förbättra de här modellerna.
Utvecklingen av Llama-familjen: Från Llama 2 till Llama 4
Meta har kontinuerligt utvecklat och förfinat Llama-familjen i snabb takt. Här är en översikt över de viktigaste versionerna fram till juli 2025:
| Version | Släppt | Storlekar / Typ | Viktigaste nyheter | Multimodal | Kontextfönster |
|---|---|---|---|---|---|
| Llama 2 | 2023-07 | 7B · 13B · 70B | Bas + Chat-varianter | Nej | 4k |
| Llama 3.0 | 2024-04 | 8B · 70B | Bättre resonemang och kod | Nej | 8k |
| Llama 3.1 | 2024-07 | 8B · 70B · 405B | 128k tokens | Nej | 128k |
| Llama 3.2 (Vision) | 2024-09 | 1B · 3B text 11B · 90B vision | Första bild-in-stödet, Llama Guard 3 | Ja | 128k |
| Llama 3.3 | 2024-12 | 70B text-only | Samma kvalitet som 3.1-405B till lägre kostnad | Nej | 100k |
| Llama 4 Scout | 2025-04 | 17B aktiva (109B tot) MoE | Nativt multimodal, körs på en H100, 10 miljoner tokens | Ja | 10M |
| Llama 4 Maverick | 2025-04 | 17B aktiva (400B tot) MoE | GPT-4o-klass i kod & reasoning, 1 miljon tokens | Ja | 1M |
| Llama 4 Behemoth* | 2025-04† | 288B aktiva (2T tot) MoE | Under träning, tänkt som S-o-t-A (State-of-the-Art) | Ja | TBA |
*Förhandsvisad, ej publikt nedladdningsbar. †Annons 5 april 2025, modell färdigställs senare under 2025.
Styrkor: Vad är Meta Llama bra på?
Allmänna språkförståelse och generering: Llama-modellerna, särskilt från Llama 3 och framåt, är mycket kapabla för en bred uppsättning språkbaserade uppgifter. De kan generera kreativ text, sammanfatta information, svara på frågor och utföra komplexa instruktioner. Llama 3 överträffar t ex Mixtral 8x22B på MMLU-benchmark enligt Meta.
- Praktiskt exempel: "Skriv ett kort tal om vikten av källkritik för elever i årskurs 9" eller "Sammanfatta de viktigaste argumenten för och emot kärnkraft."
Resonemang och kodning: Llama 3-familjen har visat sig vara mycket stark på logiskt resonemang, problemlösning och kodgenerering, vilket gör dem användbara för STEM-ämnen och datavetenskap.
- Praktiskt exempel: "Föreslå en algoritm för att sortera en lista med nummer" eller "Förklara hur fotosyntesen fungerar i detalj, inklusive de kemiska formlerna."
Nativ Multimodalitet (Llama 4-familjen): Llama 4 Scout och Maverick är Metas första nativt multimodala modeller, vilket innebär att de från grunden är designade för att förstå och bearbeta information från bilder och andra modaliteter utöver text. Llama 3.2:s vision-modeller var ett tidigt steg i den här riktningen.
- Praktiskt exempel (med Llama 4): "Beskriv vad som händer i den här bilden av en historisk händelse och föreslå diskussionsfrågor för elever."
Extremt långa kontextfönster (Llama 4 Scout): Llama 4 Scout utmärker sig med ett enormt kontextfönster på cirka 10 miljoner tokens, vilket möjliggör bearbetning av extremt stora mängder information. Llama 3.1 och 3.2 har också ett betydande kontextfönster på 128 000 tokens.
Svensk språkhantering
Llama-modellerna, särskilt från Llama 3 och framåt, är tränade på massiva dataset som inkluderar en bred representation av språk utöver engelska. Llama 3.3 70B har förbättrad flerspråkighet och slår Mixtral 8x22B på XS-QuAD-svenska enligt Metas egna benchmarks. En extern pilotstudie visar god träffsäkerhet i sentimentanalys för Llama 2 på svenska (97% precision). Det här indikerar att Llama 3 och efterföljare har god förmåga att förstå och generera text på svenska med hög kvalitet för de flesta vanliga uppgifter. Den kan dock ha svårare med mycket specifika kulturella nyanser eller dialekter.
Viktiga överväganden för skolmiljön (Licens, Säkerhet och Ansvar)
Att använda Llama-modeller i skolan medför specifika överväganden, särskilt kring licensiering och implementering:
1. Licensvillkor och tillgänglighet för skolor
Llama-modellerna släpps under Meta Llama Community License, nu i version 4 (daterad 2025-04-05). För skolor som funderar på att använda Llama kommersiellt (även om det är för icke-vinstdrivande utbildningsändamål), är det viktigt att notera följande:
- MAU-tröskel (Monthly Active Users): Licensen har en tröskel på 700 miljoner MAU. Organisationer som överstiger det här behöver en separat, specialskriven licens från Meta. Även om få skolor kommer upp i den här nivån är det en viktig begränsning att vara medveten om för större utbildningsnätverk.
- Geografiska begränsningar (EU): Llama 4-licensen kan fortfarande innehålla klausuler som exkluderar EU-användare från vissa typer av kommersiell användning eller kräver specifika godkännanden. Skolor inom EU bör därför söka separat klartecken eller juridisk rådgivning innan implementering.
- Attribution: Om Llama-modeller används i offentliga applikationer eller tjänster, kräver licensen att man dokumenterar attribution ("Built with Meta Llama 3" eller "Built with Meta Llama 4").
2. Teknisk kompetens och infrastruktur
- Att implementera och hantera Llama-modeller lokalt kräver betydande teknisk kompetens och kraftfull infrastruktur.
- Llama 3 8B kan köras på en RTX 4090 (24 GB) i 4-bitars kvantisering.
- Llama 3 70B kräver minst 2x80 GB GPU eller molntjänst med >120 GB RAM.
- Llama 3.1-405B och Llama 3.2 90B Vision-modellerna behöver H100-kluster eller motsvarande; lokal drift är ofta orealistisk för skol-IT utan specialiserade resurser.
- Llama 4 Scout kan köras på en H100 i int4-kvantisering; Llama 4 Maverick kräver dock 4xH100 eller motsvarande.
3. Dataskydd och kontroll (GDPR)
- Om modellen körs helt lokalt på skolans egna servrar kan det ge en högre grad av kontroll över dataskyddet, då ingen information lämnar skolans nätverk. Det här kan vara ett starkt argument ur GDPR-synpunkt, men kräver att skolans IT-avdelning har full kontroll över implementation, säkerhet och efterlevnad av GDPR, inklusive regelbundna uppdateringar och säkerhetsgranskningar.
- En noggrann DPIA (Data Protection Impact Assessment) bör utföras innan pilotdrift med Llama.
4. Säkerhet och Moderering: Llama Guard 4
- Meta har utvecklat Llama Guard 4 (finns i 12B, multimodal version) som en säkerhetsklassificerare, vilken har ersatt Llama Guard 3 som standard-moderator. Den kan integreras av skolor eller utvecklare som bygger applikationer ovanpå Llama, för att filtrera bort generering av osäkert eller oönskat innehåll.
- Det här är ett viktigt verktyg för att lägga till "guardrails" i AI-applikationer, men kräver aktiv implementering av skolan/utvecklaren. Öppna källkodsmodeller har generellt sett inte samma inbyggda, strikta säkerhetsfilter och moderation som de stora kommersiella molnbaserade tjänsterna "out-of-the-box".
Praktiska exempel i klassrummet
- Skapa interaktiva lärresurser: Lärare med teknisk kunskap kan använda Llama-modeller för att bygga egna lokala AI-assistenter som kan svara på frågor om ett specifikt ämne (genom finjustering med kursmaterial) eller generera övningsuppgifter.
- Programmeringsprojekt: Elever på högre nivåer kan experimentera med att ladda ner och köra Llama-modeller som en del av ett projekt inom datavetenskap eller maskininlärning.
- Språk- och skrivutveckling: Använd Llama för att generera textutkast för olika syften, sammanfatta artiklar eller för att få alternativa formuleringar, medvetna om de dataskyddsaspekter som gäller vid lokal drift.
Nästa steg
Nu när du har en komplett överblick över både kommersiella och öppna källkodsmodeller, är det dags för nästa moment: Välja rätt AI-modell. Vi kommer att sammanfatta de viktigaste vägledningarna för att strategiskt välja rätt AI för olika pedagogiska och administrativa behov.
