Hoppa till innehåll
Artificiell Intelligens Artificiell Intelligens
google gemma öppen-källkod llm

Gemma 4: Googles nya öppna AI-familj utmanar de stora

Google DeepMind släpper Gemma 4 under Apache 2.0 — fyra modeller som kan köras lokalt med imponerande prestanda.

A

AI-redaktionen

3 min läsning

Google DeepMind har släppt Gemma 4, en ny familj öppna AI-modeller under den kommersiellt vänliga Apache 2.0-licensen. Med fyra modeller i olika storlekar — från mobiltelefonvänliga 2 miljarder parametrar till kraftfulla 31 miljarder — är det den mest ambitiösa öppna modellsläppet från Google hittills.

Fyra modeller för olika behov

Gemma 4-familjen täcker hela spektrat från edge-enheter till molnservrar:

E2B (2 miljarder effektiva parametrar) är designad för mobiltelefoner och inbyggda system. Trots sin lilla storlek hanterar den grundläggande textuppgifter med imponerande kvalitet. Idealisk för apputvecklare som vill bygga AI-funktioner direkt i mobilen utan molnuppkoppling.

E4B (4 miljarder parametrar) siktar på laptops och mindre system. Den balanserar prestanda och resursåtgång väl — snabb nog för realtidsanvändning, kraftfull nog för de flesta textuppgifter. Kräver bara 4–6 GB RAM i kvantiserad form.

26B A4B använder en Mixture-of-Experts-arkitektur (MoE) med 26 miljarder totala parametrar men aktiverar bara 4 miljarder per token. Resultatet är en modell som presterar som en 26B-modell men kräver beräkningsresurser motsvarande en 4B-modell. En elegant kompromiss.

31B är flaggskeppet med 256K kontextfönster och stöd för text, bild, video och ljud. Den placerar sig bland de tre bästa öppna modellerna globalt och konkurrerar med slutna modeller som kostar hundra gånger mer att använda.

Licensiering: Från restriktiv till helt öppen

Tidigare Gemma-modeller hade villkor som begränsade kommersiell användning — ett hinder för företag som ville bygga produkter. Gemma 4 släpps under Apache 2.0, den mest permissiva standardlicensen inom öppen källkod. Företag kan fritt finjustera, distribuera och kommersialisera modellerna utan att rapportera till Google.

Skiftet till Apache 2.0 positionerar Gemma 4 som ett direkt alternativ till Metas Llama-modeller, som har sin egen community-licens med fler villkor.

Benchmarks och prestanda

31B-varianten når 82.6 på MMLU-Pro och 85.2 på HumanEval — siffror som placerar den i toppskiktet bland öppna modeller. På Arena AI:s crowdsourcade rankning hamnar den bland de tre bästa, bara slagen av väsentligt större modeller.

E4B överraskar med sin prestanda relativt sin storlek. I Googles egna tester presterar den bättre än Llama 3.1 8B på de flesta uppgifter — trots att den har hälften så många parametrar.

Köra lokalt i Sverige

Gemma 4 är designad för lokal körning. E4B kan köras på en vanlig laptop med 6 GB RAM i 4-bitars kvantisering — det täcker de flesta MacBooks och moderna Windows-laptops. 26B A4B-varianten kräver 16–18 GB RAM, möjligt på en MacBook Pro eller gaming-PC.

Ollama och LM Studio stödjer redan Gemma 4 med förbyggda kvantiseringar. Installation tar under fem minuter.

För svenska användare innebär lokal körning att data aldrig lämnar datorn — en avgörande fördel för organisationer med strikta dataskyddskrav under GDPR.

Svenskt stöd

Gemma 4 hanterar svenska bättre än tidigare Gemma-versioner men når inte samma kvalitet som Claude Sonnet 4 eller GPT-4o. 31B-varianten klarar de flesta svenska uppgifter, medan de mindre modellerna kan ha problem med komplex grammatik och idiom.

Community-finjusterade varianter med förstärkt svenskstöd förväntas dyka upp på Hugging Face inom kort.

Tillgänglighet

Gemma 4 finns redan på Hugging Face, Kaggle och via Ollama. Google AI Studio erbjuder ett API för de som vill använda modellerna i molnet utan att hantera egen infrastruktur.

Senast redigerad av AI-redaktionen · 7 april 2026

Relaterade artiklar