Hoppa till innehåll
Artificiell Intelligens Artificiell Intelligens
deepfake ebba-busch politik eu-ai-act etik grok

Deepfakes av svenska politiker: Så hotar AI-bilder demokratin

AI-genererade bilder av Ebba Busch och andra politiker sprids online — vi analyserar hotet, lagstiftningen och vad som kan göras.

A

AI-redaktionen

4 min läsning

I januari 2026 spreds AI-genererade bilder av KD-ledaren Ebba Busch via plattformen X. Bilderna skapades med xAI:s bildgenereringsverktyg Grok och utlöste en landsomfattande debatt om deepfakes, politikers rättsskydd och plattformsansvar.

Händelsen är den mest uppmärksammade AI-relaterade nyhetshändelsen i Sverige på flera år — med sökvolym som överstiger alla andra svenska AI-söktermer under första kvartalet 2026.

Vad som hände

Användare på X utnyttjade Grok — Elon Musks AI-bildverktyg som lanserades som en del av X Premium — för att generera realistiska bilder av svenska politiker i kompromitterande situationer. Bilderna spreds viralt och nådde hundratusentals visningar.

Liknande AI-genererade bilder drabbade även andra offentliga personer, inklusive journalisten Karin Frick. Gemensamt var att bilderna var tillräckligt realistiska för att vilseleda betraktare som inte visste att de var AI-genererade.

xAI:s Grok saknade vid tidpunkten de skyddsbarriärer som andra bildgenereringsverktyg — som DALL-E och Midjourney — har infört för att förhindra generering av bilder på verkliga personer i känsliga situationer.

Varför det är allvarligt

Deepfakes av politiker hotar det demokratiska samtalet på flera nivåer:

Desinformation. Falska bilder som sprids utan kontext kan påverka väljares uppfattning av en politikers karaktär och trovärdighet. I en tid av snabb informationsspridning via sociala medier kan skadan ske innan bilden hinner motbevisas.

Avskräckande effekt. Risken för att utsättas för deepfakes kan avskräcka personer — särskilt kvinnor — från politiskt engagemang. Denna effekt kallas “chilling effect” och har dokumenterats av forskare vid bland annat Lunds universitet.

Förtroendeförlust. Varje deepfake-incident underminererar allmänhetens tilltro till digitala medier generellt. Paradoxalt nog kan detta också användas av politiker som hävdar att verkliga, kompromitterande bilder eller videor är “AI-genererade” — ett fenomen som forskare kallar “liar’s dividend”.

Grok och plattformsansvaret

xAI:s Grok skiljer sig från andra bildgenereringsverktyg genom att det vid lanseringen hade minimala begränsningar för vilka bilder som kunde genereras. Konkurrenter som OpenAI (DALL-E) och Midjourney hade redan infört filter som förhindrar generering av bilder av identifierbara verkliga personer.

Efter den svenska debatten och liknande incidenter internationellt har xAI börjat implementera begränsningar, men kritiker menar att åtgärderna är otillräckliga och att plattformsansvaret behöver regleras lagstiftningsvägen.

Vad säger lagen?

EU AI Act

EU:s AI-förordning, som nu implementeras stegvis, ställer krav på att AI-genererat innehåll ska märkas tydligt. Specifikt kräver förordningen att:

  • Syntetiska medier som föreställer verkliga personer ska vara tydligt märkta
  • Leverantörer av generativa AI-system ska implementera tekniska lösningar för att identifiera AI-genererat innehåll
  • Överträdelser kan leda till böter på upp till 35 miljoner euro

Svensk lagstiftning

I Sverige pågår diskussioner om huruvida befintlig lagstiftning räcker. Relevanta lagar inkluderar:

  • Lagen om olaga integritetsintrång (BrB 4 kap. 6 c §) — kan tillämpas vid spridning av manipulerade bilder
  • Förtal (BrB 5 kap. 1 §) — kan vara tillämpligt om bilderna skadar någons anseende
  • Upphovsrättslagen — oklart hur den gäller för AI-genererade verk

Flera riksdagsledamöter har föreslagit specifik deepfake-lagstiftning, men något konkret förslag har ännu inte lagts fram.

Så känner du igen deepfakes

Tekniken förbättras snabbt, men det finns fortfarande tecken att vara uppmärksam på:

  1. Onaturliga skuggor eller belysning som inte matchar omgivningen
  2. Suddiga eller onaturliga kanter runt hår, öron och ansiktskonturer
  3. Inkonsistent bakgrund — objekt som smälter ihop eller försvinner
  4. Ovanliga ögonrörelser, blinkningar eller reflektioner i ögonen
  5. Artifakter vid tänderna — ofta oregelbundna eller suddiga

Vad kan göras

Experter inom AI-säkerhet och medieforskning rekommenderar en kombination av åtgärder:

  1. Starkare tekniska barriärer i AI-bildgeneratorer — särskilt för bilder av identifierbara verkliga personer
  2. Obligatorisk AI-märkning av syntetiskt innehåll, exempelvis genom C2PA-standarden som bäddar in metadata i bilder
  3. Utökad svensk lagstiftning specifikt mot deepfakes av sexuell eller nedsättande karaktär
  4. Digital medieutbildning i skolan — barn och unga behöver verktyg för att kritiskt granska digitalt innehåll
  5. Plattformsansvar — krav på att sociala medier snabbt tar ned deepfakes och informerar den drabbade

Källor

  • SVT Nyheter
  • Svenska Dagbladet

Senast redigerad av AI-redaktionen · 7 april 2026