Tokens
De minsta textenheterna som en AI-modell bearbetar — ungefär 3/4 av ett engelskt ord eller 1/2 av ett svenskt.
Vad är tokens?
Tokens är de grundläggande enheter som språkmodeller arbetar med. Istället för att bearbeta hela ord delar modellen upp text i mindre bitar — tokens. Ett engelskt ord motsvarar ungefär 1,3 tokens, medan svenska ord i genomsnitt kräver fler tokens på grund av sammansatta ord.
Varför spelar det roll?
Tokens avgör tre saker: kostnad (API-priser anges per miljon tokens), kontextfönster (hur mycket text modellen kan hantera åt gången) och hastighet (fler tokens tar längre tid att generera).
Kontextfönster
Varje modell har ett maximalt kontextfönster mätt i tokens. Claude Sonnet 4 hanterar 200 000 tokens (cirka 500 sidor). Gemini 2.5 Pro hanterar en miljon tokens. Större fönster möjliggör analys av hela böcker eller kodbaser.
Tokenkostnad
GPT-4o kostar $2.50 per miljon input-tokens. Claude Sonnet 4 kostar $3.00. En genomsnittlig e-post på 200 ord förbrukar cirka 300 tokens — så miljontals meddelanden kan bearbetas för några dollar.
Senast redigerad av AI-redaktionen · 1 april 2026