Kimi AI App Try Now

Maximera din AI med Kimi API och Kimi K2.5-modellen

Upplev kraften i en MoE-modell med 1 biljon parametrar, 256K kontextfönster och full OpenAI-kompatibilitet.

Börja bygga nu

Introduktion till Kimi API

Introduktion till Kimi API

Kimi API ger utvecklare direkt åtkomst till Moonshots kraftfulla modell Kimi K2.5. Detta är en Mixture of Experts-modell (MoE) med 1 biljon parametrar som erbjuder inbyggd multimodalitet, ett kontextfönster på 256K tokens och avancerade agensfunktioner. Det REST-baserade gränssnittet möjliggör smidig integration i applikationer som kräver djup logik, bildförståelse, dokumentanalys och komplexa arbetsflöden med flera agenter. Tjänsten är tillgänglig via Moonshots officiella plattform samt tredjepartsleverantörer som OpenRouter, Together AI och NVIDIA NIM.

För utvecklare som redan arbetar inom OpenAIs ekosystem är migreringen extremt enkel. API:et upprätthåller full kompatibilitet med OpenAIs SDK-struktur, vilket innebär att endast bas-URL och API-nyckel behöver uppdateras. Autentisering sker via standardiserad Bearer-token. Officiella SDK:er för Python och Node.js hanterar anropen effektivt, medan de öppna modellvikterna på Hugging Face tillåter egen värdhantering för team som kräver full kontroll över sin infrastruktur.

Det som utmärker detta API år 2026 är kombinationen av det enorma kontextfönstret, inbyggd synförmåga och läget Agent Swarm till ett pris som är ungefär fyra gånger lägre än Claude Opus 4.5. Komplexa RAG-pipelines förenklas avsevärt när modellen kan bearbeta hela dokumentationsuppsättningar i ett enda pass samtidigt som den förstår grafer, tabeller och videoinnehåll på ett naturligt sätt.

Funktion Detaljer
Nuvarande modell Kimi K2.5 (kimi-k2.5)
Kontextfönster 262 144 tokens (256K)
Indatatyper Text, bilder, video, dokument
Autentisering Bearer-token via Authorization-header
SDK:er Python, Node.js (OpenAI-kompatibla)
Leverantörer Moonshot Official, OpenRouter, Together AI, NVIDIA NIM

API-slutpunkterna speglar OpenAIs struktur för Chat Completions och stöder JSON-svar, strömmande utdata och funktionsanrop för att bygga agentbaserade arbetsflöden. Genom att använda Kimi via API:et får du tillgång till alla operativa lägen i K2.5, inklusive Instant, Thinking, Agent och Agent Swarm.

  • OpenAI-kompatibla REST-slutpunkter minimerar behovet av kodändringar vid leverantörsbyte.
  • Strömmande svar möjliggör progressiva uppdateringar i användargränssnittet under generering.
  • Stöd för funktionsanrop underlättar användning av externa verktyg och strukturerad utdata.
  • Inbyggd multimodal indata hanterar bilder och video direkt tillsammans med text.
  • Automatisk cachning av kontext sänker kostnaderna för upprepad indata med upp till 75%.

Kom igång med API:et

Kom igång med API:et

Registreringsprocessen är snabb och tar bara några minuter. Besök platform.moonshot.ai, skapa ett konto med e-postverifiering och navigera till sektionen för API-nycklar. Plattformen erbjuder omfattande dokumentation på både engelska och kinesiska med kodexempel som täcker de vanligaste integrationsmönstren för utvecklare.

  1. Registrera dig på platform.moonshot.ai och verifiera din e-postadress.
  2. Gå till sektionen för API-nycklar i utvecklarpanelen.
  3. Skapa din första API-nyckel och spara den säkert då den inte kan visas igen.
  4. Installera OpenAI Python SDK eller använd cURL för direkta anrop.
from openai import OpenAI

client = OpenAI(
    api_key="din_moonshot_api_nyckel",
    base_url="https://api.moonshot.cn/v1"
)

response = client.chat.completions.create(
    model="kimi-k2.5",
    messages=[
        {"role": "system", "content": "Du är en hjälpsam assistent."},
        {"role": "user", "content": "Förklara arkitekturen bakom MoE."}
    ],
    temperature=0.7
)

print(response.choices[0].message.content)

Denna kod fungerar identiskt med anrop till OpenAIs API. Att byta från GPT-modeller kräver endast att du justerar parametrarna för base_url och api_key. Befintlig felhantering, logik för återförsök och strömningsimplementeringar kan överföras utan några modifieringar i källkoden.

Gränser för användning

Gränser för användning

Det officiella API:et använder ett nivåbaserat system som baseras på det totala belopp som laddats på kontot. Högre nivåer låser upp ökad kapacitet för samtidiga förfrågningar och högre hastighetsgränser per minut.

Nivå Total insättning Samtidiga anrop Anrop per minut
Nivå 1 $10 50 200
Nivå 2 $100 100 500
Nivå 3 $500 300 2 000
Nivå 5 $3 000 1 000 10 000

För applikationer som kräver högre gränser finns företagslösningar tillgängliga. Dessa anpassade planer erbjuder specifika hastighetsgränser och nås genom direktkontakt med säljteamet hos Moonshot AI.

Användning av multimodala funktioner

Användning av multimodala funktioner

Den nativa multimodala arkitekturen i Kimi K2.5 accepterar bilder och video direkt i API-anropen. Vision-kodaren MoonViT-3D bearbetar indata med varierande upplösning utan att användaren behöver ändra storlek på filerna i förväg.

response = client.chat.completions.create(
    model="kimi-k2.5",
    messages=[
        {
            "role": "user",
            "content": [
                {"type": "text", "text": "Beskriv detta diagram och extrahera data."},
                {"type": "image_url", "image_url": {"url": "https://example.com/diagram.png"}}
            ]
        }
    ]
)

Modellens förmåga inom bildanalys når höga resultat i mätningar som OCRBench (92,3%) och InfoVQA (92,6%). Detta gör Kimi K2.5 särskilt lämpad för dokumentförståelse, dataextraktion från bilder och analys av video genom att skicka flera bildrutor eller URL-länkar till videomaterial.

Vanliga frågor

Är Kimi API kompatibelt med OpenAI SDK?

Ja, det är fullt kompatibelt. Du behöver bara ändra base_url till api.moonshot.cn/v1 och använda din personliga API-nyckel från Moonshot. Funktioner som Chat Completions, strömning och funktionsanrop fungerar på exakt samma sätt som du är van vid.

Hur stort är det maximala kontextfönstret?

Kimi K2.5 stöder upp till 262 144 tokens per anrop. Detta gör det möjligt att hantera hela kodbaser, omfattande dokumentsamlingar och långa konversationshistoriker i ett enda anrop utan att behöva dela upp texten i mindre bitar.

Hur fungerar cachning av kontext?

Automatisk cachning aktiveras när samma prefix, såsom ett systemmeddelande eller ett dokument, förekommer i flera påföljande anrop. Cachade tokens kostar endast $0,15 per miljon jämfört med ordinarie $0,60, vilket sker helt automatiskt utan manuell hantering.

Kan jag köra Kimi på en egen server?

Kimi K2.5 är tillgänglig som öppen källkod under en modifierad MIT-licens. Du kan ladda ner vikterna från Hugging Face och köra dem via verktyg som vLLM eller SGLang. Notera att den fullständiga modellen med 1 biljon parametrar kräver omfattande GPU-resurser för effektiv drift.

Vilka indatatyper stöds av API:et?

API:et stöder text, bilder, video och dokument direkt i samma gränssnitt.

Vad kostar indata per en miljon tokens?

Hos Moonshot Official kostar indata $0,60 per 1M tokens, och endast $0,15 om den är cachad.

Hur skapar jag en API-nyckel?

Du skapar en nyckel i utvecklarpanelen på platform.moonshot.ai efter e-postverifiering.