Kimi AI App Try Now

Oversigt over Kimi modeller

Oversigt over Kimi modeller

Moonshot AI's Kimi-platform tilbyder en imponerende række af AI-modeller bygget på en Mixture-of-Experts arkitektur med 1 billion parametre. Flagskibet Kimi K2.5, der blev udgivet i januar 2026, leverer medfødte multimodale funktioner, Agent Swarm-koordinering og en ydeevne, der matcher GPT-5.2 og Claude Opus 4.5. Uanset om du har brug for hurtige svar på enkle spørgsmål, dyb logik til komplekse problemer eller autonome agent-arbejdsgange, dækker Kimi-familien ethvert behov.

Det digitale økosystem omkring Kimi har udviklet sig hurtigt, siden K1.5 blev lanceret i januar 2025. Hver efterfølgende udgivelse har udvidet evnerne fra ren tekstforståelse til fuld multimodal forståelse af video, billeder og dokumenter. Alle modeller i K2-serien deler det samme fundament, men adskiller sig i træningsdata, funktioner og driftstilstande. Hele K2.5-modellen er open-source under en modificeret MIT-licens og er tilgængelig på Hugging Face til lokal implementering.

Model Udgivelsesdato Parametre Kontekstvindue Nøglefunktioner
Kimi K2.5 Januar 2026 1T MoE (32B aktive) 256K tokens Native multimodal, Agent Swarm, open-source
Kimi K2-Instruct-0905 September 2025 1T MoE (32B aktive) 256K tokens Forbedret kodning, udvidet kontekst
Kimi K2 Juli 2025 1T MoE (32B aktive) 128K tokens Første 1T MoE, open-source base
Kimi Linear Oktober 2025 48B MoE (3B aktive) 128K tokens Letvægt, effektiv inferens
Kimi-VL April 2025 16B MoE (3B aktive) 128K tokens Billed- og sprogforståelse
Kimi K1.5 Januar 2025 Ikke oplyst 128K tokens Logik på niveau med OpenAI o1

Flagskibsmodellen Kimi K2.5

Flagskibsmodellen Kimi K2.5

Kimi K2.5 repræsenterer den mest kraftfulde model i rækken og er trænet på cirka 15 billioner blandede visuelle og tekstløse tokens gennem løbende træning ovenpå K2-basen. Arkitekturen anvender 384 eksperter, hvoraf 8 aktiveres per token, samt Multi-Latent Attention (MLA) og SwiGLU-aktivering. Det multimodale design integrerer MoonViT-3D, en visuel encoder med 400 millioner parametre, der håndterer billedinput i variabel opløsning.

Fire forskellige driftstilstande

K2.5 fungerer i fire forskellige tilstande, der hver især er optimeret til specifikke arbejdsopgaver. K2.5 Instant leverer hurtige svar uden dyb tænkning til simple forespørgsler. K2.5 Thinking aktiverer kædetænkning (chain-of-thought) til komplekse opgaver. K2.5 Agent gør det muligt for en enkelt agent at bruge værktøjer autonomt. K2.5 Agent Swarm koordinerer op til 100 specialiserede underagenter, hvilket reducerer eksekveringstiden markant i 2026.

Tilstand Anvendelse Hastighed Logisk dybde
K2.5 Instant Hurtige svar, enkle opgaver Hurtigst Standard
K2.5 Thinking Matematik, logik, kompleks analyse Moderat Dyb kædetænkning
K2.5 Agent Værktøjsbrug, kodning, browsing Opgaveafhængig Agent-baseret logik
K2.5 Agent Swarm Kompleks research, multi-step workflow Meget høj effektivitet Distribueret system

Resultater i benchmarks

K2.5 opnår 96,1% i AIME 2025 (GPT-5.2: 100%), 98,0% i MATH-500 og 87,6% i GPQA-Diamond. Inden for programmering scorer den 83,1% i LiveCodeBench v6, hvilket overgår Claude Opus 4.5 markant. Agent Swarm-tilstanden opnåede 50,2% i Humanity's Last Exam ved brug af værktøjer, hvilket er bedre end GPT-5.2 med væsentligt lavere omkostninger. De visuelle evner inkluderer 92,3% i OCRBench og 86,6% i VideoMMMU.

Kimi K1.5 og logisk tænkning

Kimi K1.5 og logisk tænkning

K1.5 markerede i januar 2025 Moonshot AI's indtog i avancerede ræsonneringsmodeller. Den leverede præstationer på linje med OpenAI o1 i benchmarks for matematik og kodning. Selvom det præcise antal parametre aldrig blev offentliggjort, beviste K1.5, at Moonshot AI kunne konkurrere i toppen af AI-udviklingen.

K1.5 fokuserede udelukkende på tekstbaseret logik uden multimodale evner. Udgivelsen lagde grundstenen for den mere kraftfulde K2-serie. Brugere, der stadig anvender K1.5, bør overveje at opgradere til K2.5, da den overgår forgængeren i alle tests og tilføjer både billedforståelse og agent-funktioner.

Valg af den rette Kimi model

Valg af den rette Kimi model

Valget af model afhænger af dine specifikke krav til ydeevne, pris og fleksibilitet. Den følgende oversigt hjælper med at matche opgaver med den optimale model.

  • Brug K2.5 via API eller hjemmesiden til generelle AI-opgaver med maksimal styrke.
  • Vælg K2.5 Agent eller Agent Swarm til autonome arbejdsgange og omfattende research.
  • Download K2.5 fra Hugging Face for at køre modellen på dit eget hardware via Docker.
  • Anvend Kimi Linear til brug på lokale enheder, hvor ressourcerne er begrænsede.
  • Brug Kimi-VL til simple visuelle opgaver, hvis du har et begrænset budget.
  • Vælg K2-Instruct-0905 til ren tekstbehandling, når billedforståelse ikke er nødvendig.

Ofte stillede spørgsmål

Hvilken Kimi model er den bedste?

Kimi K2.5 er den stærkeste model målt på alle parametre som logik, kodning og billedforståelse. Den opnår 96,1% i AIME 2025 og fører i OCRBench med 92,3%. For brugere, der ikke har brug for absolut topydelse, tilbyder Kimi Linear fremragende evner til en lavere beregningspris.

Er Kimi modellerne gratis at bruge?

Alle Kimi-modeller er tilgængelige gratis via hjemmesiden og mobilapps. API-adgang følger en prismodel per token, som i 2026 starter ved 0,60 dollars per million input-tokens for K2.5. Modellerne på Hugging Face kan downloades frit til både personlig og kommerciel brug.

Kan jeg køre Kimi lokalt?

K2.5 og K2 kan hentes på Hugging Face og køres via vLLM eller Transformers. Den fulde model kræver betydelige GPU-ressourcer. Kimi Linear er dog bedre egnet til lokal kørsel på almindelige computere på grund af sin mindre størrelse.

Hvad er forskellen på K2 og K2.5?

K2.5 tilføjer indbygget billedforståelse, Agent Swarm-tilstand og markante forbedringer i alle benchmarks. Da K2 primært er tekstbaseret med et begrænset kontekstvindue, tilbyder K2.5 en mere komplet løsning til moderne AI-opgaver.

Hvad er Agent Swarm-tilstand?

Det er en funktion i K2.5, der koordinerer op til 100 specialiserede underagenter, hvilket reducerer eksekveringstiden markant i 2026 i forhold til single-agent systemer.

Hvad bruges Kimi Linear til?

Kimi Linear er designet til brug på lokale enheder og mobilapps, hvor lav ventetid og lavt ressourceforbrug (kun 3B aktive parametre) er vigtigere end maksimal ydeevne.