Kimi AI App Try Now

Kimi Models Review & Guide

Tuklasin ang kapangyarihan ng Kimi K2.5 at ang pamilya ng mga AI model mula sa Moonshot AI na babago sa iyong workflow.

Subukan Ngayon

Pangkalahatang-ideya ng mga Modelong Kimi

Pangkalahatang-ideya ng mga Modelong Kimi

Ang Kimi platform mula sa Moonshot AI ay nag-aalok ng kahanga-hangang koleksyon ng mga AI model na binuo sa isang 1 trillion parameter Mixture-of-Experts architecture. Ang flagship na Kimi K2.5, na inilunsad noong Enero 2026, ay nagbibigay ng native multimodal capabilities, Agent Swarm coordination, at benchmark performance na tumatapat sa GPT-5.2 at Claude Opus 4.5. Kailangan mo man ng mabilis na sagot para sa mga simpleng tanong, malalim na pangangatwiran para sa mga kumplikadong problema, o mga autonomous agent workflow, sakop ng pamilya ng Kimi model ang bawat gamit.

Mabilis ang pag-unlad ng ekosistema ng Kimi simula nang ilunsad ang K1.5 noong Enero 2025. Ang bawat sumunod na bersyon ay nagpalawak ng mga kakayahan mula sa text-only reasoning patungo sa buong multimodal understanding na may video, imahe, at mga dokumento. Ang lahat ng K2-series model ay gumagamit ng parehong 1T MoE foundation ngunit nagkakaiba sa training data, mga feature, at operational modes. Ang buong K2.5 model ay open-source sa ilalim ng Modified MIT License at makukuha sa Hugging Face para sa self-hosted deployment.

Modelo Petsa ng Paglabas Parameters Context Window Pangunahing Feature
Kimi K2.5 Enero 2026 1T MoE (32B active) 256K tokens Native multimodal, Agent Swarm, open-source
Kimi K2-Instruct-0905 Setyembre 2025 1T MoE (32B active) 256K tokens Pinahusay na coding, pinalawak na context
Kimi K2 Hulyo 2025 1T MoE (32B active) 128K tokens Unang 1T MoE, open-source base
Kimi Linear Oktubre 2025 48B MoE (3B active) 128K tokens Magaan, episyenteng inference
Kimi-VL Abril 2025 16B MoE (3B active) 128K tokens Vision-language, compact multimodal
Kimi K1.5 Enero 2025 Hindi binanggit 128K tokens Reasoning parity sa OpenAI o1

Kimi K2.5 Flagship na Modelo

Kimi K2.5 Flagship na Modelo

Ang Kimi K2.5 ang pinakamakapangyarihang modelo sa listahan, na sinanay sa humigit-kumulang 15 trilyong magkahalong visual at text token sa pamamagitan ng patuloy na pre-training sa ibabaw ng K2 base. Ang arkitektura nito ay gumagamit ng 384 experts kung saan 8 ang aktibo bawat token, Multi-Latent Attention (MLA), at SwiGLU activation. Ang native multimodal design ay nagsasama ng MoonViT-3D, isang 400M parameter vision encoder na gumagamit ng NaViT packing para sa variable-resolution image input.

Apat na Operational Modes

Gumagana ang K2.5 sa apat na magkakaibang mode na i-optimize para sa iba't ibang workflow. Ang K2.5 Instant ay nagbibigay ng mabilis na tugon para sa mga direktang tanong. Ang K2.5 Thinking ay nag-a-activate ng chain-of-thought reasoning para sa mga kumplikadong problema. Ang K2.5 Agent ay nagbibigay-daan sa paggamit ng mga tool para sa mga gawaing kailangang tapusin nang mag-isa. Ang K2.5 Agent Swarm naman ay nag-o-organisa ng hanggang 100 espesyalisadong sub-agent na sabay-sabay na nagtatrabaho upang pabilisin ang proseso nang 4.5 beses.

Mode Gamit Bilis Lalim ng Pag-iisip
K2.5 Instant Mabilis na sagot, simpleng gawain Pinakamabilis Standard
K2.5 Thinking Math, lohika, kumplikadong pagsusuri Katamtaman Deep chain-of-thought
K2.5 Agent Tool use, code execution, browsing Depende sa gawain Agentic reasoning
K2.5 Agent Swarm Kumplikadong research, multi-step workflows 4.5x na mas mabilis kaysa single agent Distributed multi-agent

Resulta sa mga Benchmark

Nakakuha ang K2.5 ng 96.1% sa AIME 2025 (GPT-5.2: 100%), 98.0% sa MATH-500, at 87.6% sa GPQA-Diamond. Sa larangan ng coding, nakapagtala ito ng 83.1% sa LiveCodeBench v6, na mas mataas kaysa sa 64.0% ng Claude Opus 4.5. Ang Agent Swarm mode ay nakakuha ng 50.2% sa Humanity's Last Exam gamit ang mga tool, na lumalampas sa 45.5% ng GPT-5.2 sa mas mababang halaga. Ang mga kakayahan sa vision ay kinabibilangan ng 92.3% sa OCRBench at 86.6% sa VideoMMMU.

Kimi K2 Base na Modelo

Kimi K2 Base na Modelo

Inilunsad noong Hulyo 2025, ang K2 ang unang 1 trillion parameter MoE model ng Moonshot AI at ang pundasyon para sa lahat ng susunod na K2-series releases. Inilabas ito bilang open-source sa ilalim ng MIT License at itinaguyod ang 384-expert architecture na may 32B activated parameters na namana rin ng K2.5. Ang orihinal na bersyon ay sumusuporta sa 128K tokens context, na pinalawak sa 256K sa Setyembre 2025 Instruct update.

Ang K2-Instruct-0905, na inilabas noong Setyembre 2025, ay nagdala ng makabuluhang pagpapahusay sa coding at pinalawak na 256K context window. Ang update na ito ay nakakuha ng 94.5% sa HumanEval, na nagpapakita ng malakas na kakayahan sa paggawa ng code. Ang Instruct variant ay nananatiling opsyon para sa mga text-only na gawain para sa mga user na hindi nangangailangan ng multimodal features.

Mga Lightweight na Modelo

Mga Lightweight na Modelo

Kimi Linear

Inilunsad noong Oktubre 2025, ang Kimi Linear ay gumagamit ng compact na 48B MoE architecture na may 3B activated parameters lamang bawat token. Idinisenyo ito para sa edge deployment at mga kapaligirang limitado ang resources. Ang modelo ay sumusuporta sa 128K token context at episyenteng tumatakbo sa mga consumer-grade hardware, kaya angkop ito para sa local deployment, mobile applications, at mga sitwasyong mas mahalaga ang bilis kaysa sa pinakamataas na kakayahan.

Kimi-VL

Inilabas noong Abril 2025, ang Kimi-VL ay isang 16B parameter MoE vision-language model na may 3B activated parameters. Ito ang unang open-source multimodal model ng Moonshot AI na ginawa para sa mga gawaing pinagsasama ang pag-unawa sa imahe at paggawa ng teksto. Bagama't nalampasan na ito ng K2.5, nananatiling mahalaga ang Kimi-VL para sa mga magaang vision task kung saan masyadong malaki ang paggamit ng 1T model.

Paano Pipiliin ang Tamang Modelong Kimi

Paano Pipiliin ang Tamang Modelong Kimi

Ang pagpili ng modelo ay nakadepende sa iyong mga kinakailangan para sa kakayahan, halaga, at deployment flexibility. Ang gabay na ito ay makakatulong sa pagpili ng pinakaangkop na modelo para sa iyong pangangailangan.

  • Paggamit ng AI para sa pangkalahatang layunin: Gamitin ang K2.5 sa pamamagitan ng API o sa kimi.com.
  • Pagsasagawa ng mga auto-workflow at research: Gamitin ang K2.5 Agent o Agent Swarm mode para sa mga gawaing nangangailangan ng sabay-sabay na paghahanap ng impormasyon.
  • Pagpapatakbo ng self-hosted deployment: I-download ang K2.5 mula sa Hugging Face at i-deploy ito gamit ang vLLM, SGLang, o Docker.
  • Paglalagay sa mga lightweight o edge device: Gamitin ang Kimi Linear para sa mga computer na may limitadong hardware resources.
  • Paggawa ng mga simpleng vision task sa maliit na budget: Gamitin ang Kimi-VL kapag hindi kailangan ang buong lakas ng K2.5 multimodal.
  • Pagproseso ng text-only reasoning sa mas mababang halaga: Gamitin ang K2-Instruct-0905 kung hindi kailangan ang vision capabilities ngunit gusto ang lakas ng 1T MoE.

Mga Madalas Itanong

Aling modelong Kimi ang pinakamahusay?

Ang Kimi K2.5 ang pinakamahusay sa lahat ng sukatan tulad ng reasoning, coding, vision, at agentic tasks. Nakakuha ito ng 96.1% sa AIME 2025 at nangunguna sa OCRBench na may 92.3%.

Libre ba ang paggamit sa mga modelong Kimi?

Sa kasalukuyang 2026, lahat ng Kimi model ay maaaring ma-access nang libre sa kimi.com. May API access din na may bayad bawat token base sa paggamit.

Maaari ko bang patakbuhin ang Kimi models nang local?

Oo, ang K2.5 at K2 ay makukuha sa Hugging Face para sa self-hosted deployment. Para sa karaniwang hardware, mas inirerekomenda ang Kimi Linear.

Ano ang pagkakaiba ng K2 at K2.5?

Ang K2.5 ay may native multimodal features (imahe, video) at Agent Swarm mode, habang ang orihinal na K2 ay pangunahing idinisenyo para sa text tasks.

Ano ang context window ng Kimi K2.5?

Ang Kimi K2.5 ay sumusuporta sa malawak na context window na hanggang 256K tokens.

Sino ang lumikha ng mga modelong Kimi?

Ang mga modelong Kimi ay binuo at inilunsad ng Moonshot AI.