Kimi AI App Try Now

Kimi API: Gabay sa Integrasyon at Paggamit ng Kimi K2.5

Gamitin ang lakas ng 1T parameter MoE model na may native multimodal capabilities at 256K context window para sa inyong mga proyekto.

Magsimula Ngayon

Pangkalahatang Ideya ng Kimi API

Pangkalahatang Ideya ng Kimi API

Ang Kimi API ay nagbibigay ng access sa Kimi K2.5 ng Moonshot AI, isang MoE model na may 1 trilyong parameter. Taglay nito ang native multimodal capabilities, 256K token context window, at mga agentic feature na mahalaga para sa modernong AI development. Ang REST-based interface nito ay nagbibigay-daan sa madaling integrasyon para sa mga application na nangangailangan ng advanced reasoning, pagsusuri ng dokumento, at multi-agent workflows. Magagamit ito sa pamamagitan ng opisyal na platform ng Moonshot at iba pang providers tulad ng OpenRouter, Together AI, at NVIDIA NIM ngayong 2026.

Para sa mga developer na sanay sa ecosystem ng OpenAI, madali lamang ang paglipat sa platform na ito. Ang API ay may buong compatibility sa OpenAI SDK structure, kaya base URL at API key lamang ang kailangang palitan sa inyong setup. Gumagamit ang authentication ng standard na Bearer token authorization para sa seguridad ng bawat request. Ang mga opisyal na SDK para sa Python at Node.js ay tumutulong sa maayos na request management, habang ang open-source model weights sa Hugging Face ay nagpapahintulot ng self-hosted deployment para sa mga team na nais ang ganap na kontrol sa kanilang infrastructure.

Ano ang nagbubukod sa API na ito kumpara sa iba? Ang kombinasyon ng 256K context window, native vision capabilities, at Agent Swarm mode sa presyong halos apat na beses na mas mura kaysa sa Claude Opus 4.5. Ang mga kumplikadong RAG pipeline ay nagiging mas simple dahil kaya ng model na iproseso ang buong documentation sets sa isang pass habang inuunawa ang mga imahe, chart, at video content nang native.

Feature Mga Detalye
Kasalukuyang Model Kimi K2.5 (kimi-k2.5)
Context Window 262,144 tokens (256K)
Input Types Text, imahe, video, dokumento
Authentication Bearer token sa Authorization header
SDKs Python, Node.js (OpenAI-compatible)
Providers Moonshot Official, OpenRouter, Together AI, NVIDIA NIM

Ang mga API endpoint ay hango sa structure ng OpenAI para sa chat completions, na sumusuporta sa JSON responses, streaming output, at function calling. Ang access sa Kimi sa pamamagitan ng API ay nangangahulugan ng paggamit sa buong lakas ng K2.5 kabilang ang apat na operational modes: Instant, Thinking, Agent, at Agent Swarm.

  • Binabawasan ng OpenAI-compatible REST endpoints ang pangangailangan sa refactoring kapag lumilipat ng provider.
  • Nagbibigay-daan ang streaming responses para sa mabilis na progressive UI updates habang bumubuo ng sagot ang AI.
  • Sinusuportahan ang function calling para sa paggamit ng mga external tools at structured outputs.
  • Tumatanggap ang native multimodal input ng mga imahe at video kasabay ng text para sa mas malalim na pagsusuri.
  • Nakatitipid ng hanggang 75% sa input costs ang automatic context caching para sa mga paulit-ulit na data.

Paano Magsimula sa API

Paano Magsimula sa API

Mabilis lamang ang proseso ng pagpaparehistro na tumatagal lamang ng ilang minuto. Bisitahin ang platform.moonshot.ai, gumawa ng account gamit ang email verification, at pumunta sa section ng mga API key. Ang platform ay nag-aalok ng dokumentasyon sa Ingles at Tsino na may mga halimbawa ng code para sa mga karaniwang integration patterns.

  1. Magrehistro sa platform.moonshot.ai at i-verify ang iyong email address.
  2. Pumunta sa API Keys section sa loob ng developer dashboard.
  3. Bumuo ng iyong unang API key at itago ito sa isang ligtas na lugar.
  4. I-install ang OpenAI Python SDK o gamitin ang cURL nang direkta para sa inyong mga request.
from openai import OpenAI

client = OpenAI(
    api_key="your_moonshot_api_key",
    base_url="https://api.moonshot.cn/v1"
)

response = client.chat.completions.create(
    model="kimi-k2.5",
    messages=[
        {"role": "system", "content": "Isa kang matalinong assistant."},
        {"role": "user", "content": "Ipaliwanag ang MoE architecture."}
    ],
    temperature=0.7
)

print(response.choices[0].message.content)

Ang code na ito ay gumagana nang katulad ng mga tawag sa OpenAI API. Ang paglipat mula sa mga GPT model ay nangangailangan lamang ng pagbabago sa base_url at api_key na mga parameter. Ang kasalukuyang error handling, retry logic, at streaming implementations ay maililipat nang walang anumang modipikasyon.

Paggamit ng Multimodal API

Paggamit ng Multimodal API

Ang native multimodal architecture ng Kimi K2.5 ay tumatanggap ng mga imahe at video nang direkta sa mga API request. Ang MoonViT-3D vision encoder ay sinusuri ang mga input na may iba't ibang resolution nang hindi na kailangan pang i-resize ang mga ito sa panig ng client.

response = client.chat.completions.create(
    model="kimi-k2.5",
    messages=[
        {
            "role": "user",
            "content": [
                {"type": "text", "text": "Ilarawan ang chart na ito at kunin ang data."},
                {"type": "image_url", "image_url": {"url": "https://example.com/chart.png"}}
            ]
        }
    ]
)

Ang vision capabilities nito ay nakakuha ng 92.3% sa OCRBench, na nagpapatunay na mahusay ang Kimi K2.5 sa pag-unawa sa dokumento at pag-extract ng impormasyon mula sa mga visual na data. Ang mga video input ay maaari ring iproseso sa pamamagitan ng pagpasa ng multiple frames o mga video URL.

Mga Madalas Itanong

Compatible ba ang Kimi API sa OpenAI SDK

Oo, ito ay ganap na compatible. Kailangan mo lamang palitan ang base_url sa api.moonshot.cn/v1 at gamitin ang iyong sariling Moonshot API key. Ang chat completions, function calling, at streaming ay gagana nang walang anumang problema o malaking pagbabago sa iyong existing code.

Ano ang maximum context window

Sinusuportahan ng Kimi K2.5 ang hanggang 262,144 tokens o 256K bawat request. Dahil dito, kaya nitong magproseso ng napakahabang mga codebase at makapal na dokumento sa isang tawag lamang nang hindi na kailangang hatiin ang impormasyon sa maliliit na bahagi.

Paano gumagana ang context caching

Awtomatikong gumagana ang context caching kapag nakita ng system na ang parehong prefix tulad ng system prompt ay ginagamit sa magkakasunod na request. Ang mga cached token ay nagkakahalaga lamang ng $0.15 bawat milyon, na mas mababa kaysa sa standard na presyo na $0.60 para sa bagong input.

Maaari ko bang i-host ang Kimi model

Ang Kimi K2.5 ay open-source sa ilalim ng Modified MIT License kaya maaari itong i-deploy sa sariling server. Ang buong 1T model ay nangangailangan ng multi-GPU setup, ngunit mayroon ding mas magaan na bersyon tulad ng Kimi Linear para sa mga deployment na may limitadong resource.

Ano ang Kimi K2.5?

Ito ay isang Mixture of Experts (MoE) model na binuo ng Moonshot AI na may 1 trilyong parameter, na kayang magproseso ng multimodal inputs.

Magkano ang input cost sa Moonshot Official?

Ang karaniwang input cost ay $0.60 kada 1 milyong tokens, habang ang cached input ay $0.15 lamang.