Kimi AI App Try Now

Kimi APIの概要と特徴

Kimi APIの概要と特徴

Kimi APIは, Moonshot AI社が開発した1兆パラメータ規模のMoE(混合専門家)モデルであるKimi K2.5へのアクセスを提供します。このモデルはネイティブなマルチモーダル機能を備え, 256Kトークンの広大なコンテキストウィンドウと高度なエージェント機能を搭載しています。RESTベースのインターフェースを通じて, 高度な推論, 画像理解, 文書分析, マルチエージェントワークフローを必要とするアプリケーションへの統合が可能です。公式プラットフォームのほか, OpenRouter, Together AI, NVIDIA NIMなどのサードパーティプロバイダーからも利用できます。

OpenAIのエコシステムに慣れている開発者にとって, 移行は非常に簡単です。このAPIはOpenAI SDKの構造と完全な互換性を維持しているため, ベースURLとAPIキーを変更するだけで済みます。認証には標準的なBearerトークンを使用します。PythonやNode.js向けの公式SDKがリクエスト管理をサポートしており, Hugging Faceで公開されているオープンソースのモデルウェイトを利用すれば, 独自のインフラ環境でのセルフホスト展開も可能です。

このAPIの最大の特徴は, 256Kのコンテキストウィンドウ, ネイティブなビジョン機能, そしてエージェントスウォームモードの組み合わせを, Claude Opus 4.5より約4倍安価な価格設定で提供している点にあります。画像, チャート, ビデオコンテンツをネイティブに理解しながら, ドキュメントセット全体を一度に処理できるため, 複雑なRAG(検索拡張生成)パイプラインの構築が簡素化されます。

機能 詳細
現在のモデル Kimi K2.5 (kimi-k2.5)
コンテキストウィンドウ 262,144トークン (256K)
入力タイプ テキスト, 画像, ビデオ, ドキュメント
認証方式 AuthorizationヘッダーによるBearerトークン
SDK Python, Node.js (OpenAI互換)
プロバイダー Moonshot公式, OpenRouter, Together AI, NVIDIA NIM

APIエンドポイントはOpenAIのチャット完了構造を継承しており, JSONレスポンス, ストリーミング出力, 関数呼び出し(Function calling)をサポートしています。APIを通じて「Kimi」にアクセスすることで, インスタンス, 思考, エージェント, エージェントスウォームの4つの動作モードを含むK2.5の全機能を活用できます。

  • OpenAI互換のRESTエンドポイントにより, プロバイダー切り替え時のコード修正を最小限に抑えます。
  • ストリーミングレスポンスにより, 生成中にUIをプログレッシブに更新できます。
  • ツール利用や構造化出力のための関数呼び出しをサポートしています。
  • ネイティブマルチモーダル入力により, テキストと並行して画像やビデオを処理できます。
  • 自動コンテキストキャッシュ機能により, 繰り返し入力のコストを75パーセント削減します。

APIの使用開始手順

APIの使用開始手順

登録は数分で完了します。公式の開発者プラットフォームにアクセスし, メール認証を行ってアカウントを作成した後, APIキーセクションに移動します。プラットフォームでは日本語や英語でのドキュメントが提供されており, 一般的な統合パターンを網羅したコード例も確認できます。

  1. 公式プラットフォームでアカウントを登録し, メールアドレスを認証します。
  2. デベロッパーダッシュボードのAPIキーセクションに移動します。
  3. 最初のAPIキーを生成します。作成後に再表示することはできないため, 安全な場所に保管してください。
  4. OpenAIのPython SDKをインストールするか, cURLを直接使用します。Kimi APIは標準的なOpenAI形式のリクエストを受け付けます。
from openai import OpenAI

client = OpenAI(
    api_key="your_moonshot_api_key",
    base_url="https://api.moonshot.cn/v1"
)

response = client.chat.completions.create(
    model="kimi-k2.5",
    messages=[
        {"role": "system", "content": "あなたは優秀なアシスタントです。"},
        {"role": "user", "content": "MoEアーキテクチャについて説明してください。"}
    ],
    temperature=0.7
)

print(response.choices[0].message.content)

このコードはOpenAI APIの呼び出しと全く同じように動作します。GPTモデルからの移行に必要なのは, ベースURLとAPIキーのパラメータ変更のみです。既存のエラーハンドリング, リトライロジック, ストリーミング実装, レスポンスのパース処理などは修正なしでそのまま利用できます。2026年現在, 多くの開発者がこの互換性を活用してコスト最適化を進めています。

サービスの利用料金

サービスの利用料金

Kimi K2.5は複数のプロバイダーを通じて競争力のある価格設定を提供しています。公式APIの自動コンテキストキャッシュ機能を利用することで, 繰り返されるコンテキストの入力コストを大幅に抑えることが可能です。2026年時点の主な料金体系は以下の通りです。

プロバイダー 入力(100万トークンあたり) 出力(100万トークンあたり) キャッシュ済み入力
Moonshot公式 0.60ドル 3.00ドル 0.15ドル(75パーセント割引)
OpenRouter 0.45ドル 2.20ドル 変動あり
Together AI 0.50ドル 2.80ドル 変動あり

価格設定により, Kimi K2.5は同等のコンテキスト長と機能を持つClaude Opus 4.5と比較して約4倍安価に運用できます。自動コンテキストキャッシュ機能は, 同じシステムプロンプトやドキュメントの接頭辞が複数のリクエストで再利用される際に透過的に有効化され, コードの変更は一切不要です。なお, APIの価格は予告なく変更される場合があります。

レート制限とティア

レート制限とティア

公式APIでは, アカウントの累計リチャージ額に基づいたティア制を採用しています。上位のティアになるほど, 同時実行数やリクエストレートの上限が緩和されます。

ティア 累計リチャージ額 同時リクエスト数 1分あたりのリクエスト数
ティア1 10ドル 50 200
ティア2 100ドル 100 500
ティア3 500ドル 300 2,000
ティア5 3,000ドル 1,000 10,000

より高い制限が必要なアプリケーション向けには, Moonshot AIのセールスチームとの直接契約を通じたカスタムレート制限のエンタープライズプランも用意されています。利用規模に合わせて最適なプランを選択できます。

マルチモーダル機能の使い方

マルチモーダル機能の使い方

Kimi K2.5のネイティブマルチモーダルアーキテクチャは, APIリクエスト内で画像やビデオを直接受け入れることができます。MoonViT-3Dビジョンエンコーダーは, クライアント側での前処理やリサイズを必要とせずに, 可変解像度の入力を処理します。

response = client.chat.completions.create(
    model="kimi-k2.5",
    messages=[
        {
            "role": "user",
            "content": [
                {"type": "text", "text": "このチャートを説明し, データを抽出してください。"},
                {"type": "image_url", "image_url": {"url": "https://example.com/chart.png"}}
            ]
        }
    ]
)

ビジョン機能はOCRBenchで92.3パーセント, InfoVQAで92.6パーセントという高いスコアを記録しています。これにより, ドキュメントの理解, チャート分析, 画像からのデータ抽出において非常に強力な性能を発揮します。ビデオ入力については, 複数のフレームまたはビデオURLを渡すことで対応可能です。

多様なアクセス方法

多様なアクセス方法

公式API以外にも, Kimi K2.5は複数のサードパーティプラットフォームやセルフホストオプションを通じて利用できます。

  • OpenRouter:複数のAIプロバイダーを一括管理し, 統合された請求システムを提供します。モデル間のフォールバックが必要な場合に便利です。
  • Together AI:低遅延な提供と競争力のある価格設定を実現した, 最適化済みの推論インフラストラクチャーです。
  • NVIDIA NIM:NVIDIAの推論マイクロサービスプラットフォームを通じたエンタープライズ展開が可能です。
  • セルフホスト:Hugging Faceよりモデルファイルをダウンロードして展開できます。1兆パラメータモデルの実行には, 膨大なGPUリソースが必要です。

よくある質問

Kimi APIはOpenAI SDKに対応していますか

完全に互換性があります。ベースURLをapi.moonshot.cn/v1に変更し, Moonshot APIキーを使用するだけです。チャット完了, 関数呼び出し, ストリーミング, 構造化出力などは同一に動作するため, 接続パラメータ以外のコード変更は必要ありません。

最大コンテキストウィンドウはどれくらいですか

Kimi K2.5は, 1回のリクエストで最大262,144トークン(256K)をサポートしています。これにより, ソースコード全体, 膨大なドキュメントセット, 長い対話履歴などを, チャンク分割することなく一度に処理できます。

コンテキストキャッシュの仕組みを教えてください

自動コンテキストキャッシュは, 連続するリクエストで同じプレフィックス(システムプロンプトやドキュメント)が現れた場合に有効化されます。キャッシュされたトークンは100万あたり0.15ドルとなり, 通常価格から75パーセント削減されます。システムが透過的に処理するため, キャッシュ管理のコードを書く必要はありません。

自社サーバーでモデルを運用できますか

Kimi K2.5は修正MITライセンスの下でオープンソースとして公開されています。Hugging Faceからモデルをダウンロードし, vLLMやTransformers, Dockerを使用して展開可能です。フルモデルの運用にはマルチGPU構成が必要ですが, リソースが限られている場合は, より軽量なKimi Linearも選択肢となります。

画像や動画の入力は可能ですか

はい, ネイティブマルチモーダル対応により, 画像やビデオをリクエストに含めて解析させることが可能です。

料金の支払い方法は?

公式プラットフォームではプリペイド方式(チャージ制)を採用しており, 累計リチャージ額に応じてレート制限が緩和されるティアシステムがあります。