Kimi AI App Try Now

Kimi K2.5: 万亿参数多模态 AI,重写智能体与编程性能标杆

探索由月之暗面开发的旗舰级 AI 模型,具备原生的多模态能力与 1 万亿参数的 MoE 架构。

立即开始使用

Kimi 核心技术规格

Kimi 核心技术规格

Kimi K2.5 在包含 384 个专家的 MoE 架构上运行,每个 token 激活其中 8 个专家。该模型使用了多潜变量注意力(MLA)和 SwiGLU 激活函数,并在约 15 万亿个视觉和文本混合 token 上进行了训练。其原生多模态设计集成了 MoonViT-3D 视觉编码器,该编码器拥有 4 亿参数,采用 NaViT 打包策略以支持可变分辨率的图像输入和视频理解。

规格指标 详细信息
开发者 月之暗面(Moonshot AI)
最新模型 Kimi K2.5(2026年 1月)
总参数量 1 万亿(每 token 激活 32B)
架构设计 384 专家的 MoE(8 个激活)、MLA、SwiGLU
上下文窗口 256,000 tokens (256K)
输入类型 文本、图像、视频、PDF、Excel、Word、PowerPoint
视觉编码器 MoonViT-3D(4 亿参数,NaViT 打包)
API 可用性 官方 API、OpenRouter、Together AI、NVIDIA NIM
价格政策 网页与应用免费;API 每百万 token 为 $0.60/$3.00
开源协议 修改版 MIT(允许商用)

该模型提供四种不同的运行模式:用于快速非思考类响应的 K2.5 Instant、用于思维链推理的 K2.5 Thinking、用于单智能体工具调用的 K2.5 Agent,以及支持多达 100 个专业子智能体并行协作的 K2.5 Agent Swarm(测试版)。Agent Swarm 模式将执行时间缩短了 4.5 倍,并在 Humanity's Last Exam(HLE)测试中达到 50.2% 的准确率,以更低成本超越了 GPT-5.2 的 45.5%。

基准测试表现分析

基准测试表现分析

Kimi K2.5 在数学、编程和智能体基准测试中表现出色。该模型在竞赛编程和工具增强推理任务中尤为拔尖,巩固了其作为顶级闭源模型强力竞争者的地位。

基准测试 Kimi K2.5 最佳竞品表现
AIME 2025 96.1% GPT-5.2: 100%
MATH-500 98.0% 无对应数据
GPQA-Diamond 87.6% GPT-5.2: 92.4%
LiveCodeBench v6 83.1% Claude Opus 4.5: 64.0%
SWE-Bench Verified 76.8% Claude Opus 4.5: 80.9%
HLE-Full (使用工具) 50.2% GPT-5.2: 45.5%
VideoMMMU 86.6% 无对应数据
OCRBench 92.3% 领先所有竞品

在 LiveCodeBench 中,83.1% 的得分使其大幅领先于 Claude Opus 4.5 的 64.0%,这标志着 Kimi K2.5 成为目前最强大的编程模型之一。在测试实际软件工程任务的 SWE-Bench Verified 中,Kimi K2.5 得分为 76.8%,表现出与 Claude Opus 4.5(80.9%)相当的实用开发能力。

探索 Kimi 核心功能

探索 Kimi 核心功能

Kimi K2.5 的功能已远超标准的对话交互,扩展到了多模态理解、智能体自动化以及专业文档处理等领域。原生视觉架构使其无需外部模块即可处理图像和视频,而 Agent Swarm 系统则能够自主处理复杂的多步任务。

原生多模态理解能力

与通过插件实现的视觉系统不同,Kimi K2.5 通过 MoonViT-3D 编码器原生处理视觉信息。该系统能够处理可变分辨率的图像、布局复杂的文档以及视频内容。在视频处理中,它将连续帧分为四组通过共享视觉层,并在 patch 级别进行时间平均。这种架构在 OCRBench 上获得 92.3% 的高分,在文档理解任务中处于领先地位。其实际应用包括分析图表、从扫描件中提取数据、解释技术图纸以及逐帧理解视频教程。

智能体集群系统

Agent Swarm 模式是 Kimi K2.5 最具创新性的功能。它能协调多达 100 个专业子智能体,针对复杂任务的不同维度进行并行工作。每个子智能体负责一个特定的细分任务,系统随后将产出整合为连贯的结果。数据显示,使用集群模式在 BrowseComp 测试中达到 78.4%,显著高于非集群模式。该系统非常适合需要从多个来源收集信息的调研任务、需要不同专家视角的复杂分析以及受益于并行执行的多步工作流。

长文本及软件工程处理

凭借 256K 的上下文窗口,Kimi K2.5 可以在单个会话中处理海量文档、代码库和科研论文。法律专业人士利用 Kimi 对比合同版本、识别条款差异并总结判例汇编。在软件开发方面,开发者利用其长文本优势维护多文件代码库的一致性,通过 K2.5 Agent 模式实现自主代码生成、调试和重构。其在 LiveCodeBench v6 上的 83.1% 得分证明了处理顶级编程挑战的实力。

API 服务与定价详情

API 服务与定价详情

在 2026年,官网和移动端应用面向个人用户免费。开发者若需构建生产级应用,可以通过官方 API 或第三方平台(如 OpenRouter、Together AI 和 NVIDIA NIM)接入。目前 API 定价受到市场波动影响,请以官方实时说明为准。

服务提供商 输入价格 (每 1M tokens) 输出价格 (每 1M tokens) 备注
月之暗面官方 $0.60 $3.00 支持自动上下文缓存(输入折扣 75%)
OpenRouter $0.45 $2.20 聚合定价模式
Together AI $0.50 $2.80 优化推理效率

官方 API 的自动上下文缓存功能可将输入成本降低 75%,使缓存 token 价格降至每百万 0.15 美元。这使得 Kimi K2.5 在执行大型任务时比 Claude Opus 4.5 便宜约 4 倍。API 完全兼容 OpenAI SDK 格式,开发者只需更改 base URL 和 API 密钥即可完成迁移。

如何开始使用 Kimi

如何开始使用 Kimi

您可以直接访问 kimi.com 或在主流应用商店下载 iOS 和安卓版应用。基础访问通常无需复杂的验证流程。

  1. 访问官网或下载应用。应用在 App Store 中通常标记为“Kimi 智能助手”,图标清晰易认。
  2. 使用邮箱或社交媒体账号创建账户,登录后即可切换使用不同的模型模式。
  3. 对于开发者,需在 platform.moonshot.ai 注册并获取 API 密钥,官方提供中英双语文档。
  4. 如果选择私有化部署,可以从 Hugging Face 下载 block-fp8 格式的模型权重,并通过 vLLM 或 SGLang 运行。

以下是使用标准库集成 Kimi API 的示例代码:

from openai import OpenAI

client = OpenAI(
    api_key="your_moonshot_api_key",
    base_url="https://api.moonshot.cn/v1"
)

response = client.chat.completions.create(
    model="kimi-k2.5",
    messages=[
        {"role": "system", "content": "您是一个得力的助手。"},
        {"role": "user", "content": "请分析上传的文档。"}
    ],
    temperature=0.7
)

print(response.choices[0].message.content)

优势与局限性对比

优势与局限性对比

优势 局限性
万亿级模型开源,基于修改版 MIT 协议允许商业用途 在 SWE-Bench 的软件工程实战中略逊于 Claude Opus 4.5
原生多模态架构,OCR 与文档理解能力处于行业顶端 纯数学推理准确率稍低于 GPT-5.2(96.1% 对比 100%)
Agent Swarm 技术支持百级智能体并行,复杂任务效率极高 集群模式仍处于测试阶段,在极其复杂的工作流中可能存在波动
API 成本极具竞争力,通过缓存机制可实现超低价格 本地部署万亿参数模型对显存资源的要求非常高

常见问题解答

Kimi AI 是免费的吗?

在 2026年,其网页端和移动端应用均免费提供给所有用户。用户无需订阅即可使用包括智能体集群在内的所有模式。API 接入则按量计费,输入端起始价格为每百万 token 0.60 美元。此外,开源版本的权重可以免费下载部署。

Kimi 与 ChatGPT 的区别是什么?

Kimi K2.5 在多个基准测试中直接对标 GPT-5.2。Kimi 在编程(LiveCodeBench)和智能体协作(HLE-Full)方面表现更为出色,且 API 价格更低。GPT-5.2 则在纯数学竞赛和高难度知识问答(GPQA-Diamond)中保持微弱领先。Kimi 的开源特性为开发者提供了更高的灵活性。

Kimi 真的开源了吗?

是的,Kimi K2.5 遵循修改版 MIT 许可证完全开源。这意味着个人和企业可以自由修改模型、进行商用或重新分发。模型权重已发布在 Hugging Face 平台上,支持 vLLM、SGLang 和 Docker 等多种部署方式。

什么是智能体集群模式?

Agent Swarm 是 Kimi K2.5 的一项测试功能,它能协调多达 100 个专门的子智能体并行处理复杂任务。这种方法不仅将 HLE 考试的准确率提升至 50.2%,还将执行时间缩短了 4.5 倍,由于并行处理的效率提升,整体运行成本也降低了 76%。

开发者可以从 OpenAI 无缝切换吗?

由于 Kimi API 与 OpenAI SDK 结构完全兼容,您通常只需要修改 base URL 和 API 密钥即可。聊天补全、函数调用和流式输出的工作方式完全一致。不过,如果您使用了 DALL-E 等特定功能,则需要寻找对应的替代方案。

Kimi K2.5 的上下文窗口有多大?

Kimi K2.5 具备 256,000 tokens (256K) 的上下文窗口,使其能够处理超长文档和大型代码库。