常见问题解答
哪款 Kimi 模型表现最出色?
Kimi K2.5 是目前各项指标最均衡且强大的模型,它在推理、编程、视觉和智能体任务方面均处于领先地位。该模型在 AIME 2025 上的得分为 96.1%,在 OCR 识别测试中也达到了 92.3%。对于追求极致响应速度的用户,Kimi Linear 则以极低的计算成本提供了优秀的可用性。
使用 Kimi 模型是否需要付费?
目前用户可以通过 kimi.com 和移动应用程序免费使用所有 Kimi 模型。针对企业级开发者,API 访问采用按 token 计费的形式。以 2026 年的价格为例,K2.5 的输入端起售价为每百万 token 0.60 美元。此外,Hugging Face 上的开源权重支持免费下载,并在 Modified MIT 许可证下允许商业化使用。
我可以在本地运行 Kimi 模型吗?
可以。K2.5 和 K2 的 block-fp8 格式版本已在 Hugging Face 上线,支持通过 vLLM、SGLang 或 Transformers 进行部署。由于 1T 规模的模型需要庞大的显存资源,对于个人用户或普通工作站,建议优先考虑在消费级硬件上运行 Kimi Linear 模型。
K2 与 K2.5 之间有哪些区别?
K2.5 引入了原生的多模态能力和智能体集群模式,并大幅更新了基准测试性能。相比之下,K2(及 0905 更新版)主要侧重于纯文本处理,其上下文窗口从早期版本的 128K 扩展到了 256K。K2.5 则在支持同等长度上下文的基础上,实现了对图像、视频和文档的原生语义理解。
Kimi K2.5 的参数规模是多少?
Kimi K2.5 基于 1T(一万亿)参数的混合专家(MoE)架构,每个 token 激活其中的 32B 参数。
Kimi K2.5 的智能体集群模式有什么优势?
Agent Swarm 模式可以协调多达 100 个专业子智能体并行工作,将任务执行时间缩短至原来的四分之一,非常适合多步骤的复杂研究。
Kimi K2.5 在开源协议方面如何规定?
K2.5 已在 Modified MIT 许可证下开源,允许开发者获取并进行私有化部署及合理的商业化使用。
K1.5 还有必要使用吗?
虽然 K1.5 推理能力出色,但 K2.5 已经在各项测试中全面超越了它,并增加了多模态能力,推荐升级到 K2.5 平台。






