Modelo insignia Kimi K2.5

Kimi K2.5 representa el modelo más capaz de la línea, entrenado con aproximadamente 15 billones de tokens mixtos visuales y de texto mediante un preentrenamiento continuo sobre la base K2. La arquitectura utiliza 384 expertos con 8 activados por token, Multi-Latent Attention (MLA) y activación SwiGLU. El diseño multimodal nativo integra MoonViT-3D, un codificador de visión de 400M de parámetros que utiliza empaquetado NaViT para entradas de imagen de resolución variable.
Cuatro modos operativos
K2.5 opera en cuatro modos distintos, cada uno optimizado para diferentes flujos de trabajo. K2.5 Instant ofrece respuestas rápidas y sin procesamiento profundo para consultas directas. K2.5 Thinking activa el razonamiento de cadena de pensamiento para problemas complejos. K2.5 Agent permite el uso de herramientas por un solo agente para completar tareas autónomas. K2.5 Agent Swarm coordina hasta 100 subagentes especializados que trabajan en paralelo, reduciendo el tiempo de ejecución en 4,5 veces.
| Modo |
Caso de uso |
Velocidad |
Profundidad de razonamiento |
| K2.5 Instant |
Respuestas rápidas, tareas simples |
La más rápida |
Estándar |
| K2.5 Thinking |
Matemáticas, lógica, análisis complejo |
Moderada |
Cadena de pensamiento profunda |
| K2.5 Agent |
Uso de herramientas, ejecución de código |
Depende de la tarea |
Razonamiento agéntico |
| K2.5 Agent Swarm |
Investigación compleja, flujos de trabajo |
4,5 veces más rápido |
Multiagente distribuido |
Rendimiento en pruebas técnicas
K2.5 alcanza un 96,1 % en AIME 2025 (GPT-5.2: 100 %), un 98,0 % en MATH-500 y un 87,6 % en GPQA-Diamond. En programación, obtiene un 83,1 % en LiveCodeBench v6, superando significativamente el 64,0 % de Claude Opus 4.5. El modo Agent Swarm logró un 50,2 % en Humanity's Last Exam con herramientas, superando el 45,5 % de GPT-5.2 con un costo un 76 % menor. Las capacidades de visión incluyen un 92,3 % en OCRBench y un 86,6 % en VideoMMMU.