Caractéristiques techniques de Kimi

Kimi K2.5 utilise une architecture Mixture of Experts (MoE) comptant 384 experts, dont 8 sont activés par token. Le modèle exploite l'attention multi-latente (MLA) et l'activation SwiGLU, ayant été entraîné sur environ 15 billions de tokens mixtes incluant du texte et des visuels. Sa conception multimodale native intègre MoonViT-3D, un encodeur de vision de 400 millions de paramètres utilisant la stratégie NaViT pour traiter des images de résolutions variables et comprendre les contenus vidéo.
| Spécification | Détails |
|---|---|
| Développeur | Moonshot AI |
| Dernier modèle | Kimi K2.5 (janvier 2026) |
| Total des paramètres | 1 billion (32B activés par token) |
| Architecture | MoE avec 384 experts, MLA, SwiGLU |
| Fenêtre de contexte | 256 000 tokens (256K) |
| Types d'entrée | Texte, images, vidéo, PDF, Excel, Word, PowerPoint |
| Encodeur de vision | MoonViT-3D (400M de paramètres) |
| Disponibilité API | API officielle, OpenRouter, Together AI, NVIDIA NIM |
| Tarification | Gratuit (Web/App), 0,60 $/3,00 $ par 1M tokens (API) |
| Licence | MIT modifiée (usage commercial autorisé) |
Le modèle propose quatre modes distincts pour répondre à divers besoins. Le mode K2.5 Instant privilégie la rapidité, tandis que K2.5 Thinking se concentre sur le raisonnement par chaîne de pensée. Le mode K2.5 Agent permet l'utilisation d'outils par un agent unique, et le mode K2.5 Agent Swarm (Bêta) coordonne jusqu'à 100 sous-agents spécialisés travaillant en parallèle. Ce dernier réduit le temps d'exécution par 4,5 et a surpassé GPT-5.2 lors de tests complexes avec un coût nettement inférieur.
Performances lors des tests

Kimi K2.5 affiche des résultats de premier plan dans les tests de mathématiques, de code et d'agentivité. Le modèle se distingue particulièrement dans la programmation compétitive et les tâches de raisonnement assistées par des outils, s'imposant comme une alternative solide aux meilleurs modèles propriétaires actuels.
| Benchmark | Kimi K2.5 | Meilleur concurrent |
|---|---|---|
| AIME 2025 | 96,1 % | GPT-5.2 : 100 % |
| MATH-500 | 98,0 % | Non spécifié |
| GPQA-Diamond | 87,6 % | GPT-5.2 : 92,4 % |
| LiveCodeBench v6 | 83,1 % | Claude Opus 4.5 : 64,0 % |
| SWE-Bench Verified | 76,8 % | Claude Opus 4.5 : 80,9 % |
| HLE-Full (avec outils) | 50,2 % | GPT-5.2 : 45,5 % |
| VideoMMMU | 86,6 % | Non spécifié |
| OCRBench | 92,3 % | Premier du classement |
Le score de 83,1 % sur LiveCodeBench représente une avance massive sur Claude Opus 4.5, positionnant Kimi K2.5 comme l'un des modèles les plus performants pour le développement. Sur SWE-Bench Verified, qui teste des tâches d'ingénierie logicielle réelles, Kimi K2.5 obtient 76,8 % contre 80,9 % pour Claude Opus 4.5, démontrant sa capacité à gérer des scénarios de programmation complexes et concrets.
Cas d'utilisation concrets

L'application pratique de Kimi K2.5 démontre ses avantages dans des scénarios où la compréhension multimodale et la rétention de contexte impactent directement la qualité des résultats obtenus.
- Recherche et analyse : Le mode Agent Swarm permet une recherche exhaustive en déployant des sous-agents pour collecter des données de sources variées. Un chercheur peut soumettre 20 à 30 articles scientifiques simultanément pour obtenir une synthèse des méthodologies.
- Traitement de documents et OCR : Kimi excelle dans l'extraction de données structurées à partir de factures, de reçus ou de notes manuscrites. L'architecture native gère les mises en page incluant des tableaux et des graphiques mélangés au texte.
- Développement logiciel : Les équipes téléchargent des bases de code complètes pour utiliser l'agent en mode débogage autonome ou pour l'implémentation de nouvelles fonctionnalités. Les performances sur SWE-Bench attestent de sa compréhension des structures de dépôts réels.
- Compréhension vidéo : L'encodeur MoonViT-3D permet d'analyser des vidéos de formation, d'extraire les moments clés de présentations ou de générer des résumés de réunions enregistrées avec une excellente compréhension temporelle.
API et tarification de Kimi

L'interface web et les applications mobiles restent gratuites pour les utilisateurs en 2026. Les développeurs souhaitant intégrer Kimi K2.5 dans leurs solutions peuvent accéder au modèle via l'API officielle ou des fournisseurs tiers tels qu'OpenRouter et Together AI.
| Fournisseur | Entrée (par 1M tokens) | Sortie (par 1M tokens) | Remarques |
|---|---|---|---|
| Moonshot Officiel | 0,60 $ | 3,00 $ | Mise en cache automatique (remise de 75 %) |
| OpenRouter | 0,45 $ | 2,20 $ | Tarification agrégée |
| Together AI | 0,50 $ | 2,80 $ | Inférence optimisée |
Actuellement, la mise en cache automatique du contexte sur l'API officielle réduit les coûts d'entrée de 75 %, abaissant le prix des jetons mis en cache à 0,15 $ par million. Cela rend Kimi K2.5 beaucoup plus économique que ses principaux concurrents pour des tâches équivalentes. L'API est compatible avec le format du SDK OpenAI, ce qui facilite grandement la migration pour les projets existants.
Les limites de débit évoluent selon des paliers définis par le niveau de recharge du compte. Par exemple, le premier palier permet 50 requêtes simultanées, tandis que le palier le plus élevé autorise jusqu'à 10 000 requêtes par minute. La fenêtre de contexte supporte jusqu'à 262 144 tokens par requête. Pour les entreprises souhaitant une maîtrise totale, le modèle en source ouverte est disponible sur Hugging Face pour un déploiement via vLLM ou Docker.
Foire aux questions
Kimi AI est-il gratuit ?
L'interface web et les applications mobiles sont gratuites en 2026 pour l'ensemble des modes d'utilisation standard. L'accès à l'API est payant, mais reste très abordable.
Comment Kimi se compare-t-il à ChatGPT ?
Kimi K2.5 rivalise avec GPT-5.2, surpassant celui-ci en programmation et agentivité, bien que GPT-5.2 garde une avance en mathématiques pures.
Kimi est-il en source ouverte ?
Oui, il est distribué sous une licence MIT modifiée, permettant l'usage commercial et la modification du modèle.
Qu'est-ce que le système Kimi Agent Swarm ?
C'est une fonctionnalité coordonnant jusqu'à 100 sous-agents travaillant en parallèle pour résoudre des tâches complexes efficacement.
Kimi appartient-il à quelle entreprise ?
Kimi est développé par Moonshot AI, une entreprise technologique de pointe basée en Chine.
Peut-on passer d'OpenAI à Kimi sans changer de code ?
Oui, grâce à la compatibilité totale avec le SDK OpenAI, il suffit généralement de modifier l'adresse de base (base_url).
Quelle est la fenêtre de contexte de Kimi K2.5 ?
Kimi K2.5 propose une large fenêtre de contexte de 256 000 tokens (256K).




