Comment obtenir une clé API DeepSeek V4 ?
Créez un compte sur platform.deepseek.com, puis générez une clé API dans les paramètres. Rechargez votre solde pour activer les appels. La clé s'utilise comme une clé OpenAI standard.
Vue d'ensemble
L'API DeepSeek V4 suit le format OpenAI Chat Completions. Deux modèles sont disponibles : deepseek-v4-pro (1,6T paramètres, 49B activés) et deepseek-v4-flash (284B paramètres, 13B activés). Les deux supportent un contexte d'un million de tokens et les modes de raisonnement Non-think, Think High et Think Max.
deepseek-v4-pro
Le modèle Pro est la variante la plus puissante. Il est positionné pour le raisonnement profond, le code, les mathématiques et les workflows agentiques. Tarif OpenRouter : 1,74 $ / 1M tokens en entrée, 3,48 $ / 1M tokens en sortie.
Utilisez Pro quand la précision et la profondeur d'analyse comptent plus que la vitesse.
deepseek-v4-flash
Le modèle Flash conserve le contexte d'un million de tokens avec une taille plus compacte. Tarif OpenRouter : 0,14 $ / 1M tokens en entrée, 0,28 $ / 1M tokens en sortie. Idéal pour les appels fréquents et les pipelines à faible latence.
Utilisez Flash pour les résumés, la rédaction courante et les pipelines à fort volume.
Intégration
L'API suit le format OpenAI Chat Completions. Changez l'URL de base et la clé pour migrer depuis un client OpenAI existant.
Endpoint : https://api.deepseek.com/v1/chat/completions. Paramètres standard : messages, model, temperature, max_tokens, stream.
Long contexte
Les deux modèles supportent 1M tokens de contexte, ce qui permet d'envoyer de très longs documents en une seule requête.
Pour Think Max, la model card recommande au moins 384K tokens de budget de réflexion dans max_tokens.
Paramètres
Contrôlez la profondeur de raisonnement via le paramètre thinking_mode : non-think, think-high ou think-max.
Non-think privilégie la vitesse. Think High améliore la précision. Think Max pousse le raisonnement au maximum.
Intégration
L'API supporte le streaming Server-Sent Events avec stream: true pour les réponses en temps réel.
Compatible avec les clients OpenAI Python et Node.js en changeant simplement base_url et api_key.
Capacités
Les modèles V4 supportent le function calling et les tool calls au format OpenAI pour les workflows agentiques.
Utile pour les agents qui doivent appeler des APIs externes, exécuter du code ou orchestrer des étapes.
Ressources
Les poids du modèle et le code source sont disponibles sur Hugging Face sous licence MIT.
Dépôt communautaire : Rooc/DeepSeek-V4-Pro sur Hugging Face et GitHub pour les scripts d'intégration.
Pourquoi utiliser l'API DeepSeek V4
DeepSeek V4 combine un contexte d'un million de tokens, une compatibilité OpenAI directe et des tarifs compétitifs. Flash est l'une des options les moins chères du marché pour les pipelines à fort volume.
Flash à 0,14 $ / 1M tokens en entrée est parmi les moins chers pour un modèle avec contexte 1M. Pro à 1,74 $ / 1M tokens reste compétitif pour les tâches complexes.
Changez base_url vers https://api.deepseek.com/v1 et remplacez votre clé API. Le reste du code reste identique pour les appels Chat Completions.
Non-think, Think High et Think Max permettent d'arbitrer entre latence et qualité selon la complexité de la tâche.
1M tokens permet d'envoyer des contrats entiers, de grandes bases de code ou de longues notes de recherche en une seule requête API.
Intégration rapide
L'API est compatible OpenAI, ce qui rend la migration ou l'intégration directe très rapide.
Étape 1 : Obtenir une clé API
Étape 2 : Configurer le client
Étape 3 : Choisir le modèle
Benchmarks
La model card officielle présente les résultats sur MMLU-Pro, HumanEval, GSM8K, LongBench-V2, SWE Verified et MCPAtlas. Pro est positionné pour les tâches où la précision et la profondeur de raisonnement comptent.

Comparaison des modèles
Pro (1,6T paramètres, 49B activés) est optimisé pour le raisonnement profond. Flash (284B paramètres, 13B activés) est plus compact et environ 12 fois moins cher en entrée. Les deux supportent 1M tokens de contexte.

Long contexte
Le test NIAH (Needle In A Haystack) mesure la capacité du modèle à retrouver une information précise dans un très long contexte. DeepSeek V4 maintient de bonnes performances sur toute la fenêtre de 1M tokens.

Ressources officielles
Toutes les ressources nécessaires pour intégrer et évaluer DeepSeek V4 dans vos projets.
La documentation complète de l'API DeepSeek couvre l'authentification, les endpoints, les paramètres, le streaming, le function calling et les exemples de code en Python et Node.js.
La model card officielle détaille l'architecture (attention hybride, hyper-connexions sous contrainte de variété, optimiseur Muon), les benchmarks (MMLU-Pro, HumanEval, LongBench-V2, SWE Verified, MCPAtlas) et les paramètres de sampling recommandés.
Le dépôt GitHub contient les scripts d'intégration, les exemples de code, les notes d'encodage et les cas de test pour DeepSeek V4 Pro.
FAQ
Réponses aux questions les plus courantes sur l'intégration et l'utilisation de l'API.
Créez un compte sur platform.deepseek.com, puis générez une clé API dans les paramètres. Rechargez votre solde pour activer les appels. La clé s'utilise comme une clé OpenAI standard.
Flash est environ 12 fois moins cher que Pro en entrée (0,14 $ vs 1,74 $ / 1M tokens). Pour les pipelines à fort volume ou les tâches simples, Flash est le choix économique. Pro est justifié pour les tâches complexes où la qualité prime.
Oui. Changez base_url vers https://api.deepseek.com/v1 et remplacez api_key. Le reste du code (messages, temperature, max_tokens, stream, tools) reste identique.
Passez le paramètre thinking_mode avec la valeur non-think, think-high ou think-max. Pour Think Max, prévoyez au moins 384K tokens dans max_tokens selon la model card officielle.
Les poids sont disponibles sur Hugging Face (Rooc/DeepSeek-V4-Pro) sous licence MIT. La model card inclut les instructions d'encodage et les paramètres de sampling recommandés (temperature 1.0, top_p 1.0).
La model card officielle inclut MMLU-Pro, HumanEval, GSM8K, LongBench-V2, LiveCodeBench, SWE Verified et MCPAtlas. Ces évaluations couvrent la connaissance générale, le code, les maths, le long contexte et les tâches agentiques.
Commencer
Créez un compte sur platform.deepseek.com pour accéder à l'API. Consultez la documentation officielle pour les exemples de code et les paramètres détaillés.