DeepSeek V4 : 1,6 trillion de paramètres et puces Huawei (avril 2026)

DeepSeek a dévoilé le 24 avril 2026 sa nouvelle famille V4, un an après le séisme provoqué par DeepSeek R1. Au menu : V4-Pro à 1,6 trillion de paramètres, V4-Flash à 284 milliards, fenêtre de contexte d’un million de tokens et licence MIT permissive. La cerise : une optimisation native pour les puces Ascend de Huawei, qui réduit encore la dépendance chinoise au matériel NVIDIA.

Deux modèles, une même obsession des coûts

V4-Pro est un mixture-of-experts de 1,6 trillion de paramètres, conçu pour le raisonnement et le code. V4-Flash, à 284 milliards de paramètres activés, vise le débit et le déploiement edge.

Les deux partagent une fenêtre de contexte d’un million de tokens, suffisante pour ingérer un codebase entier ou plusieurs longs documents en une requête. Sur les benchmarks coding (LiveCodeBench, SWE-bench), V4-Pro talonne GPT-5.5 et Claude Opus 4.7.

Tarifs cassés, licence MIT

Selon Fortune, DeepSeek a divisé ses prix d’API par environ deux par rapport à V3. La licence MIT autorise tous les usages commerciaux, fine-tuning et redistribution. Le poids du modèle est téléchargeable sur Hugging Face.

Pour les entreprises soucieuses de coûts, c’est un signal clair : les modèles frontier open source rattrapent leurs équivalents propriétaires américains à une fraction du prix.

L’enjeu Huawei

DeepSeek V4 a été optimisé pour tourner nativement sur les accélérateurs Ascend 910C de Huawei, avec des kernels CUDA-équivalents portés vers CANN. Selon Al Jazeera, le déploiement en production sur infrastructure 100% Huawei est désormais possible.

L’enjeu géopolitique est massif : la Chine peut désormais entraîner et servir des modèles frontier sans dépendre de NVIDIA, contournant les sanctions américaines sur les exports de H100/H200.

Ce que ça change pour l’Europe

Les régulateurs européens regardent ce mouvement avec inquiétude. Un modèle frontier libre, peu cher et performant accélère la commoditisation de l’IA, mais soulève aussi des questions sur les biais d’entraînement (filtrage politique chinois) et la sécurité des chaînes d’approvisionnement.

Pour les startups françaises, c’est une opportunité : héberger DeepSeek V4 sur cloud souverain (Scaleway, OVH) coûte une fraction d’un appel API GPT-5.5.

❓ Questions fréquentes

DeepSeek V4 est-il vraiment open source ?

Oui, sous licence MIT pour les poids et le code d’inférence. Le code d’entraînement reste partiellement publié, mais les poids sont librement utilisables, modifiables et redistribuables, y compris commercialement.

Peut-on faire tourner DeepSeek V4-Flash en local ?

V4-Flash (284B paramètres activés en MoE) demande au minimum 4 H100 ou équivalent pour une inférence performante. Une version quantizée 4-bit peut tourner sur 2 H100 ou un nœud Ascend 910C, ce qui reste hors de portée d’un poste individuel.

Y a-t-il un risque de censure dans les réponses ?

Comme tous les modèles entraînés en Chine, DeepSeek V4 applique un filtrage sur certains sujets politiques sensibles (Taïwan, Tiananmen, Xinjiang). Pour des usages d’entreprise neutres (code, analyse, documents), ce filtrage n’a généralement pas d’impact opérationnel.

Laisser un commentaire