EVAS Intelligence a annoncé le 22 avril 2026 une Series B de 211 millions $ pour développer des puces accélératrices IA basées sur l’architecture RISC-V. Ce financement positionne la société parmi les rares challengers crédibles capables d’entamer le quasi-monopole de Nvidia. Le pari : combiner la flexibilité de RISC-V à des coûts de licence drastiquement réduits.
Pourquoi RISC-V intéresse l’IA
RISC-V est une architecture de jeu d’instructions ouverte, sans licence à payer (contrairement à ARM ou x86). Pour un fabricant de puces IA, cela signifie des coûts initiaux réduits et une marge de personnalisation maximale.
Plusieurs acteurs (Tenstorrent, Esperanto, SiFive) explorent déjà la voie. EVAS se distingue par une approche orientée inférence à grande échelle, avec un focus sur les modèles MoE (mixture of experts) qui dominent les sorties 2025-2026.
Une architecture co-conçue avec les LLM en tête
Selon les communiqués techniques, les puces EVAS intègrent des unités de routage MoE en hardware, avec un chemin direct vers la mémoire HBM3e pour les experts actifs.
La promesse : 2-3x le throughput d’inférence d’un H100 sur des modèles type DeepSeek V4 ou Mixtral, à 60% du coût. Reste à valider en production : aucun benchmark indépendant n’est disponible à ce jour.
Stratégie commerciale : viser les hyperscalers chinois et européens
EVAS cible explicitement les data centers européens et asiatiques qui veulent réduire leur dépendance à Nvidia. La société a annoncé des LOI avec deux opérateurs cloud souverains européens et un grand groupe télécoms japonais.
Le marché américain reste plus difficile : Nvidia y bénéficie d’un effet écosystème (CUDA, partenariats AWS/Azure/GCP) très difficile à attaquer.
Risques d’exécution massifs
Concevoir et fabriquer une puce IA compétitive demande 3-5 ans et 1-3 milliards $. Les 211M$ levés sont une étape, pas une victoire. Les concurrents directs (Tenstorrent, Cerebras, Groq) ont des avances en termes de silicium déjà en production.
L’autre défi est logiciel : l’écosystème CUDA est l’élément le plus difficile à concurrencer. Sans support natif de PyTorch, JAX et des frameworks d’inférence majeurs, aucune puce ne perce.
❓ Questions fréquentes
RISC-V peut-il vraiment concurrencer Nvidia ?
À court terme, non. Nvidia bénéficie d’une avance de 5-7 ans sur l’écosystème logiciel et le silicium. À moyen terme (3-5 ans), des challengers spécialisés peuvent capter 10-20% du marché de l’inférence, où la commoditisation est la plus forte.
Quels investisseurs ont participé au tour ?
Le tour est mené par un syndicat incluant des fonds asiatiques (SoftBank Vision Fund Asia), européens (Atomico, Index Ventures) et stratégiques. Les détails complets seront publiés dans les filings réglementaires.
Les puces EVAS seront-elles utilisables pour l’entraînement ?
Pas la première génération. EVAS se concentre sur l’inférence, le segment où la sensibilité au coût est la plus forte. L’entraînement de modèles frontier reste dominé par Nvidia (H100, H200, B200) et les solutions Google TPU.