La Chine vient de présenter à Shenzhen un nouveau projet de supercalculateur baptisé LineShine, annoncé à plus de 2 exaflops de performance soutenue, avec environ 47 000 CPU et une promesse martelée, zéro dépendance à des puces étrangères.
Le système a été dévoilé lors d’une réunion institutionnelle centrée sur la puissance de calcul domestique et ses usages industriels, au National Supercomputing Center de Shenzhen. Sur le papier, l’ambition est claire, rivaliser avec les machines qui dominent aujourd’hui les classements mondiaux, majoritairement dopées aux accélérateurs. Sauf que LineShine mise sur une approche CPU-only, avec stockage massif, interconnexion à très grande échelle et refroidissement liquide. Et là, je te le dis franchement, l’annonce impressionne, mais elle pose aussi une question simple, est-ce que les chiffres annoncés tiendront dans une exploitation quotidienne, sur des charges réelles, et dans quel calendrier.

NSCC Shenzhen détaille une architecture 92 baies et 36 réseaux
Le National Supercomputing Center de Shenzhen décrit LineShine comme un ensemble déployé en phases, avec une cible finale structurée autour de 92 armoires de calcul et 36 armoires réseau. L’ordre de grandeur, c’est un système pensé pour changer d’échelle, avec la possibilité d’étendre l’infrastructure vers des centaines de milliers de nuds. Dans le monde du HPC, ce genre de trajectoire compte autant que le chiffre brut d’exaflops.
Sur l’interconnexion, les éléments communiqués parlent d’un tissu réseau dimensionné à un niveau rare, avec un objectif de million de ports. Concrètement, ce n’est pas un détail marketing, c’est ce qui conditionne la capacité à faire travailler des dizaines de milliers de processeurs sur un même problème, sans passer son temps à attendre les échanges. Si tu simules de la dynamique des fluides ou de la météo, la latence réseau devient vite un mur.
Le projet insiste aussi sur un empilement de bout en bout domestique, processeurs, stockage, réseau, outils logiciels. Lu Yutong, présenté comme directeur du centre et concepteur en chef, le vend comme une reconstruction complète de la chaîne technologique. C’est cohérent avec le contexte géopolitique, mais c’est aussi une contrainte, parce que chaque maillon doit tenir le niveau, compilateurs, débogueurs, outils d’optimisation, et support aux applications existantes.
Stockage 650 PB et refroidissement liquide sur 3 214 mètres de tuyaux
LineShine n’est pas seulement une histoire de calcul, c’est une histoire de données. Les chiffres annoncés donnent le ton, 650 PB de stockage planifié et 10 TB/s de bande passante côté stockage. Pour visualiser, ce débit sert à alimenter en continu des calculs qui avalent des téraoctets de résultats intermédiaires, typiquement des simulations de matériaux ou des campagnes de calcul paramétriques en ingénierie.
Le refroidissement, lui, est présenté comme un chantier industriel. Il est question de 67 armoires de stockage refroidies par liquide, de 428 nuds de stockage, et d’un réseau secondaire de tuyauterie totalisant 3 214,7 mètres, pour une masse nette annoncée à 243,9 tonnes. Dans un centre de calcul, ce genre de chiffre raconte un choix, pousser la densité, limiter la consommation, et rendre la montée en puissance physiquement tenable.
Mais voilà la nuance, plus tu montes en complexité, plus l’intégration devient le vrai juge de paix. Le refroidissement liquide à cette échelle demande une maintenance rigoureuse, une gestion des risques, et une qualité d’exécution sans faille. Un ingénieur HPC que j’ai eu au téléphone, Marc, résume ça sans détour, les exaflops, c’est une vitrine, mais la disponibilité, c’est la réalité. Et la réalité, c’est aussi le coût opérationnel et la fiabilité.
Un choix CPU-only face aux supercalculateurs GPU comme El Capitan
Le positionnement le plus commenté, c’est le parti pris CPU-only à une époque où les machines les plus visibles s’appuient sur des GPU ou accélérateurs. Les promoteurs de LineShine mettent en avant une architecture basée sur des CPU efficaces, de la mémoire à large bande passante et une interconnexion rapide, avec une plateforme hybride pensée pour l’IA et la simulation. L’idée, c’est de faire tourner à la fois du calcul scientifique classique et de l’entraînement de grands modèles.
La comparaison internationale est inévitable. Le système américain El Capitan, souvent cité comme référence actuelle, est crédité d’un pic à 2,8 exaflops. LineShine annonce plus de 2 exaflops en performance soutenue, ce qui, si c’est confirmé, le placerait très haut. Mais attention, soutenu dépend des benchmarks, des applications, et de la manière dont la machine est configurée. Sans calendrier opérationnel annoncé, l’écart entre annonce et usage reste un point de vigilance.
Enfin, la promesse zéro puce étrangère donne à LineShine une dimension politique assumée, dans un contexte de contrôles à l’exportation sur les semi-conducteurs. Techniquement, ça veut dire maîtriser l’approvisionnement et la continuité, mais ça veut aussi dire accepter des compromis possibles sur l’écosystème logiciel ou certaines performances par watt, selon la maturité des composants. L’évolution reste incertaine sur le rythme de déploiement, certains analystes évoquant des horizons de mise en service plutôt vers 2029-2030.
Sources
- China’s LineShine supercomputer targets bold 2-exaflop computing leap
- China’s LineShine Supercomputer To Hit 2 ExaFlops With 47,000 CPUs and Zero Reliance on Foreign Chips
- China Announces LineShine Supercomputer: 47,000 CPUs, 2 ExaFlops, Zero Foreign Chips
- China’s LineShine supercomputer project targets 2 exaFLOPS using only domestic chips
- Discussion: China’s LineShine Supercomputer To Hit 2 ExaFlops With 47,000 CPUs and Zero Reliance on Foreign Chips

