La mémoire, ce grand oublié de l’IA : VERTICAL COMPUTE lève 57 millions d’euros pour s’attaquer au “mur de la mémoire”
📩 Pour nous contacter: redaction@fw.media
Avec l’essor des modèles génératifs, l’intelligence artificielle est souvent décrite comme une course à la seule puissance de calcul. Les annonces d’infrastructures géantes, de clusters de GPU et de nouveaux accélérateurs occupent l’essentiel du débat technologique. Pourtant, une contrainte plus discrète s’impose progressivement comme l’un des principaux freins à l’IA : la mémoire.
Dans l’architecture informatique classique, les processeurs exécutent les calculs tandis que les données sont stockées dans des modules mémoire distincts. Ce modèle, hérité de plusieurs décennies d’ingénierie informatique, implique un déplacement permanent des données entre les unités de calcul et la mémoire. Or, avec l’explosion des volumes manipulés par les modèles d’IA, ce mouvement devient de plus en plus coûteux, en latence comme en consommation énergétique.
Les spécialistes parlent désormais de « mur de la mémoire », une limite structurelle qui se manifeste lorsque la progression des processeurs dépasse celle des technologies mémoire. « Les technologies de mémoire sont confrontées à des limites en termes de densité et de performance, tandis que les performances des processeurs continuent d’augmenter », explique ainsi Sébastien Couet, directeur technique de Vertical Compute. Selon lui, les exigences d’accès aux données imposées par les charges de travail liées à l’IA rendent « impératif de surmonter le mur de la mémoire pour permettre la prochaine vague d’innovations ».
Cette contrainte structurelle devient particulièrement visible dans les infrastructures d’IA modernes. Les modèles de grande taille nécessitent d’accéder en permanence à des volumes massifs de paramètres et de données intermédiaires. Dans les architectures actuelles, ces informations sont généralement stockées dans des mémoires externes, notamment les mémoires à large bande passante (HBM), avant d’être transférées vers les processeurs chargés des calculs. Ce fonctionnement implique des échanges constants entre les composants, générant latence, consommation d’énergie et coûts d’infrastructure.
🚨 SMARTJOBS
- MISTRAL - Account Executive, Enterprise, France - Paris
- ANTHROPIC - Startup Partnerships - France & Southern Europe
- CONTEXTE - DRH - Directeur.rice des Ressources Humaines
- ECOLE POLYTECHNIQUE - Directeur/Directrice Adjoint(e) des relations internationales (F/H)
- CLAROTY — Sales Development Representative
- FRACTTAL — Responsable de compte (France)
- BRICKSAI — Founding Growth Manager
👉 Retrouvez toutes nos offres sur le Jobboard DECODE MEDIA
📩 Vous recrutez et souhaitez renforcer votre marque employeur ? Découvrez nos offres partenaires
À mesure que les modèles s’agrandissent, ce mouvement de données devient l’un des facteurs dominants de la performance réelle des systèmes. Dans certains cas, déplacer l’information consomme davantage de ressources que le calcul lui-même.
Vers une architecture verticale de la mémoire
C’est précisément ce problème que tente d’adresser Vertical Compute. La startup développe une architecture qui consiste à intégrer la mémoire directement au-dessus des unités de calcul, dans une structure verticale intégrée au sein de la puce.
L’objectif est de réduire drastiquement la distance parcourue par les données. Dans les architectures traditionnelles, celles-ci peuvent circuler sur plusieurs millimètres, voire centimètres, entre les composants. Dans une architecture verticale, ces échanges se déroulent à l’échelle du nanomètre.
Cette proximité permettrait de limiter les inefficacités liées au transport des données, d’améliorer la bande passante mémoire et de réduire la consommation énergétique. Les concepteurs de la technologie évoquent également la possibilité d’approcher les performances de mémoires rapides tout en augmentant la densité de stockage.
Le principe repose sur une architecture modulaire de type chiplet, combinant des structures mémoire empilées et des unités de calcul dans un même ensemble. Cette approche pourrait permettre d’intégrer plus efficacement les mémoires dans les systèmes de calcul, notamment pour les applications d’IA embarquée ou les environnements de calcul périphérique.
Selon les fondateurs, cette évolution pourrait contribuer à réduire la dépendance aux infrastructures centralisées. Les systèmes d’IA actuels reposent largement sur des centres de données, en raison notamment du coût et de la complexité des architectures mémoire nécessaires. Une intégration plus compacte pourrait favoriser l’exécution de modèles directement sur des appareils ou des systèmes embarqués.
Une transformation discrète mais stratégique de l’infrastructure IA
Si cette approche se confirme à l’échelle industrielle, elle pourrait modifier la manière dont sont conçus les systèmes d’intelligence artificielle. Depuis plusieurs années, l’essentiel des investissements porte sur les processeurs spécialisés, GPU, accélérateurs IA ou architectures dédiées.
La mémoire, pourtant essentielle à la performance globale des systèmes, reste souvent considérée comme une composante secondaire. Or la progression des modèles d’IA, dont la taille et les besoins en données augmentent rapidement, rend cette dimension de plus en plus critique.
Dans ce contexte, les innovations qui visent à rapprocher mémoire et calcul pourraient jouer un rôle structurant dans les prochaines générations d’architectures informatiques. L’objectif n’est pas nécessairement de remplacer les processeurs existants, mais d’en améliorer l’efficacité en réduisant l’un des principaux goulets d’étranglement de l’IA moderne.
Une deeptech européenne issue de la recherche en nanoélectronique
Fondée en 2024, Vertical Compute est une spin-off du centre de recherche européen imec, l’un des principaux instituts mondiaux spécialisés dans la nanoélectronique et les technologies de semi-conducteurs. L’entreprise développe une technologie visant à intégrer mémoire et calcul dans une architecture verticale destinée aux systèmes d’intelligence artificielle.
La société a été fondée par Sylvain Dubois, ancien responsable de projets liés aux semi-conducteurs chez Google, et Sébastien Couet, chercheur ayant dirigé pendant plusieurs années des programmes de recherche sur les technologies mémoire au sein d’imec.
Vertical Compute nous annonce avoir sécurisé 37 millions d’euros supplémentaires, venant compléter une première levée de 20 millions d’euros, portant ainsi son tour de seed à 57 millions d’euros. L’opération a été menée par le fonds d’investissement Quantonation, avec la participation de Flanders Future Techfund (géré par PMV), Wallonie Entreprendre, Sambrinvest, Noshaq, InvestBW, Drysdale Ventures et Kima Ventures, tandis que les investisseurs historiques Eurazeo, XAnge, Vector Gestion, imec.xpand et imec ont également participé au financement.
Avec une équipe d’environ vingt-cinq collaborateurs répartis entre la Belgique et la France, la startup indique avoir récemment finalisé une première puce de test intégrant son architecture mémoire verticale, étape destinée à valider la faisabilité industrielle de sa technologie avant une phase d’industrialisation plus large.
- La mémoire, ce grand oublié de l’IA : VERTICAL COMPUTE lève 57 millions d’euros pour s’attaquer au “mur de la mémoire” - 04/03/2026
- Dans l’économie de l’IA, les datasets s’imposent comme un actif stratégique - 04/03/2026
- Le bon investissement n’est pas le x3, c’est celui qui permet le x3 suivant - 03/03/2026







