CES 2026: L’IA entre dans son âge industriel, la lecture économique de Jensen Huang (NVIDIA)
📩 Pour nous contacter: redaction@fw.media
Les prises de parole de Jensen Huang ne sont pas sans rappeler celles des keynotes de Steve Jobs. Au-delà de la dimension « supershow », l’intervention donnée cette nuit en ouverture du CES 2026 dépasse largement la présentation d’une nouvelle génération de technologies NVIDIA. À qui prend le temps de l’écouter, elle livre surtout une lecture des changements en cours.
Ainsi, au-delà des performances ou de la feuille de route des ingénieurs de NVIDIA, Jensen Huang pose une question plus fondamentale : quel type d’industrie l’intelligence artificielle est-elle en train de faire émerger, et selon quelles règles économiques va-t-elle opérer ?
En préambule, son propos s’articule autour d’un changement structurel : l’IA n’est plus un actif logiciel à coûts marginaux faibles, mais une infrastructure productive à coûts fixes élevés, où le capital, l’énergie et les rendements d’échelle deviennent déterminants. Cette inflexion modifie la nature même du cycle technologique en cours.
Du logiciel léger à l’infrastructure lourde
Lorsque Jensen Huang évoque un platform shift, il renvoie à des ruptures bien identifiées : l’ordinateur personnel dans les années 1980, Internet dans les années 1990, puis le cloud dans les années 2010. Ces plateformes avaient en commun de masquer l’infrastructure, de l’abstraire au profit du logiciel et de l’usage. L’IA opère le mouvement inverse en replaçant l’infrastructure au centre du jeu.
Selon lui, près de 10 000 milliards de dollars d’actifs informatiques hérités entrent aujourd’hui dans une phase de modernisation vers l’IA. Non parce qu’ils seraient devenus techniquement obsolètes, mais parce que l’IA impose des contraintes nouvelles en matière de calcul, de réseau, de mémoire et d’énergie. L’obsolescence est moins fonctionnelle qu’économique : à performance équivalente, ces infrastructures consomment trop et délivrent un rendement insuffisant. Là où le cloud mutualisait, l’IA exige de re-spécialiser et de reconstruire.
Cette rupture est d’abord physique, car entraîner un modèle de nouvelle génération mobilise des dizaines de milliers de GPU pendant plusieurs semaines, dans des data centers consommant plusieurs centaines de mégawatts. À l’échelle d’un hyperscaler, un campus IA dépasse rapidement le gigawatt, soit la consommation d’une grande ville. L’infrastructure devient ainsi le facteur limitant, économique comme énergétique.
Dans ce contexte, l’IA agit comme un vecteur de redéploiement du capital existant. Budgets IT, dépenses de R&D et investissements industriels convergent vers des infrastructures capables de soutenir des usages d’IA en production.
Au travers de ce constat, Jensen Huang cherche à déconstruire l’idée d’une bulle spéculative. Nous sommes dans un cycle où des milliers de milliards de dollars changent progressivement de destination pour financer une reconfiguration profonde du socle numérique mondial.
Pourquoi l’IA coûte de plus en plus cher… même quand elle progresse
Un autre point clé de sa présentation consiste à réfuter l’idée selon laquelle l’IA deviendrait mécaniquement moins coûteuse. Certes, le coût par token diminue, mais le volume de calcul augmente plus vite que les gains d’efficacité.
Trois dynamiques se superposent : le pré-entraînement, avec des modèles passant de centaines de milliards à plusieurs trillions de paramètres ; le post-entraînement, via le renforcement et l’alignement ; enfin le test-time scaling, où les modèles raisonnent plus longtemps et génèrent davantage de tokens.
Résultat : l’inférence devient un coût structurel. Un agent IA qui raisonne pendant quelques secondes mobilise plus de ressources qu’un modèle instantané. À grande échelle, l’IA devient une machine à consommer du compute en continu.
L’agent, unité économique de la nouvelle génération logicielle
La notion d’agent est centrale dans la démonstration. Un agent est un système capable d’enchaîner des actions : interroger une base de données, appeler une API, écrire du code, déclencher un processus métier. L’IA agentique n’est plus un outil d’assistance, mais de productivité. Un développeur peut ainsi gagner 20 à 30 % de temps via un agent de code.
Cela explique l’adoption rapide des agents dans le développement logiciel, la data ou la finance, où le coût des ressources humaines est élevé et où le retour sur investissement est immédiat.
Sans open source, pas de diffusion mondiale
Jensen Huang a insisté sur les modèles ouverts, non pour des raisons idéologiques, mais économiques. Une infrastructure ne devient dominante que si elle est massivement adoptée, à l’image d’Ethernet ou de Linux. Ainsi l’open source abaisse le ticket d’entrée, active des millions de développeurs et évite l’étranglement de l’innovation. Même en léger retard sur les modèles propriétaires, sa cadence suffit à structurer l’écosystème.
L’IA physique, quand le coût de l’erreur devient critique
Contrairement au texte ou au code, le monde réel ne tolère pas l’approximation. Une hallucination est bénigne dans un résumé, mais potentiellement fatale dans une manœuvre industrielle ou automobile. D’où l’importance de la long tail. Atteindre 99 % de performance est accessible ; gérer le dernier pourcent, celui des situations rares ou dangereuses, est exponentiellement plus coûteux.
L’IA industrielle se rapproche ainsi de l’aéronautique ou du nucléaire : redondance des systèmes, certification complète, traçabilité logicielle et matérielle. Le partenariat avec Mercedes-Benz illustre cette logique.
La donnée n’existe pas : elle se fabrique
Si Internet a servi de gisement pour les modèles de langage, cette richesse n’existe pas pour le monde physique pour lequel elle doit être construite. Simulation, jumeaux numériques et données synthétiques deviennent centraux. Le compute devient une usine à données, la puissance de calcul servant autant à générer les situations d’apprentissage qu’à apprendre du réel.
NVIDIA, architecte d’un système économique complet
En conclusion NVIDIA ne se positionne plus comme un simple fournisseur de puces, mais comme un architecte de systèmes industriels, orchestrant silicium, réseau, calcul, simulation et modèles.
L’IA est entrée dans la logique de l’industrie lourde. Elle est devenue une condition de compétitivité, et omme toute infrastructure critique, elle redistribuera la valeur non pas entre ceux qui innovent le plus vite, mais entre ceux qui peuvent investir le plus durablement.






