IN THE LOOPTHE PROMPT

Ce que la CFO d’OpenAI nous apprend de la trajectoire financière et industrielle de l’entreprise

📩 Pour nous contacter: redaction@fw.media

La prise de parole de Sarah Friar, CFO d’Open AI, intervient à un moment où OpenAI fait face à une accumulation d’interrogations, parfois contradictoires, sur la nature réelle de son modèle économique, ses trajectoires de monétisation et son plan de développement. L’introduction de formats publicitaires dans ChatGPT a ravivé en fin de semaine des incompréhensions, d’autant plus que cette option semblait avoir été explicitement écartée par Sam Altman dans ses prises de parole antérieures. En parallèle, l’hypothèse d’une introduction en Bourse autour de 2027 circule de plus en plus ouvertement dans l’écosystème, renforçant l’idée que l’entreprise est entrée dans une phase de communication financière plus structurée.

C’est dans ce contexte que le discours porté par Sarah Friar prend tout son sens, et cherche avant tout à remettre de la cohérence et de la lisibilité là où le débat public tend à fragmenter le modèle d’OpenAI en signaux isolés, je vous propose de voir cela plus en détails.

D’un outil expérimental à un usage profondément ancré

En propos liminaire, Sarah Friar nous rappelle que ChatGPT a été lancé comme une simple prévisualisation de recherche, avec une intention exploratoire qui avait pour objectif de comprendre ce qui se produirait si une intelligence de frontière était placée directement entre les mains du public.

Victime de son succès, la suite a largement dépassé le cadre de départ, avec une adoption très rapide de ChatGPT, dont l’usage a été bien au-delà de ce qui avait été anticipé. Qu’il s’agisse d’étudiants cherchant à terminer un exercice, de parents organisant des déplacements ou ajustant un budget, ou plus largement, d’utilisateurs recourant à ChatGPT pour donner du sens à des situations personnelles, préparer des rendez-vous médicaux ou éclairer des décisions complexes, les usages personnels se sont démultipliés de manière significative.

« Les gens ont utilisé ChatGPT pour réfléchir plus clairement lorsqu’ils étaient fatigués, stressés ou incertains. » précise Sarah Friar, qui rappelle que la valeur initiale de ChatGPT est non pas dans un usage professionnel, mais dans sa capacité à aider les utilisateurs dans leur quotidien.

L’entrée dans l’entreprise comme prolongement d’un usage personnel

Ce n’est qu’ensuite que l’usage de ChatGPT bascule vers le monde professionnel, qu’il s’agisse d’une note retravaillée avant une réunion, d’un tableur vérifié une dernière fois, ou un mail reformulé pour en ajuster le ton. Ce point est central pour comprendre le modèle OpenAI dont l’adoption est d’abord personnelle, avant de pénétrer l’entreprise.

Une entreprise de recherche et de déploiement

Avant d’aborder les dimensions financières, elle revient sur la manière dont OpenAI se définit, que la startup n’est ni un simple laboratoire de recherche, ni un éditeur de logiciels classique, mais qu’elle se positionne comme une organisation de recherche et de déploiement. L’objectif d’OpenAi est de réduire l’écart entre l’avancée rapide des capacités d’intelligence artificielle et leur adoption concrète par les individus, les entreprises et les institutions publiques.

Cette articulation éclaire les choix structurants opérés ces dernières années, que ce soit en terme de produits que de modèle économique, et qu’elle repose sur la conviction que la recherche n’a de valeur que si elle se traduit en usages durables.

Une doctrine de monétisation pensée pour durer

Face aux interrogations sur la publicité et sur la trajectoire financière de l’entreprise, Sarah Friar rappelle que le modèle économique d’OpenAI doit évoluer en proportion de la valeur réellement délivrée par l’IA, et que c’est avec rigueur que ce principe irrigue aujourd’hui l’ensemble des lignes de revenus.

Ainsi les abonnements répondent à des usages individuels continus, les offres dédiées aux équipes s’appuient sur une tarification à l’usage, alignée sur le travail effectivement réalisé, les APIs permettent aux développeurs et aux entreprises d’intégrer l’intelligence dans leurs propres produits, avec des coûts qui évoluent en fonction des résultats produits.

L’introduction de formats liés au commerce et à la publicité s’inscrit dans cette même logique. De plus en plus d’utilisateurs viennent sur ChatGPT pour décider quel produit acheter, où aller, quelle option choisir. À ce stade, OpenAI considère que proposer des solutions pertinentes crée de la valeur, pour l’utilisateur comme pour les partenaires commerciaux, à condition que ces propositions soient clairement identifiées et réellement utiles. « La monétisation doit sembler native dans l’expérience. Si elle n’ajoute pas de valeur, elle n’a pas sa place. » précise t elle, rappelant en sous jacent la faible appétence d’Altman à la publicité, mais la nécessité de trouver le modèle le plus efficient.

Le compute comme clé de lecture économique

Au delà de ces considérations, le cœur du propos de Sarah Friar, se situe dans la relation établie entre compute et chiffre d’affaires. Entre 2023 et 2025, la puissance de calcul d’OpenAI est passée de 0,2 gigawatt à environ 1,9 gigawatt. Sur la même période, le revenu annualisé est passé de deux milliards à plus de vingt milliards de dollars.

Elle estime toutefois qu’avec davantage de capacité de calcul, l’adoption comme la monétisation auraient progressé plus rapidement encore. Cette lecture replace OpenAI dans une logique industrielle, où l’intelligence artificielle à grande échelle repose sur des infrastructures lourdes, des engagements de capital anticipés et une gestion fine des ressources.

D’une contrainte à un portefeuille piloté

Cest cette analyse qui a conduit OpenAI à organiser le compute. L’entreprise est ainsi passée d’une dépendance à un fournisseur unique à un écosystème diversifié, lui apportant à la fois résilience opérationnelle et plus de visibilité sur sa capacité de déploiement.

Ainsi il devient un portefeuille actif, où les modèles les plus exigeants sont entraînés sur des infrastructures premium lorsque la performance est critique, et les charges à fort volume sont orientées vers des environnements plus efficients lorsque le coût marginal devient prioritaire. Cette segmentation permet de réduire la latence, d’augmenter le débit et d’abaisser les coûts unitaires.

Cette stratégie conduit OpenAI à privilégier les partenariats plutôt que la détention directe des actifs. Les engagements sont pris par tranches, en fonction de signaux de demande tangibles, afin d’accompagner la croissance sans pour autant rigidifier la structure de coûts.

Cette logique se traduit par de nombreux partenariats qui se sont enchainés ces derniers mois. Le plus structurant reste celui noué avec Microsoft, qui fournit à OpenAI une part déterminante de son infrastructure via Azure. Cet accord couvre à la fois l’entraînement des modèles, leur déploiement à grande échelle et l’intégration de l’intelligence d’OpenAI dans les produits de Microsoft. Il a permis à l’entreprise de sécuriser très tôt des capacités de calcul critiques sans porter directement les actifs correspondants à son bilan.

À mesure que les besoins en compute se sont intensifiés, OpenAI a toutefois cherché à réduire sa dépendance à un fournisseur unique. L’entreprise a ainsi élargi son écosystème d’infrastructure en s’appuyant notamment sur CoreWeave, spécialisé dans le calcul haute performance sur GPU, ainsi que sur Oracle, avec lequel OpenAI a annoncé un partenariat portant sur des capacités de cloud et de data centers supplémentaires. Ces accords visent à absorber des charges massives liées à l’entraînement et à l’inférence, tout en améliorant la visibilité à moyen terme sur les volumes disponibles.

Côté matériel, OpenAI travaille étroitement avec NVIDIA, dont les architectures GPU constituent le socle des modèles de frontière actuels. Là encore, il s’agit moins d’un choix technologique isolé que d’un alignement industriel sur les chaînes d’approvisionnement capables de soutenir une montée en charge rapide.

Pris ensemble, ces partenariats illustrent la stratégie décrite par Sarah Friar, combiner des infrastructures premium et des capacités plus efficientes selon les usages, et engager le capital par étapes, en fonction de la demande réelle.

Vers une couche d’exploitation du travail intellectuel

Au-dessus de cette infrastructure se déploie une plateforme couvrant un spectre d’usages allant du texte à l’image, de la voix au code, jusqu’aux API. La prochaine étape évoquée concerne des agents capables de fonctionner en continu, de conserver le contexte dans le temps et d’agir à travers plusieurs outils simultanément.

Pour les utilisateurs, cela signifie des systèmes capables de gérer des projets, de coordonner des plans et d’exécuter des tâches. Pour les organisations, cela revient à installer une couche opérationnelle dédiée au travail intellectuel.

A mesure que ces usages deviennent récurrents, la prévisibilité économique du modèle se renforce, permettant d’investir sur le long terme.

Donner de la lisibilité à un modèle encore en construction

Cette remise en perspective vise à clarifier non seulement le modèle, mais aussi la stratégie de développement assumée par OpenAI. les abonnements, les APIs, la gestion du compute, l’émergence des agents ou la montée en puissance des usages sont présentés comme les composantes d’un même système en cours de structuration. La publicité pourrait en faire partie si la phase de test qui vient d’être engagée, est validée.

Dans un contexte où l’hypothèse d’une introduction en Bourse à l’horizon 2027 est de plus en plus évoquée, OpenAI veut apparaitre non comme une entreprise en quête de modèle, mais comme une organisation qui cherche à stabiliser une infrastructure d’intelligence, avec ses contraintes industrielles, ses arbitrages capitalistiques et ses impératifs de montée en charge. Un exercice de communication qui devrait se démultiplier dans les mois à venir et que nous ne manquerons pas de décoder.

Suivez moi
Bouton retour en haut de la page