IN THE LOOPLES LEVEES DE FONDSTHE PROMPT

FUNDAMENTAL lève 216 millions d’euros et dévoile NEXUS, un “Large Tabular Model”

📩 Pour nous contacter: redaction@fw.media

Depuis l’irruption de ChatGPT, l’intelligence artificielle occupe l’espace médiatique et organisationnel comme rarement auparavant. Mais si ses performances impressionnent, son mode opératoire reste largement fondé sur l’ingestion et l’interprétation de masses de données non structurées. Or, dans la plupart des grandes organisations, les décisions qui engagent réellement des budgets, des responsabilités ou des risques s’élaborent d’abord à partir de données structurées, organisées en tables.

Sur ce terrain, chacun l’a constaté, les LLM sont moins à l’aise, et ce pour la raison simple qu’ils ont été conçus pour modéliser du langage, et non pour calculer sur du tabulaire.

Ainsi un modèle de langage apprend à prédire le token suivant à partir d’une séquence. Cette mécanique fonctionne très bien pour du texte, où l’information est portée par la syntaxe, le contexte et des régularités linguistiques. Une table, au contraire, encode l’information dans une structure logique : colonnes typées, cellules, clés, valeurs manquantes, relations implicites entre variables.

Pour faire « digérer » une table à un LLM, on doit généralement la sérialiser (la convertir en texte ou en JSON). On y perd une partie de la structure, et l’on se heurte surtout à une contrainte matérielle : la fenêtre de contexte. Un LLM ne peut raisonner que sur ce qu’il “voit”. Au-delà de quelques milliers, ou dizaines de milliers de lignes, il bascule de la lecture à l’échantillonnage, voire au résumé. Or, les entreprises travaillent couramment sur des jeux de données qui comptent des millions, parfois des milliards de lignes.

Et même lorsque la table tient dans le contexte, les LLM restent mal adaptés aux opérations qui font la valeur du tabulaire : calculs reproductibles, agrégations à grande échelle, détection de signaux faibles dans des distributions, traitement rigoureux des valeurs manquantes, des outliers, des ruptures et changements de régime. Ils peuvent produire une explication plausible, mais ils sont moins fiables lorsqu’il s’agit de délivrer un résultat stable, et strictement identique à chaque exécution, ce qui est un impératif dans des environnements métiers exigeants.

C’est précisément là que se positionnent les approches dites Large Tabular Models, conçues pour raisonner directement sur des données structurées.  C’est précisément celle de Fundamental, un laboratoire d’IA qui vient de sortir de l’ombre en dévoilant NEXUS, son modèle fondationnel conçu pour exploiter la donnée structurée à l’échelle des grandes organisations.

La thèse de départ est relativement simple : les entreprises ont déjà la donnée, souvent en quantité massive, mais une partie de sa valeur reste inaccessible parce que l’outillage prédictif traditionnel fonctionne encore trop souvent comme une industrie artisanale. Fundamental propose un socle unique capable de s’appliquer à une grande variété de problèmes, que ce soit des prévisions de la demande, la définition de prix, la prévision de churn, risque, fraude, et ce sans avoir à reconstruire l’architecture à chaque itération.

Le pari technologique repose sur une rupture avec les modèles de langage. NEXUS est présenté comme un Large Tabular Model, et non comme un LLM “adapté au tableur”. L’objectif est de produire des prédictions et des recommandations au plus près des exigences métiers, notamment en terme de reproductibilité.

L’autre point mis en avant concerne l’échelle. Là où les architectures les plus répandues dans l’IA actuelle se heurtent rapidement aux limites de lecture d’un dataset massif, l’ambition de Fundamental est de traiter des volumes qui ressemblent à la réalité des grandes entreprises : des tables gigantesques, issues de bases transactionnelles, de data warehouses et d’outils de pilotage, parfois avec des milliards de lignes.

Ainsi la startup a noué un partenariat stratégique avec AWS pour permettre aux entreprises clientes de déployer NEXUS directement dans leurs environnements cloud existants. L’objectif est de réduire les frictions d’intégration, rapprocher le modèle des données, et aligner l’approche avec les exigences de sécurité et de conformité qui rendent, en pratique, beaucoup de promesses IA difficiles à industrialiser.

Si sur le plan commercial, Fundamental ne communique sur son portefeuille client, ele recrute actuellement un Enterprise Account Manager expérimenté pour piloter et développer les relations avec des clients du Fortune 100, une indication sur l’approche marché de la startup.

Jusqu’ici restée très discrète, Fundamental annonce avoir levé 255 millions de dollars pour une valorisation de 1,2 milliard de dollars. Le tour comprend une série A de 225 millions de dollars menée par OAK HC/FT, avec la participation de VALOR EQUITY PARTNERS, BATTERY VENTURES, SALESFORCE VENTURES et HETZ VENTURES, ainsi qu’un seed de 30 millions de dollars réuni notamment auprès de QUADRILLE CAPITAL, KIMA VENTURES, MOTIER VENTURES et de business angels, dont ARAVIND SRINIVAS (Perplexity), HENRIQUE DUBUGRAS (Brex) et OLIVIER POMEL (Datadog).

A l’origine de Fundamental, un attelage “business × science × exécution”. JEREMY FRAENKEL (CEO) issu de J.P. MORGAN puis BRIDGEWATER, et qui a déjà cofondé une startup avec DRIFT (ex-Arkifi) avant Fundamental. MARTA GARNELO (CSO) vient pour sa part de GOOGLE DEEPMIND, où elle a été chercheuse plus de sept ans. Enfin GABRIEL SUISSA complète l’équipe avec un profil orienté croissance, passé par J.P. MORGAN puis GREENFIELD PARTNERS.

Bouton retour en haut de la page