AI FIRSTTRENDS

DeepSeek, la startup chinoise qui a forcé la Silicon Valley à sortir de sa bulle

📩 Pour nous contacter: redaction@frenchweb.fr

Nous vous proposons une plongée cette semaine dans l’univers des six nouveaux dragons chinois de l’IA. Et pour entamer cette série, difficile de ne pas commencer par l’acteur qui a pris tout le monde de court il y a quelques mois: DeepSeek.

TL;DR — DeepSeek, le laboratoire chinois qui force la Silicon Valley à réviser ses certitudes

👥 Pour qui est-ce important ?

  • Décideurs en IA et responsables innovation dans les grands groupes
  • Investisseurs et analystes suivant la concurrence technologique sino-occidentale
  • Équipes produit et R&D travaillant sur des modèles open source ou low compute
  • Responsables politiques et stratèges en souveraineté numérique

💡 Pourquoi c’est stratégique ?

  • DeepSeek R1-0528 atteint les performances de GPT-4 avec 5 % des coûts estimés
  • La Chine montre qu’elle peut innover hors du cadre californien : plus sobre, plus rapide
  • Le recours à des modèles “sparse” ouvre la voie à une IA frugale et distribuée
  • Les restrictions export US ont accéléré l’autonomie technologique chinoise
  • L’open source devient un levier d’influence au-delà des discours

🔧 Ce que ça change concrètement

  • Des modèles IA open source compétitifs, exploitables sur GPU grand public
  • Un nouveau standard de coût/efficacité en IA pour les startups et laboratoires
  • Des usages croissants hors Chine (Perplexity AI, Hugging Face) malgré les tensions
  • Des débats plus vifs sur la souveraineté des datasets et les biais réglementaires
  • Une dynamique multipolaire renforcée dans l’IA fondationnelle

En l’espace de quelques mois, cette jeune entreprise chinoise, encore largement inconnue du grand public début 2024, a émergé dans les discussions autour des modèles d’intelligence artificielle les plus avancés. DeepSeek, à travers la publication de son modèle R1, s’est hissée dans les comparatifs techniques avec des poids lourds comme OpenAI ou Anthropic. Sans fracas, cette percée soulève des questions sur la dynamique actuelle de l’innovation, les effets secondaires des régulations technologiques, et le rôle de la Chine dans les équilibres futurs de l’IA.

Une performance remarquée, mais encore à situer

Lorsque DeepSeek a publié R1 début 2025, plusieurs observateurs ont relevé ses résultats prometteurs sur des benchmarks de raisonnement comme MMLU ou ARC. Le modèle semblait atteindre, voire dépasser, certaines performances de GPT-4, avec une empreinte de calcul significativement plus faible. Ces résultats, diffusés en open source, ont été rapidement repris dans des outils tiers et tests communautaires.

Il y a quelques jours, DeepSeek a publié une mise à jour majeure de son modèle, baptisée R1-0528. Selon les premiers retours, celle-ci réduit l’écart avec les leaders commerciaux comme OpenAI o3 ou Gemini 2.5 Pro, notamment sur les tâches de raisonnement mathématique, de génération de code et de logique d’affaires. Sur l’évaluation AIME 2025, le taux de réussite est passé de 70 % à 87,5 %. Des progrès similaires sont observés sur d’autres benchmarks techniques. Le modèle reste accessible gratuitement sous licence MIT, avec des poids téléchargeables depuis Hugging Face et une API tarifée à bas coût. Ces choix renforcent la diffusion du modèle dans la communauté des développeurs, tout en consolidant la position de DeepSeek comme fournisseur de solutions open source à haut niveau de performance.

Une stratégie de visibilité partielle

DeepSeek revendique une approche « open », au moins sur le plan des publications et du partage de certains poids de modèles. Toutefois, très peu d’informations sont disponibles sur sa gouvernance, ses sources de financement ou l’origine exacte de ses infrastructures matérielles. Son fondateur, Liang Wenfeng, ne s’est pas exprimé publiquement depuis plus d’un an. Aucun porte-parole officiel ne semble mandaté pour représenter l’entreprise sur la scène internationale.

Derrière cette trajectoire discrète se trouve un personnage tout aussi insaisissable, Liang Wenfeng. Ancien trader quantitatif, fondateur de High-Flyer Capital, Liang est décrit par ses collaborateurs comme méticulueux, silencieux, mais techniquement redoutable. Peu médiatisé, certains dans le secteur le surnomment “le Madman technique”, il incarne une autre figure du leadership, davantage tournée vers l’exécution et l’architecture que vers le récit.

Cette discrétion contraste avec les standards de communication des grands laboratoires américains, qui valorisent la transparence relative autour de leurs roadmaps techniques ou de leur culture organisationnelle. Le choix de DeepSeek, qu’il soit tactique ou culturel, donne à lire une autre posture : celle d’un acteur qui privilégie l’exécution à la médiatisation.

Des contraintes devenues levier

L’une des spécificités de DeepSeek tient à son contexte de développement. En raison des restrictions américaines sur l’export de GPU avancés, l’entreprise aurait conçu son modèle autour d’architectures plus sobres en calcul. Certaines analyses évoquent un recours précoce aux structures « sparse », optimisées pour tirer parti de ressources limitées.

La sortie d’un modèle distillé, DeepSeek-R1-0528-Qwen3-8B, complète cette logique. Plus léger, ce modèle permet d’exécuter des tâches complexes sur des GPU standard type RTX 3060 ou 4090. Il vise un public de chercheurs, développeurs indépendants et entreprises à moyens limités, désireux d’exploiter les avancées récentes sans dépendre d’une infrastructure lourde.

Une dynamique collective à observer

DeepSeek n’évolue pas seule. Elle fait partie d’une nouvelle génération d’acteurs chinois, souvent surnommés localement les « six petits dragons ». À Hangzhou, où se côtoient startups de la robotique, champions du gaming dopé à l’IA et entreprises issues des laboratoires d’élite, la dynamique repose sur trois piliers : formation locale d’excellence, densité industrielle, et soutien politique plus explicite depuis 2022. Là où Pékin encadrait fermement ses géants technologiques en 2021, l’État semble désormais mobilisé pour renforcer l’autonomie industrielle, en particulier dans l’intelligence artificielle et les semi-conducteurs.

Cette dynamique s’appuie sur un retour de profils formés à l’étranger, une culture technique exigeante, et une capacité à faire émerger des équipes très jeunes sur des sujets complexes. Si cette trajectoire se poursuit, elle pourrait renforcer une forme de multipolarité dans les avancées en intelligence artificielle, au-delà du duopole américano-américain actuel.

Réactions contrastées et controverse persistante

En parallèle des avancées techniques, DeepSeek suscite de vives tensions géopolitiques. Aux États-Unis, des rapports parlementaires l’accusent d’avoir contourné les restrictions à l’export de puces H100, voire d’avoir accédé à des données protégées. L’entreprise dément, sans toutefois fournir de réponse détaillée. Cette opacité renforce les interrogations, DeepSeek se veut ouverte sur ses poids de modèles, mais reste fermée sur ses conditions de développement. Ce paradoxe alimente la méfiance d’une partie de l’écosystème occidental, même chez ceux qui intègrent déjà ses modèles, souvent reconditionnés, comme chez Perplexity AI, pour répondre à leurs propres standards.

L’accueil dans la communauté technique est globalement positif. Plusieurs développeurs influents ont salué la capacité du modèle à produire du code fonctionnel et cohérent dès les premières itérations, évoquant des performances comparables à celles de modèles payants. Cette reconnaissance communautaire, si elle se poursuit, pourrait peser dans la manière dont l’écosystème évalue désormais les contributions chinoises au champ de l’IA open source.

Un laboratoire plus qu’un bouleversement ?

Ce que révèle le cas DeepSeek, au-delà des soupçons, c’est peut-être un autre chemin vers la performance en IA, un écosystème localisé, sobre en capital, rapide dans ses cycles, et fondé sur un équilibre entre culture d’ingénierie et système de valeurs partiellement décalé de celui de la Silicon Valley.

📚 Références et sources consultées

  1. DeepSeek AI. Présentation du modèle DeepSeek-R1-0528, Hugging Face.
    https://huggingface.co/deepseek-ai/DeepSeek-R1-0528

  2. DeepSeek. Documentation API – Tarification et intégration.
    https://api-docs.deepseek.com/quick_start/pricing

  3. VentureBeat (2025). DeepSeek-R1-0528 arrives in powerful open-source challenge to OpenAI o3 and Gemini 2.5 Pro.
    https://venturebeat.com/ai/deepseek-r1-0528-arrives-in-powerful-open-source-challenge-to-openai-o3-and-google-gemini-2-5-pro/

  4. Reuters (2025). China’s DeepSeek releases an update to its R1 reasoning model.
    https://www.reuters.com/world/china/chinas-deepseek-releases-an-update-its-r1-reasoning-model-2025-05-29/

  5. The Guardian (2025). AI moment likened to Sputnik as China’s DeepSeek shocks Western labs.
    https://www.theguardian.com/technology/2025/jan/28/deepseek-openai-elon-musk-don-lemon-crypto-kalshi

  6. Bloomberg Businessweek (juin 2025). The Architect of China’s AI Revolution.
    (Numéro complet, version imprimée ou numérique via Bloomberg.com)

  7. Reddit. DeepSeek-R1-0528 Official Benchmarks Released – Discussion thread on r/LocalLLaMA.
    https://www.reddit.com/r/LocalLLaMA/comments/1ky8vlm/deepseekr10528_official_benchmarks_released/

  8. Elek Chen (2025). DeepSeek-R1-0528 vs Claude 4 – Full Comparison Report, Medium.
    https://medium.com/@elekchen/deepseek-r1-0528-vs-claude-4-full-comparison-report-fefd9723d6fa

Suivez nous:
Bouton retour en haut de la page