DeepSeek V4 : le modèle chinois qui fait trembler Wall Street et la Silicon Valley
Le laboratoire chinois DeepSeek s'apprête à lancer son modèle V4, spécialisé dans le codage informatique, alors qu'Anthropic, créateur de Claude, accuse la start-up de Hangzhou d'avoir utilisé des milliers de faux comptes pour extraire les capacités de son intelligence artificielle. Une nouvelle salve dans la guerre technologique sino-américaine qui pourrait, une fois de plus, faire vaciller les marchés financiers.
La sortie de DeepSeek V4, initialement prévue pour la mi-février 2026, a dépassé son calendrier mais reste décrite comme imminente par l'ensemble des observateurs du secteur. Selon The Information, citant des sources proches du projet, le modèle cible une capacité de traitement dépassant le million de tokens de contexte, une avancée qui lui permettrait d'analyser des bases de code entières en une seule passe. Les tests internes montreraient des performances supérieures à celles de Claude et ChatGPT sur les tâches de codage complexes.
Le 11 février, des utilisateurs ont découvert que DeepSeek avait discrètement étendu la fenêtre de contexte de son modèle actuel de 128 000 à un million de tokens, un signal interprété par les analystes comme un aperçu des capacités du V4. Le modèle s'appuie sur deux innovations architecturales majeures : le système de mémoire conditionnelle Engram et le cadre mHC (Hyper-Connections), co-signé par le fondateur Liang Wenfeng.
Wall Street retient son souffle
Les marchés n'ont pas oublié le choc de janvier 2025. Lors du lancement de DeepSeek V3, le Nasdaq avait chuté de 3 % et l'action Nvidia avait plongé de 17 %, effaçant 600 milliards de dollars de capitalisation boursière en une seule séance, selon Reuters. La plus importante perte jamais enregistrée en une journée pour un titre individuel.
Cette fois, le contexte pourrait être plus fragile encore. « Si des modèles moins chers et plus efficaces émergent et nécessitent moins de puissance de calcul, c'est l'ensemble de la thèse de valorisation de Nvidia qui s'affaiblit », analyse The Motley Fool. Nvidia se négocie actuellement à un multiple de 24 fois ses bénéfices futurs, à peine au-dessus de la moyenne du S&P 500. Le scepticisme croissant autour des dépenses massives en infrastructures IA amplifie la nervosité des investisseurs.
DeepSeek maintient par ailleurs une politique tarifaire agressive : ses API coûtent environ 0,55 dollar par million de tokens en entrée, contre 3 dollars pour Claude 3.5 Sonnet. Le V4 devrait en outre être publié en open source, conformément à la stratégie adoptée pour les versions précédentes.
Anthropic dénonce une extraction « à échelle industrielle »
Dans un rapport publié le 24 février 2026, Anthropic a accusé trois laboratoires chinois — DeepSeek, Moonshot AI et MiniMax — d'avoir mené des « campagnes de distillation à échelle industrielle » contre son modèle Claude. Selon l'entreprise américaine, quelque 24 000 comptes frauduleux ont généré plus de 16 millions d'échanges avec Claude pour en extraire les capacités, en violation des conditions d'utilisation et des restrictions d'accès régionales.
La technique employée, dite de « distillation », consiste à entraîner un modèle moins performant sur les réponses d'un modèle plus puissant. DeepSeek aurait ciblé les capacités de raisonnement de Claude à travers plus de 150 000 échanges, tandis que MiniMax concentrait ses efforts sur le codage agentique avec plus de 13 millions de requêtes. Moonshot AI, de son côté, visait les capacités de vision par ordinateur et d'utilisation d'outils via 3,4 millions d'interactions.
« L'ampleur de ces réseaux signifie qu'il n'existe aucun point de défaillance unique. Quand un compte est banni, un nouveau prend sa place », avertit Anthropic dans son rapport. L'entreprise a développé des systèmes de classification comportementale et de « fingerprinting » pour détecter ces schémas dans le trafic API.
Ces révélations s'inscrivent dans un contexte géopolitique tendu. OpenAI avait déjà signalé des tentatives similaires de la part de DeepSeek dans une lettre ouverte aux législateurs américains. Anthropic souligne que ces attaques « renforcent la justification des contrôles à l'exportation » de puces avancées, arguant que les modèles distillés illicitement pourraient être déployés sans garde-fous de sécurité à des fins de cybercriminalité, de désinformation ou de surveillance de masse.
La commission de la sécurité intérieure de la Chambre des représentants a convoqué le PDG d'Anthropic, Dario Amodei, pour répondre aux questions sur les implications de ces attaques. Dans cette guerre de l'intelligence artificielle, la frontière entre innovation technologique et espionnage industriel n'a jamais été aussi mince.