Achraf Hamid, Data scientist et Responsable de la division IA chez Mailinblack, revient sur une séquence qui a marqué un tournant dans l’industrie. Entre fuite massive chez Anthropic et offensive open source de NVIDIA, il analyse une confrontation désormais ouverte entre logique de secret et exigence de transparence, avec des conséquences directes sur la sécurité, l’innovation et la souveraineté des technologies d’IA.
Fin mars 2026, le secteur de l’intelligence artificielle a connu une semaine de turbulences sans précédent. Entre une fuite massive révélant les secrets de fabrication d’Anthropic et une publication open source radicale de NVIDIA, l’industrie se fracture entre partisans du secret industriel et défenseurs d’une transparence accrue.
Claude Code : une fuite du “harnais” agentique
Le 31 mars 2026, l’intégralité du code source de Claude Code, l’outil de programmation agentique d’Anthropic, a été exposée sur le registre npm, un gestionnaire de paquets par défaut pour l’environnement d’exécution JavaScript Node. Cette fuite de 512 000 lignes de TypeScript ne provient pas d’un piratage complexe mais d’une erreur humaine : l’inclusion par défaut d’un fichier .map de 60 Mo qui a permis de reconstituer l’architecture originale.
La précision de ce volume de données repose sur l’analyse physique des fichiers extraits par la communauté des chercheurs en sécurité : le fichier source incluait le champ technique sourcesContent qui embarquait le code source original non minifié (une technique permettant de supprimer tout caractère inutile pour l’interprétation du code par un navigateur Web) pour le débogage – c’est-à-dire la recherche et la correction d’erreurs dans le code source d’un logiciel. Une fois l’arborescence reconstituée, des outils de comptage (cloc) ont validé la présence de 1 906 fichiers TypeScript d’un total de plus de 512 000 lignes.
À savoir : seul 1,6 % du code, soit 8 000 lignes, gère les appels au modèle d’IA ; l’immense majorité constitue le “harnais” agentique, avec des fichiers massifs comme QueryEngine.ts qui totalise 46 000 lignes. Bien qu’Anthropic ait supprimé le package original, le code a été copié plus de 41 000 fois sur GitHub, ce qui rend ces statistiques vérifiables par n’importe quel ingénieur.
Une “sauce secrète” désormais publique
Pour les observateurs, cette fuite est potentiellement dévastatrice car elle révèle le harnais – ou logique d’orchestration, qui permet à l’IA d’agir de façon autonome.
Gergely Orosz, auteur de The Pragmatic Engineer, une newsletter dédiée au développement de logiciels, a souligné l’ironie d’une entreprise facturant des revues de sécurité tout en oubliant les bases de l’hygiène DevOps.
Yuchen Jin, CTO de Hyperbolic Labs, affirme quant à lui que le fossé entre les outils de codage ne résiderait pas dans le modèle, mais dans ce harnais d’orchestration. Cette fuite pourrait donc mettre fin à un avantage concurrentiel majeur pour Anthropic.
D’autre part, la découverte d’un mode “Undercover”, forçant l’IA à cacher son identité lors de contributions open-source, a suscité de vifs débats sur la transparence et l’éthique dans le développement de ces technologies.
Nemotron 3 Super : la riposte open source de NVIDIA
En contraste total avec l’incident d’Anthropic, NVIDIA a officiellement publié, le 11 mars 2026, la documentation complète et les éléments d’entraînement de son modèle Nemotron 3 Super et de ses 120 milliards de paramètres.
Cette publication a été saluée par plusieurs figures majeures et pionniers de l’IA réunis au sein de la “Nemotron Coalition”. Arthur Mensch, le fondateur de Mistral AI, considère que les modèles ouverts sont le seul moyen pour que l’IA devienne une plateforme neutre. Aravind Srinivas, co-fondateur et PDG de Perplexity, soutient que l’accessibilité des modèles ouverts réduit drastiquement les coûts.
En plus de participer à l’effort collectif d’innovation, Nemotron 3 Super est présenté comme un modèle particulièrement avancé sur le plan technique. Son architecture combine deux approches : des couches Mamba pour la vitesse de calcul, et un mécanisme d’attention pour la précision des réponses. Une technologie, appelée LatentMoE, permet de mobiliser simultanément 22 “experts” spécialisés pour traiter chaque morceau de texte, sans exploser les coûts de calcul. Enfin, un nouveau format d’entraînement Natif en 4-bits sur les puces Blackwell de NVIDIA lui permet d’être presque aussi précis que des modèles beaucoup plus gourmands. En d’autres termes, Nemotron 3 Super pourrait rapidement rivaliser, voire surpasser, Claude.
Le printemps 2026 pourrait marquer la fin de l’ère du mystère pour les “harnais” d’IA. La fuite d’Anthropic rappelle que le secret industriel est fragile, tandis que la transparence de NVIDIA définit un nouveau standard de confiance. Le défi est désormais de construire des architectures vérifiables et souveraines, capables de résister à des agents autonomes dont les secrets sont, désormais, accessibles à tous.





