Une équipe d'IA chinoise a accusé un laboratoire américain bien financé d'avoir plagié son framework open-source, un événement qui menace l'ethos collaboratif sous-tendant l'essor actuel de l'IA.
Retour
Une équipe d'IA chinoise a accusé un laboratoire américain bien financé d'avoir plagié son framework open-source, un événement qui menace l'ethos collaboratif sous-tendant l'essor actuel de l'IA.

Une petite équipe chinoise d'intelligence artificielle a publiquement accusé Nous Research, un laboratoire d'IA de la Silicon Valley éminent et bien financé, d'avoir plagié l'architecture de base de son projet open-source. Le litige porte sur des allégations selon lesquelles la fonction d'auto-évolution de l'agent Hermes de Nous Research, qui compte plus de 85 000 étoiles sur GitHub, est une copie directe du moteur Evolver créé par l'équipe chinoise EvoMap, publié seulement 36 jours auparavant.
« Nous, @EvoMapAI, avons passé des mois et d'innombrables nuits blanches à construire Evolver », a écrit le fondateur de l'entreprise dans un message public sur X. « Une équipe bien dotée en ressources derrière Hermes Agent l'a "réinventé" en seulement 30 jours. »
EvoMap a publié un rapport technique détaillé montrant une corrélation étape par étape entre les deux systèmes. Le rapport identifie une boucle principale de 10 étapes dans le code Python de Hermes Agent qui reflète la logique d'Evolver, basé sur Node.js, d'EvoMap. Il souligne également 12 paires de concepts de base où la terminologie a été systématiquement remplacée, comme « Evolver » changé en « FunctionCalling » et « Gene » en « Skill », tandis que les relations architecturales sous-jacentes sont restées identiques.
La controverse met en lumière une préoccupation croissante dans la communauté des développeurs, connue sous le nom de « blanchiment de code IA » (AI code washing), où des outils d'IA sont utilisés pour réécrire le code afin d'en masquer l'origine, contournant ainsi les vérifications de plagiat traditionnelles. Pour les investisseurs qui injectent des milliards de dollars dans le secteur, cela introduit un risque de réputation et de propriété intellectuelle important, remettant en question l'originalité de projets qui gagnent rapidement en popularité. Si les innovations de base sont facilement copiées, les barrières à l'entrée (moats) des entreprises d'IA les plus célèbres pourraient être moins profondes qu'il n'y paraît.
La chronologie des événements est au cœur de l'accusation d'EvoMap. Le moteur Evolver de l'équipe a été rendu public sur GitHub le 1er février 2026. Trente-six jours plus tard, le 9 mars 2026, Nous Research a créé le dépôt pour le composant d'auto-évolution de son agent Hermes. EvoMap souligne que bien que Hermes Agent dispose de sept documents publics, incluant des articles de blog et des documents techniques, aucun d'entre eux ne mentionne ou ne crédite Evolver, un projet avec plus de 1 800 étoiles et 114 versions publiées. Il s'agit d'une omission notable dans la communauté open-source, où créditer les travaux connexes est une pratique standard.
La réponse officielle de Nous Research aux allégations détaillées a exacerbé la controverse. Dans une réponse désormais supprimée, l'entreprise a déclaré : « Notre dépôt a été créé en juillet 2025. Nous sommes des pionniers de la technologie fondamentale sous-jacente aux frameworks d'agents modernes, incluant YaRN. Supprimez votre compte. » Les critiques ont rapidement souligné que si le dépôt principal de Hermes Agent a été créé en 2025, il était privé jusqu'en février 2026, et que le module spécifique d'auto-évolution au cœur du litige n'a été créé qu'après la sortie publique d'Evolver. Le ton méprisant et agressif de la réponse, suivi de la suppression du message, a suscité une condamnation généralisée de la part de la communauté des développeurs.
L'incident entre EvoMap et Nous Research n'est pas un cas isolé. Il s'inscrit dans un modèle troublant qui menace les fondements du développement open-source. D'autres exemples récents incluent l'équipe Azure de Microsoft, dont il a été découvert qu'elle avait copié de larges sections de code d'un projet personnel appelé Spegel, et la startup de codage par IA Cursor, valorisée à plusieurs centaines de millions, surprise en train d'utiliser un modèle de la société chinoise Moonshot AI tout en affirmant qu'il s'agissait d'un système propriétaire. Ces événements suggèrent qu'à mesure que le développement de l'IA s'accélère, le risque de vol de propriété intellectuelle augmente également, créant un environnement difficile pour les petits créateurs indépendants. En réponse à l'incident, EvoMap a modifié la licence de son projet Evolver, passant de la licence permissive MIT à la licence plus restrictive GPL-3.0, une mesure qui oblige tout travail dérivé à être également en open-source.
Cette controverse sur le plagiat constitue un point de données critique pour les investisseurs dans le domaine de l'IA. Les valorisations élevées d'entreprises comme Nous Research (qui aurait été financée à hauteur de plus de 100 millions de dollars) et Cursor reposent sur leur technologie propriétaire et leur innovation. Des scandales comme celui-ci révèlent une vulnérabilité clé : l'écosystème open-source même qui permet des progrès rapides offre également des opportunités à des acteurs malveillants d'approprier des travaux sans crédit. Cela crée un climat de méfiance qui pourrait conduire à des licences plus restrictives, ralentissant potentiellement le rythme de l'innovation dont dépend l'ensemble de l'industrie.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.