Une nouvelle étude révèle que les modèles d'IA prédisant les suppressions d'emplois ne parviennent pas à s'accorder sur les professions concernées, divergeant dans 25 % des cas.
Retour
Une nouvelle étude révèle que les modèles d'IA prédisant les suppressions d'emplois ne parviennent pas à s'accorder sur les professions concernées, divergeant dans 25 % des cas.

Une nouvelle étude révèle que les modèles d'IA prédisant les suppressions d'emplois ne parviennent pas à s'accorder sur les professions concernées, divergeant dans 25 % des cas.
Une nouvelle étude a révélé que les principaux modèles d'intelligence artificielle au monde produisent des prédictions variées et souvent contradictoires sur les emplois les plus exposés à l'automatisation, soulevant des questions sur la fiabilité des prévisions économiques pilotées par l'IA. Le document de travail, publié par le Bureau national de la recherche économique (NBER), souligne l'incertitude dans un domaine devenu une préoccupation pressante pour les décideurs politiques et les travailleurs, montrant un désaccord entre les trois principaux modèles sur le risque professionnel.
« Personnellement, je ne me fierais pas à une seule mesure pour dire : "Oh, je devrais changer de métier", ou "Je devrais changer la spécialisation de mon enfant" », a déclaré Michelle Yin de l'Université Northwestern, l'une des auteures de l'étude. La recherche suggère que si l'IA est utilisée pour prédire son propre impact, les résultats sont loin d'être cohérents, ce qui incite à la prudence quant à l'acceptation de ces prévisions au pied de la lettre.
L'étude, co-écrite par Yin, Hoa Vu de l'Université Northwestern et Claudia Persico de l'American University, a examiné les classements d'exposition des emplois de trois grands modèles d'IA : ChatGPT-5 d'OpenAI, Gemini 2.5 de Google Deepmind et Claude 4.5 d'Anthropic. Par exemple, Claude a jugé les comptables comme étant très vulnérables à l'IA, tandis que Gemini leur a attribué un risque beaucoup plus faible. Les modèles divergent également sur la vulnérabilité de rôles tels que les directeurs de publicité et les directeurs généraux.
Ces conclusions représentent un défi pour les investisseurs et les entreprises qui s'appuient sur les « scores d'exposition » générés par l'IA pour la planification stratégique de la main-d'œuvre. Avec des modèles comme ChatGPT et Gemini en désaccord environ un quart du temps, l'étude suggère que la génération actuelle d'IA reflète peut-être des biais d'adoption existants plutôt que de fournir une vision lucide des perturbations futures.
Le cœur de la recherche consistait à soumettre aux modèles d'IA des tâches issues de la base de données du ministère du Travail pour voir lesquelles ils pouvaient accomplir. Les économistes ont constaté que le niveau d'accord entre les modèles était étonnamment bas. Bien que ChatGPT et Gemini soient les plus alignés, ils proposent toujours des évaluations différentes sur une part importante des professions.
Cette divergence est critique car ces scores d'exposition sont de plus en plus utilisés dans les livres blancs de consultants, les notes de recherche et les rapports politiques pour guider les décisions en matière de formation et de soutien de la main-d'œuvre. L'étude postule que certaines de ces différences peuvent provenir des données d'entraînement des modèles ; les premiers adoptants dans des domaines comme l'analyse financière génèrent plus de données liées à l'IA, ce qui pourrait amener les modèles à classer ces professions comme plus exposées.
Le manque de fiabilité de ces scores générés par l'IA a des implications significatives. Les décideurs politiques tentant de concevoir des systèmes de soutien pour les travailleurs déplacés et les institutions éducatives conseillant les étudiants sur des carrières « à l'épreuve de l'IA » pourraient opérer avec des données erronées. Les économistes suggèrent qu'au lieu de s'appuyer sur un seul modèle d'IA, les chercheurs devraient examiner une variété de modèles et être plus transparents sur l'incertitude des prédictions.
Pour les investisseurs, l'étude sert de mise en garde contre les paris sectoriels basés sur des récits simplistes de prise de contrôle par l'IA. Le manque de consensus parmi les modèles d'IA suggère que l'impact réel sur les marchés du travail sera plus nuancé et plus difficile à prédire que ne le suggèrent de nombreux rapports. L'exposition réelle de tout emploi dépend moins des capacités théoriques d'un modèle que de la manière dont l'IA est réellement mise en œuvre dans l'économie, un processus qui nécessite des enquêtes plus robustes et une analyse impliquant l'intervention humaine (human-in-the-loop).
Cet article est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement.