L'obligation d'utiliser l'IA en entreprise crée une charge de travail fantôme pour les employés, certains passant des heures à corriger et à déboguer les résultats générés par l'IA.
Retour
L'obligation d'utiliser l'IA en entreprise crée une charge de travail fantôme pour les employés, certains passant des heures à corriger et à déboguer les résultats générés par l'IA.

(P1) Un mandat d'adoption de l'IA imposé d'en haut est en train de remodeler l'industrie technologique, forçant des milliers d'employés dans une nouvelle réalité où l'utilisation de l'IA n'est plus optionnelle et où son usage est lié à la performance, créant un changement structurel de la main-d'œuvre qui provoque une anxiété généralisée face à l'emploi.
(P2) « Nous vivons tous une expérience », a déclaré Ethan Mollick, professeur associé à la Wharton School de l'Université de Pennsylvanie, qui étudie l'IA. « Le battage médiatique maximal actuel, selon lequel l'IA remplace les gens, n'est pas vrai. Mais il n'est pas vrai non plus que l'IA ne menacera jamais les emplois. Cela va être compliqué. »
(P3) Dans certaines entreprises, la poussée est explicite, la direction fixant des objectifs de production pilotés par l'IA. Un développeur backend a fait état d'un objectif de département visant à ce que des agents d'IA gèrent 50 % des besoins de développement, avec un objectif d'automatisation totale d'ici 2026. Un autre ingénieur a noté que 80 % de ses pairs sont tenus d'utiliser un outil d'IA interne chaque semaine, l'utilisation étant suivie par l'entreprise. Cela survient alors que des entreprises comme Google attribuent à l'IA 50 % de leur nouveau code.
(P4) Alors que les dirigeants vantent les gains de productivité auprès de Wall Street (l'action de Block ayant bondi de 20 % après que son PDG a lié les licenciements à l'IA), la stratégie comporte un risque d'exécution important. Les mandats gèlent les embauches pour les rôles d'analyse de données et de programmation, et peuvent être utilisés comme un « blanchiment par l'IA » (AI-washing) pour justifier des coupes déjà prévues en raison d'un ralentissement du marché du travail, selon le capital-risqueur Marc Andreessen.
La poussée vers l'efficacité de l'IA crée une « charge de travail fantôme » importante et non mesurée pour les employés. Les travailleurs déclarent passer des heures à surveiller la technologie, à corriger les résultats erronés et à gérer un nouveau type de fatigue cognitive. Un employé des opérations dans une grande entreprise technologique chinoise a raconté avoir débogué manuellement un simple tableau de bord de données plus de 80 fois après que l'outil d'IA interne de l'entreprise n'ait pas réussi à produire un résultat correct.
Cette expérience trouve un écho dans toute l'industrie. Une recruteuse à Austin, au Texas, a constaté que si l'IA pouvait générer rapidement des listes de candidats, elle passait près de la moitié du temps économisé à corriger et à vérifier les résultats, qui associaient souvent mal les candidats aux descriptions de poste. Ce besoin constant de supervision humaine mène à un phénomène appelé « surchauffe cérébrale due à l'IA » (AI brain fry), une forme de fatigue mentale qui augmente la probabilité d'erreurs, selon une étude du Boston Consulting Group. « Ils pensent que l'IA est efficace, mais elle l'est parce qu'il y a une personne qui l'opère », a déclaré la recruteuse Linda Le.
À mesure que les entreprises passent de l'encouragement à l'imposition de l'IA, le travail des employés est systématiquement déconstruit et injecté dans des modèles d'IA. Chez un géant technologique basé à Pékin, un développeur senior a décrit une nouvelle initiative obligatoire où les employés doivent documenter leurs processus de travail et leur expertise sous forme de « Compétences » (Skills) pour qu'un agent d'IA puisse les reproduire. L'objectif du département est d'automatiser à terme tout le développement, créant une anxiété palpable au sein du personnel. « Mettre toutes vos compétences et votre expérience dans un processus standardisé signifie que le jour où vous serez remplacé par l'IA n'est pas loin », a déclaré le développeur, Kelly.
Ce changement est piloté par une stratégie descendante agressive. Un DSI australien, Ming Lu, a déclaré qu'après l'échec des premiers encouragements, son entreprise a imposé à chaque manager de soumettre trois initiatives d'IA par trimestre, l'utilisation des jetons (tokens) étant désormais surveillée. Bien que l'entreprise n'ait pas encore eu recours aux licenciements, elle a gelé les embauches pour les postes d'analyse de données et de programmation et exige une augmentation de l'efficacité de 3 à 5 fois de la part de chaque employé. Le message est clair : s'adapter ou devenir obsolète dans une main-d'œuvre qui est rapidement repensée autour des agents d'IA.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.