Une nouvelle révolte interne chez Google place l'entreprise à la croisée des chemins entre ses principes d'IA et les contrats lucratifs du Pentagone, faisant écho à un conflit qui a secoué l'entreprise il y a six ans.
Plus de 580 employés de Google, dont des dizaines d'ingénieurs et de chercheurs chevronnés de son laboratoire d'élite DeepMind, ont signé une lettre exigeant que le PDG Sundar Pichai refuse de répondre aux appels d'offres pour des projets d'IA militaire classifiés. La protestation conteste directement les liens de plus en plus étroits de Google avec le Pentagone et menace de marginaliser l'entreprise dans le cadre de l'offensive de plusieurs milliards de dollars de l'armée américaine pour déployer l'intelligence artificielle.
« Le seul moyen de garantir que Google ne soit pas associé à de tels préjudices est de rejeter toute charge de travail classifiée », indique la lettre des employés, selon une copie fournie à Bloomberg News. « Sinon, de telles utilisations pourraient se produire à notre insu ou sans que nous ayons le pouvoir de les arrêter. »
La lettre, qui, selon les organisateurs, comprend les signatures de plus de 20 directeurs et vice-présidents, intervient alors que Google et le Pentagone négocieraient un accord pour « tous les usages légaux » de ses modèles d'IA, y compris le puissant agent Gemini. Cette dissension interne crée un risque commercial important, cédant potentiellement du terrain à des rivaux comme Microsoft et OpenAI, qui ont déjà conclu des accords pour fournir des services d'IA dans des environnements classifiés.
L'enjeu est la position de Google sur le marché en croissance rapide de l'IA gouvernementale et militaire. La protestation met en lumière un conflit fondamental entre l'éthique des employés et une opportunité de revenus majeure, forçant la direction de Google à naviguer sur une voie qui pourrait soit aliéner ses meilleurs talents en IA, soit abandonner un partenariat gouvernemental critique à ses plus grands concurrents.
Les craintes des employés se concentrent sur une IA incontrôlable
Le cœur de l'inquiétude des employés réside dans les systèmes classifiés « isolés » (air-gapped), qui sont coupés de l'internet public. Une fois déployés sur un tel réseau, Google n'aurait aucun moyen technique de surveiller ou de contrôler la façon dont son IA est utilisée, un risque que les signataires jugent inacceptable.
« L'IA agentique est particulièrement préoccupante en raison du niveau d'indépendance qu'elle peut atteindre », a déclaré Sofia Liguori, ingénieure de recherche en IA chez Google DeepMind qui a signé la lettre. « C'est comme donner un outil très puissant tout en renonçant à tout contrôle sur son utilisation. » Les employés soutiennent que les larges promesses contractuelles de la direction sont insuffisantes pour empêcher que la technologie ne soit utilisée dans des applications telles que les armes autonomes ou la surveillance de masse.
Déjà-vu : les protestations contre le projet Maven refont surface
Ce conflit interne est un écho direct d'un soulèvement d'employés en 2018 concernant le « Projet Maven », un programme du Pentagone qui utilisait l'IA de Google pour analyser les images de surveillance de drones. Face à des démissions massives et à une protestation interne généralisée, Google s'était retiré du projet et avait publié un ensemble de principes d'IA incluant l'engagement de ne pas utiliser sa technologie pour des armes.
Cependant, l'entreprise a depuis reconstruit sa relation avec l'industrie de la défense et a supprimé l'année dernière le langage spécifique interdisant l'utilisation de son IA dans les armes. Les organisateurs de la nouvelle lettre ont déclaré sans détour : « Maven n'est pas fini », signalant que le personnel reste déterminé à lutter contre la « militarisation de la technologie d'IA de Google ».
Le partenariat avec le Pentagone place Google à un carrefour concurrentiel
La pression des employés arrive à un moment critique. Le Pentagone cherche activement de nouveaux partenaires en IA après un différend avec Anthropic, qui a résisté à l'assouplissement de ses garde-fous éthiques pour un usage militaire. Anthropic étant potentiellement désigné comme un « risque pour la chaîne d'approvisionnement », la porte est ouverte à Google pour décrocher un contrat important.
Google a déjà mis son chatbot Gemini et ses agents d'IA à la disposition des trois millions d'employés du Pentagone pour des travaux non classifiés. Les responsables de la défense ont publiquement déclaré leur intention d'étendre cela aux niveaux « classifié et top secret ». Cette protestation interne pourrait forcer la main de Google, l'obligeant à choisir entre apaiser ses experts ou saisir une opportunité stratégique pour devenir un fournisseur d'IA de base pour l'armée américaine, un rôle que ses concurrents poursuivent avec empressement.
Cet article est uniquement à titre informatif et ne constitue pas un conseil en investissement.