Más de 1.000 empleados de la división de élite DeepMind AI de Google en el Reino Unido han votado a favor de sindicarse, lo que supone un desafío directo a los contratos militares multimillonarios de la empresa y una escalada significativa en el activismo de los trabajadores tecnológicos. La medida, pionera en un laboratorio de IA de vanguardia, amenaza con crear fricciones operativas en la unidad de investigación más crítica de Alphabet (GOOGL).
"Me he unido al sindicato por la preocupación de que la IA se utilice para potenciar el autoritarismo, ya sea a través de aplicaciones militares o de vigilancia", declaró un trabajador anónimo de DeepMind a The Guardian, citando el miedo a las represalias. El esfuerzo de sindicalización cuenta con el apoyo de Communication Workers Union y Unite the Union, a quienes se les ha dado 10 días laborables para ser reconocidos voluntariamente antes de que se inicien acciones legales.
El impulso sindical se centra en dos acuerdos militares clave: un nuevo acuerdo con el Pentágono para proporcionar herramientas de IA para operaciones clasificadas y un polémico contrato de 1.200 millones de dólares de 2021, conocido como Proyecto Nimbus, para suministrar servicios de nube e IA al gobierno israelí y a su ejército. La votación se produce tras años de creciente disidencia interna, incluido el despido de 50 empleados de Google en 2024 tras las protestas por el acuerdo Nimbus y una carta de más de 600 empleados instando al CEO Sundar Pichai a no firmar el acuerdo con el Pentágono.
Este acontecimiento coloca a la dirección de Google en una posición difícil, enfrentando sus lucrativos ingresos relacionados con la defensa a las demandas de los investigadores que crean sus productos de IA principales, como Gemini. Los empleados están considerando "huelgas de investigación", en las que se abstendrían de realizar trabajos que mejoren significativamente los productos principales, una táctica que podría obstaculizar directamente la ventaja competitiva de Google en la carrera de la IA frente a rivales como OpenAI y Anthropic.
Las demandas de los empleados van más allá de la cancelación de contratos. Piden el compromiso de que Google no desarrollará tecnología destinada principalmente a causar daño, la creación de un organismo independiente de supervisión ética y el derecho de los trabajadores individuales a rechazar proyectos por motivos morales. Esto recuerda a la reacción de los empleados en 2018 contra el Proyecto Maven, un proyecto de análisis de imágenes de drones del Pentágono, que llevó a Google a no renovar el contrato y a publicar un conjunto de principios de IA de los que desde entonces se ha retractado parcialmente.
Kent Walker, presidente de asuntos globales de Alphabet, defendió el trabajo de la empresa con el Departamento de Defensa de EE. UU., afirmando que Google ha trabajado "con orgullo" con los departamentos de defensa desde sus inicios y cree que "es importante apoyar la seguridad nacional de forma reflexiva y responsable". Walker señaló que existe un consenso entre los laboratorios de IA en que las herramientas actuales no son apropiadas para las armas autónomas sin supervisión humana, pero se informa de que el acuerdo con el Pentágono contiene un lenguaje no vinculante sobre este punto.
El conflicto interno también ha atraído la atención de los inversores. Una coalición de accionistas con unos 2.200 millones de dólares en acciones de Alphabet escribió a la empresa la semana pasada exigiendo una mayor transparencia sobre sus despliegues de IA en contextos de alto riesgo, citando la preocupación por el Proyecto Nimbus y la posibilidad de daños reputacionales y financieros. La sindicalización de un laboratorio de IA clave añade una nueva capa de riesgo ESG para los inversores, ya que un conflicto interno sostenido podría retrasar el desarrollo de productos y socavar la posición de Google como líder en inteligencia artificial.
Este artículo tiene fines informativos únicamente y no constituye asesoramiento de inversión.