La startup de IA, respaldada por miles de millones de Google y Amazon, está intensificando su presencia política a medida que las batallas regulatorias sobre la inteligencia artificial se agudizan en Washington.
Atrás
La startup de IA, respaldada por miles de millones de Google y Amazon, está intensificando su presencia política a medida que las batallas regulatorias sobre la inteligencia artificial se agudizan en Washington.

Anthropic va a lanzar un comité de acción política, AnthroPAC, para influir en la legislación de IA, un movimiento que profundiza su compromiso en Washington mientras lucha simultáneamente contra una orden del Pentágono que busca eliminar las salvaguardas éticas de su modelo de IA Claude.
"Nada en el estatuto vigente respalda la noción orwelliana de que una empresa estadounidense pueda ser calificada como adversario potencial y saboteador de los EE. UU. por expresar su desacuerdo con el gobierno", escribió la jueza de distrito estadounidense Rita Lin en un fallo que bloquea temporalmente la acción del Pentágono. La administración Trump está apelando esa decisión.
El nuevo comité se financiará mediante contribuciones voluntarias de los empleados, con un límite de 5.000 dólares anuales, y está registrado ante la Comisión Federal de Elecciones. El movimiento sigue a una donación de 20 millones de dólares de Anthropic a Public First Action, un grupo que aboga por la seguridad de la IA, y se produce mientras competidores como Google, Microsoft y Amazon gastaron colectivamente más de 2,3 millones de dólares a través de sus propios PAC en 2024.
Para Anthropic, que ha construido su marca sobre el desarrollo responsable de la IA, el gasto político directo se está convirtiendo en una función empresarial crítica. La formación de un PAC indica que influir en los resultados regulatorios es ahora tan importante como el desarrollo tecnológico, una estrategia que podría proporcionar una ventaja competitiva en un mercado donde las reglas aún se están escribiendo.
El movimiento de Anthropic es parte de una tendencia mayor en la que las principales firmas tecnológicas están escalando sus operaciones políticas para influir en el futuro de la regulación de la IA. Con la Unión Europea habiendo aprobado ya su exhaustiva Ley de IA, el foco se ha desplazado al fragmentado entorno político de los EE. UU. Se informa que la industria de la IA ya ha inyectado 185 millones de dólares en las elecciones de mitad de período, reconociendo que los resultados legislativos definirán la dinámica competitiva durante años.
OpenAI, un rival clave, ha estado expandiendo constantemente su presencia en Washington D.C., mientras que los gigantes tradicionales no son ajenos al gasto político. Google, que posee una participación significativa en Anthropic, gastó aproximadamente 12,4 millones de dólares en cabildeo solo en 2023, según datos de OpenSecrets. Al formar su propio PAC, Anthropic va más allá de depender de grupos comerciales y está haciendo una apuesta directa por la influencia política, un paso significativo para una empresa fundada hace solo tres años, en 2021.
La decisión de formar un PAC es inseparable del conflicto legal en curso de Anthropic con la administración Trump. La disputa comenzó después de que la empresa rechazara las demandas del Pentágono de eliminar las salvaguardas de su modelo de IA Claude que prohíben su uso en el desarrollo de armas totalmente autónomas o para la vigilancia doméstica masiva. En respuesta, el Departamento de Defensa designó a Anthropic como un "riesgo para la cadena de suministro", una medida que prohibiría a los contratistas del Pentágono utilizar su tecnología.
Si bien la orden judicial preliminar de la jueza Lin ha proporcionado un alivio temporal, la apelación de la administración ante el tribunal del Noveno Circuito asegura que el conflicto continuará. Esta lucha legal resalta la tensión central para las empresas de IA: equilibrar los compromisos éticos con las lucrativas oportunidades de los contratos gubernamentales y de defensa. El resultado podría sentar un precedente importante sobre cómo el ejército de los EE. UU. despliega la IA y el nivel de control que los desarrolladores retienen sobre sus creaciones. Para los inversores, el caso pone a prueba si una empresa fundada en principios de seguridad puede mantener su postura ética frente a la presión del gobierno.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.