Anthropic abandona su promesa de seguridad clave para seguir siendo competitivo
Anthropic, la empresa de IA valorada en 380 mil millones de dólares, ha abandonado oficialmente el pilar central de su Política de Escalado Responsable. En una publicación de blog el martes, la compañía revocó su compromiso de 2023 de detener el desarrollo de la IA si no podía garantizar que sus medidas de seguridad fueran adecuadas. La medida es una desviación dramática de la identidad de "seguridad primero" que la diferenciaba de sus competidores. El director científico Jared Kaplan declaró que la compañía no podía asumir compromisos unilaterales de pausa "si los competidores están avanzando a toda velocidad", lo que indica un cambio estratégico hacia el impulso comercial por encima de la pureza ideológica.
Este giro se produce tras un período de éxito comercial significativo, con Anthropic informando que sus ingresos anualizados están creciendo a una tasa de 10 veces al año. La decisión la acerca a rivales como OpenAI, que también actualizó su misión en 2024 para restar importancia a la seguridad en su carta pública. Ambas compañías se estarían preparando para OPV, con la esperanza de capitalizar el intenso interés de los inversores. El cambio de política de Anthropic disuelve un principio fundamental establecido cuando el CEO Dario Amodei dejó OpenAI en 2020, citando preocupaciones de que su antigua compañía priorizaba la velocidad sobre la seguridad.
El Pentágono amenaza con acceso forzado a la tecnología con fecha límite el viernes
La reversión de la política de Anthropic coincide con una grave disputa con el Departamento de Defensa de EE. UU. En una tensa reunión el martes, el Secretario de Defensa Pete Hegseth dio al CEO Dario Amodei un ultimátum: conceder a los militares acceso ilimitado a su modelo de IA Claude antes del viernes o enfrentar duras sanciones. El Pentágono amenazó con invocar la Ley de Producción de Defensa, una ley de la era de la Guerra Fría, para obligar a la compañía a cumplir. También advirtió que podría declarar a Anthropic un "riesgo para la cadena de suministro", una medida que complicaría sus contratos en toda la industria.
El conflicto surge de la demanda del Pentágono de usar la IA para "todos los propósitos legales", lo que choca con las líneas rojas declaradas por Anthropic contra el uso de su tecnología para armas autónomas o vigilancia masiva. A pesar de las amenazas, el Pentágono reconoce su dependencia del modelo Claude, que se utiliza para su trabajo más sensible. Un funcionario de Defensa señaló: "La única razón por la que seguimos hablando con estas personas es que los necesitamos y los necesitamos ahora mismo." Esta dinámica coloca a Anthropic en una posición de negociación precaria pero poderosa a medida que se acerca la fecha límite.