OpenAI cambia de rumbo el 2 de marzo y enmienda el contrato de IA del Pentágono
OpenAI está revisando urgentemente su nuevo contrato de IA con el Pentágono de EE. UU., firmado el 27 de febrero, para prohibir explícitamente que sus modelos se utilicen para la vigilancia doméstica de ciudadanos estadounidenses. La enmienda, anunciada el 2 de marzo, se produce tras una intensa reacción negativa del público y de sus propios empleados después de que la compañía llegara a un acuerdo para que sus modelos fueran utilizados en operaciones militares clasificadas.
El CEO Sam Altman admitió públicamente que la compañía se movió demasiado rápido, afirmando que el lanzamiento del acuerdo fue "apresurado" y parecía "oportunista y precipitado". Los términos revisados también excluirán temporalmente a las agencias de inteligencia como la Agencia de Seguridad Nacional de usar la tecnología. Este rápido cambio resalta los importantes riesgos operativos y de reputación que enfrentan las empresas de IA al navegar por las asociaciones militares.
Anthropic pierde contratos federales tras el fracaso de las negociaciones con el Pentágono
El acuerdo de OpenAI se finalizó solo horas después de que su principal rival, Anthropic, viera colapsar sus propias negociaciones con el Pentágono. El CEO de Anthropic, Dario Amodei, se negó a eliminar dos "líneas rojas" éticas de un posible acuerdo: una prohibición del uso de su IA para la vigilancia masiva doméstica y para armas autónomas letales. El Pentágono, bajo el secretario de Defensa Pete Hegseth, había presionado para que el modelo estuviera disponible para "todos los propósitos legales".
La ruptura desencadenó una rápida represalia gubernamental. El lunes 2 de marzo, la administración Trump designó a Anthropic como un "riesgo para la cadena de suministro" y ordenó la rescisión de sus contratos existentes con el Departamento del Tesoro, la Agencia Federal de Financiamiento de la Vivienda y los gigantes hipotecarios Fannie Mae y Freddie Mac. Esta acción señala un nuevo nivel de riesgo político para las empresas de IA que desafían las demandas del gobierno.
Claude supera a ChatGPT en la App Store a medida que aumenta la reacción
La controversia impactó inmediatamente la dinámica del mercado y el sentimiento del usuario. A raíz del acuerdo de OpenAI con el Pentágono, una campaña de boicot liderada por los usuarios ganó fuerza, impulsando al chatbot "Claude" de Anthropic más allá del ChatGPT de OpenAI para convertirse en la aplicación gratuita más descargada en la App Store de Apple.
La reacción del mercado subraya un desafío creciente para los inversores en el sector de la IA: equilibrar los lucrativos contratos gubernamentales con riesgos éticos y de reputación significativos. Las acciones punitivas del gobierno de EE. UU. contra Anthropic crean un entorno volátil, obligando a las empresas a sopesar sus principios éticos frente a la posible pérdida de importantes flujos de ingresos federales.