En una expansión significativa de la supervisión gubernamental, tres de los desarrolladores de IA más grandes del mundo han acordado revisiones de seguridad previas al lanzamiento de sus modelos más avanzados.
Atrás
En una expansión significativa de la supervisión gubernamental, tres de los desarrolladores de IA más grandes del mundo han acordado revisiones de seguridad previas al lanzamiento de sus modelos más avanzados.

En un movimiento que aumenta sustancialmente la supervisión del gobierno sobre la inteligencia artificial, Google de Alphabet, Microsoft Corp. y xAI han acordado proporcionar sus modelos de IA avanzados para una evaluación de seguridad antes de su lanzamiento público. El acuerdo integra a los tres gigantes tecnológicos en una asociación con el Centro para Estándares e Innovación de IA (CAISI, por sus siglas en inglés) del Departamento de Comercio de EE. UU., que ya cuenta con acuerdos similares con OpenAI y Anthropic PBC.
"La ciencia de medición independiente y rigurosa es esencial para comprender la IA de frontera y sus implicaciones para la seguridad nacional", afirmó Chris Fall, director del CAISI, en un comunicado. "Estas colaboraciones industriales ampliadas nos ayudan a escalar nuestro trabajo en el interés público en un momento crítico".
La agencia señaló que los acuerdos con OpenAI y Anthropic también han sido renegociados para alinearse con el Plan de Acción de IA del presidente Donald Trump. Desde 2024, el centro ha completado más de 40 evaluaciones de modelos de IA, incluidos algunos que aún no han sido lanzados al público. La expansión para incluir a Google, Microsoft y la xAI de Elon Musk responde a las crecientes preocupaciones de la administración sobre las capacidades de nuevos sistemas como el modelo Mythos de Anthropic.
Este mayor acceso gubernamental es una consecuencia directa de las cuestiones de seguridad nacional planteadas por una IA cada vez más potente. El propio análisis de Anthropic sobre su modelo Mythos, que supuestamente encontró miles de vulnerabilidades en software e infraestructura críticos, ha acelerado los esfuerzos políticos dentro de la administración Trump. La Casa Blanca ya se ha opuesto a los planes de Anthropic de ampliar el acceso a Mythos, y el Departamento de Defensa mantiene una disputa legal con la empresa sobre su estatus como riesgo para la cadena de suministro.
Los acuerdos otorgan más autoridad al CAISI, un organismo establecido como el Instituto de Seguridad de IA bajo la administración Biden en 2023 y restablecido por la administración Trump el año pasado. Aunque su existencia aún no está codificada por ley, el Plan de Acción de IA de Trump ordena al centro liderar las evaluaciones de modelos relacionadas con la seguridad nacional. Esto podría allanar el camino para una nueva aplicación de las leyes existentes a medida que los reguladores exploran cómo aplicarlas a los sistemas de IA.
La estrategia de la administración parece ser doble. Por un lado, hay un claro impulso hacia mayores revisiones de seguridad, impulsado por el potencial de mal uso de una IA potente. Por otro lado, la administración Trump también ha declarado el objetivo de eliminar algunas salvaguardas de seguridad de la IA para acelerar el despliegue de nuevos modelos y garantizar que EE. UU. mantenga una ventaja competitiva sobre China. Esto crea un delicado equilibrio entre la mitigación del riesgo y el fomento de una innovación rápida. Los nuevos acuerdos de evaluación, junto con una posible orden ejecutiva futura, representan el intento de la administración de navegar ese desafío mediante la creación de un proceso formal de revisión gubernamental.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.