Costos de inferencia se cuadruplican a 8.400 millones de dólares, descarrilando objetivos de ganancias
Los modelos de rentabilidad de las principales empresas de inteligencia artificial están bajo una severa presión a medida que el costo de ejecutar sus servicios aumenta. Tanto OpenAI como Anthropic no alcanzaron sus objetivos internos de margen bruto debido a costos de inferencia más altos de lo esperado, el gasto de usar servidores en la nube para generar respuestas a los usuarios. El año pasado, el margen bruto de OpenAI cayó del 40% al 33%, significativamente por debajo de su pronóstico del 46%. Anthropic también enfrenta desafíos, con su margen bruto proyectado del 40% para 2025 ahora 10 puntos porcentuales por debajo de su objetivo anterior.
Los excesos de costos son marcados. Los costos de inferencia de OpenAI se cuadruplicaron el año pasado a 8.400 millones de dólares, superando su proyección de 6.600 millones de dólares. La compañía atribuyó el aumento a una demanda de servicio mayor de lo anticipado, lo que la obligó a comprar una capacidad de servidor bajo demanda más costosa. De manera similar, se proyecta que los costos de inferencia de Anthropic se tripliquen con creces a 2.700 millones de dólares en 2025. Esta inflación de costos es particularmente notable ya que ocurre mientras los precios generales de la computación en la nube están disminuyendo y ambas empresas afirman estar mejorando la eficiencia de los modelos.
Usuarios gratuitos y herramienta de video Sora tensan las finanzas
La presión financiera de OpenAI se ve muy agravada por su masiva base de usuarios no pagadores. De sus aproximadamente 910 millones de usuarios activos semanales, solo alrededor del 5% son clientes de pago. El año pasado, estos usuarios gratuitos representaron 3.900 millones de dólares en costos de inferencia, casi la mitad del total de la compañía. Esta dinámica obliga a los suscriptores de pago y a los clientes empresariales a subsidiar la gran mayoría del uso de la plataforma.
La combinación de productos también es un importante factor de costo. Herramientas computacionalmente intensivas como Sora, el modelo de generación de video de OpenAI, consumen muchos más recursos de servidor que las simples consultas de texto. La compañía también absorbió costos significativos al ofrecer acceso sin restricciones a funciones potentes, como la capacidad del popular modelo GPT-4o para crear imágenes estilizadas, lo que impulsó temporalmente un aumento masivo en el consumo de recursos informáticos.
La rentabilidad de los usuarios de pago mejora al 70%
A pesar de la compresión general del margen, OpenAI ha demostrado mejoras significativas en la eficiencia con su segmento de clientes de pago. El margen de la compañía sobre los ingresos de los usuarios de pago, después de deducir los costos de ejecución del modelo, mejoró a aproximadamente el 70% en octubre del año pasado. Esto marca un aumento sustancial desde solo el 52% a finales del año anterior y el 35% en enero de 2024, lo que sugiere que el modelo de negocio principal es viable si se puede expandir la monetización.
Para abordar este desequilibrio, OpenAI está buscando nuevas fuentes de ingresos, incluida la publicidad y niveles de suscripción ampliados. En enero, la compañía lanzó una suscripción a ChatGPT con publicidad por aproximadamente 5 a 8 dólares al mes. De cara al futuro, OpenAI proyecta alcanzar un margen bruto del 67% para 2030, momento en el que espera que el 94% de sus entonces 850.000 millones de dólares en costos de inferencia se dediquen a atender a clientes de pago. Alcanzar este objetivo a largo plazo mientras se gestionan los gastos desbocados a corto plazo sigue siendo el desafío central para el líder de la IA.