(P1) La carrera por construir una inteligencia artificial más potente está creando un aprieto financiero previo a la OPI para líderes como OpenAI y Anthropic, con costos de computación anuales que ahora se estima superarán los 1.000 millones de dólares y ensombrecen su camino hacia los mercados públicos.
(P2) "El mayor gasto individual para estas empresas es la computación", dijo un inversor de capital de riesgo con posiciones en el sector de la IA. "Es una carrera armamentista de gastos de capital, y los inversores públicos exigirán un camino claro hacia la rentabilidad que simplemente podría no existir durante otros tres a cinco años".
(P3) Los informes indican que entrenar un solo modelo de lenguaje grande de próxima generación puede costar más de 200 millones de dólares, un aumento de 4 veces respecto a hace solo dos años. Las últimas presentaciones de Anthropic muestran una tasa de consumo de efectivo que se acerca a los 80 millones de dólares por mes, con más del 60% asignado a servicios de computación en la nube de Amazon Web Services y Google Cloud. Este gasto se destina principalmente al acceso a decenas de miles de GPU de alta gama, como la H100 de Nvidia, que son esenciales para el entrenamiento y la inferencia de modelos.
(P4) El inmenso consumo de capital amenaza con moderar el entusiasmo de los inversores por lo que se espera que sean dos de las mayores OPI tecnológicas desde 2021. Si bien los ingresos de OpenAI están creciendo, sus costos operativos crecen más rápido, una dinámica que podría llevar a una ronda de financiación a la baja (down-round) o una valoración inferior a la esperada en el mercado público. Para los inversores, la pregunta clave es si los ingresos por suscripción y API pueden superar el costo colosal, y aún en aumento, de la potencia de computación subyacente.
El cuello de botella de las GPU
En el centro de la tensión financiera se encuentra la dependencia global de un puñado de diseñadores de chips, principalmente Nvidia. Las GPU H100 y las próximas B200 de la compañía se han convertido en el estándar de facto para el entrenamiento de IA, lo que le da a Nvidia un poder de fijación de precios significativo. Un análisis reciente de una firma de investigación de semiconductores estima que la lista de materiales para una sola GPU H100 es de alrededor de 3.000 dólares, mientras que se vende por hasta 30.000 dólares. Este margen de 10 veces es un impuesto directo sobre la rentabilidad de los proveedores de modelos de IA. Tanto OpenAI como Anthropic están explorando diseños de chips personalizados para reducir esta dependencia, pero tales proyectos son esfuerzos a largo plazo con resultados inciertos, que requieren miles de millones en I+D y al menos tres años para alcanzar la escala de producción.
Camino hacia la rentabilidad
El desafío central para estos líderes de la IA es un modelo de negocio donde los costos escalan directamente con el uso. Cada consulta o tarea realizada por sus modelos incurre en un costo de inferencia, un cargo pequeño pero significativo por la potencia de computación utilizada. A medida que estos modelos se vuelven más capaces e integrados en más aplicaciones, el costo total podría dispararse, manteniendo potencialmente la rentabilidad perpetuamente fuera de su alcance. Microsoft, un inversor importante en OpenAI, ayuda a absorber algunos de estos costos a través de su plataforma en la nube Azure, pero Anthropic y otros carecen de un socio con bolsillos tan profundos, lo que hace que su posición financiera sea más precaria antes de una cotización pública. El mercado ahora está observando si estas empresas pueden optimizar sus modelos para lograr eficiencia, asegurar términos más favorables de los proveedores de la nube o demostrar un modelo de ingresos que finalmente pueda superar sus masivos gastos operativos.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.