Anthropic se enfrenta a una importante reacción negativa de los usuarios empresariales ante las afirmaciones de que su modelo insignia, Claude Opus 4.6, ha sido silenciosamente "debilitado" (nerfed) o se ha vuelto menos capaz, y un análisis muestra una reducción del 67% en la profundidad del razonamiento del modelo para tareas de codificación complejas. La controversia amenaza con erosionar la confianza en la startup de 380.000 millones de dólares, especialmente mientras compite con las ofertas empresariales de OpenAI y, según se informa, se dirige hacia una oferta pública inicial (IPO).
"Cuando el pensamiento se vuelve superficial, el modelo tiende a tomar la acción de menor costo", escribió Stella Laurenzo, directora senior de IA en AMD, en un análisis de GitHub ampliamente difundido. "Modificar sin leer, detenerse antes de terminar, eludir la responsabilidad de sus errores y elegir la solución más simple, no la más correcta".
El núcleo de las quejas de los usuarios, que se han extendido por GitHub, Reddit y X, es que Claude se ha vuelto menos confiable para los flujos de trabajo complejos y de múltiples pasos por los que fue elogiado inicialmente. Un análisis de Laurenzo de más de 6.800 sesiones de Claude Code encontró que desde finales de febrero hasta principios de marzo, las "lecturas por edición" del modelo —un indicador de cuánto contexto considera antes de escribir código— cayeron en picado de 6,6 a 2,0. En respuesta, el jefe de Claude Code de Anthropic, Boris Cherny, afirmó que la empresa no había degradado el modelo en secreto, sino que había cambiado el nivel de "esfuerzo" predeterminado a "medio" para equilibrar la inteligencia, la latencia y el costo para la mayoría de los usuarios.
Esta controversia resalta la naturaleza opaca de la "economía de tokens", donde los clientes pagan por una unidad de procesamiento de IA aparentemente estándar sin garantías sobre la calidad de la inteligencia entregada. Si bien los precios de los tokens han caído aproximadamente 300 veces en tres años, los presupuestos empresariales de IA se están volviendo más difíciles de controlar. Una encuesta de Mavvrik y Benchmarkit encontró que el 84% de las empresas informan que los costos de IA han erosionado los márgenes brutos más de lo esperado, y solo el 15% puede controlar la variación presupuestaria dentro del 10%. El problema se ve agravado por factores técnicos como el almacenamiento en caché; un análisis mostró que un cambio en el comportamiento de almacenamiento en caché de Claude Code podría aumentar los costos de entrada en 5,7 veces.
El problema de la "Reducción de Calidad"
El corazón de la revuelta de los usuarios es el sentimiento de que están pagando el mismo precio por un producto menos capaz, un fenómeno que algunos han denominado "reducción de calidad de la IA" (AI shrinkflation). El problema ganó fuerza después de una publicación viral en X del desarrollador Om Patel que resumía la disminución percibida como una caída del 67% en la capacidad, haciendo eco de los hallazgos del análisis de GitHub de Laurenzo.
Anthropic se ha defendido, atribuyendo los cambios percibidos a opciones de producto e interfaz, no a una degradación secreta. Cherny señaló que el 9 de febrero, Opus 4.6 habilitó el "pensamiento adaptativo" de forma predeterminada, y el 3 de marzo, el nivel de esfuerzo predeterminado se estableció en "medio". Si bien los usuarios de la terminal de Claude Code pueden configurar manualmente el esfuerzo en "alto", los usuarios Pro y Enterprise en otras plataformas no pueden. En respuesta a las críticas, Cherny dijo que la empresa probará configurar por defecto a los usuarios de Teams y Enterprise en "alto esfuerzo".
Una cuestión de confianza y cómputo
El debate ocurre mientras Anthropic experimenta una creciente demanda, lo que ha llevado a límites de uso más estrictos durante las horas pico y ha alimentado las especulaciones de que la empresa podría estar enfrentando una escasez de capacidad de cómputo. El jefe de ingresos de OpenAI, en un informe de un memorando interno, afirmó que Anthropic cometió un "error estratégico" al no asegurar suficiente capacidad de cómputo. Anthropic ha negado que degrade los modelos para gestionar la demanda.
La situación crea una brecha de confianza crítica para una empresa que se ha promocionado como más transparente y alineada con los intereses de los usuarios que sus rivales. Mientras Anthropic compite con ofertas como Codex de OpenAI y contempla una posible IPO, la percepción de que reduciría silenciosamente la calidad del modelo —incluso si es por razones de equilibrio de costos— podría dañar su prestigio ante los desarrolladores empresariales que han sido clave para su crecimiento. El desafío de la empresa ahora es reconciliar el precio fijo de un token con el valor variable de la "inteligencia" que contiene.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.