Si bien la IA promete convertir a todos en programadores, la explosión de código generado por máquinas está creando una crisis oculta de calidad, seguridad y productividad que está ralentizando a los desarrolladores.
Atrás
Si bien la IA promete convertir a todos en programadores, la explosión de código generado por máquinas está creando una crisis oculta de calidad, seguridad y productividad que está ralentizando a los desarrolladores.

Si bien la IA promete convertir a todos en programadores, la explosión de código generado por máquinas está creando una crisis oculta de calidad, seguridad y productividad que está ralentizando a los desarrolladores.
La adopción generalizada de asistentes de codificación de IA ha creado una paradoja para la industria del software: mientras que la producción mensual de código puede aumentar hasta 10 veces, un nuevo estudio muestra que los desarrolladores que usan estas herramientas pueden tardar un 19 % más en completar las tareas. Esta "ilusión de eficiencia" está creando acumulaciones masivas de código sin revisar, introduciendo riesgos de seguridad significativos y abrumando a las comunidades de código abierto que sustentan la economía digital.
"La fábrica de desarrollo de software se ha roto de alguna manera", dijo Tido Carriero, jefe de ingeniería, producto y diseño en el editor de código de IA Cursor. "Estamos tratando de recomponer estas piezas".
El aumento en el volumen es marcado. Una empresa de servicios financieros vio cómo su producción mensual de código saltaba de 25.000 líneas a 250.000 tras introducir una herramienta de IA, lo que resultó en una acumulación de un millón de líneas de código a la espera de revisión. Este no es un caso aislado; una encuesta de Google mostró que el 90 % de los desarrolladores ahora usan asistencia de IA. El problema es que la capacidad humana para revisar esta inundación de nuevo código no ha seguido el ritmo, creando lo que un ejecutivo llama una "maldición".
El problema central es un desequilibrio masivo entre la generación de código y la verificación del mismo. Con las herramientas de IA de firmas como Anthropic y OpenAI convirtiéndose en "máquinas de generación de código totalmente automatizadas", el volumen puro es inmanejable. "Simplemente no pueden seguir el ritmo del volumen de código que se envía y las vulnerabilidades que conlleva", dijo Joni Klippert, CEO de la startup de seguridad StackHawk.
Este sentimiento fue compartido en un memorando interno en Meta, donde el CTO Andrew Bosworth señaló que proyectos que antes requerían cientos de ingenieros ahora pueden ser realizados por docenas, y el trabajo que tomaba meses se termina en días. Aunque se plantea como algo positivo, esta aceleración está tensando las funciones de control de calidad y auditoría de seguridad de las organizaciones.
La presión para enviar código más rápido está provocando un aumento de las vulnerabilidades. Un escaneo de 1.645 aplicaciones web creadas con una plataforma de codificación de IA encontró que más del 10 % tenía fallos de seguridad graves, lo que permitía el acceso a bases de datos de usuarios, información financiera y claves API sin credenciales de inicio de sesión. En otro caso, un ingeniero extrajo montos de deuda personal y direcciones de casas de múltiples aplicaciones creadas por IA en solo 47 minutos.
Este aluvión de producción de baja calidad está afectando especialmente a los proyectos de código abierto. Daniel Stenberg, fundador del ampliamente utilizado proyecto cURL, cerró su programa de recompensas por errores tras verse inundado de informes falsos generados por IA, lo que calificó como un "ataque DDoS al código abierto". Del mismo modo, tldraw, una startup de pizarras digitales, cerró su canal de contribución externa tras ser inundada con actualizaciones de "basura" de lo que su fundador sospechaba que eran bots de IA, citando un "riesgo muy alto para la base de código".
Quizás el hallazgo más sorprendente proviene de un ensayo controlado aleatorio realizado por METR, una institución de evaluación de modelos. El estudio de 2025 encontró que 16 desarrolladores senior de código abierto tardaron un 19 % más en completar tareas del mundo real cuando usaban herramientas de IA.
Crucialmente, los propios desarrolladores percibieron lo contrario. Antes del experimento, predijeron que la IA los haría un 24 % más rápidos, y después del experimento, todavía creían que habían sido un 20 % más rápidos. Esta disonancia cognitiva resalta la "ilusión de eficiencia" en el corazón de la crisis. Mientras los desarrolladores se sienten más productivos, el tiempo dedicado a depurar y verificar las sugerencias de IA de baja calidad resulta en una pérdida neta de tiempo. Esto se ve respaldado además por una encuesta de Stack Overflow de 2025, donde la confianza de los desarrolladores en la precisión de la IA cayó del 40 % al 29 % interanual.
El problema se ha vuelto tan estructural que el gigante de alojamiento de código GitHub introdujo recientemente funciones que permiten a los proyectos bloquear por completo las contribuciones externas. Como resumió un ingeniero de IA, la facilidad de generar código e informes de errores con IA fomenta la falta de respeto por el tiempo de los mantenedores y revisores, lo que lleva a lo que la analista de RedMonk, Kate Holterhoff, llama un "AI Slopageddon" (Apocalipsis de basura de IA).
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.