Un segundo grupo en dos meses afirma haber eludido la seguridad del modelo de IA de alto riesgo de Anthropic, lo que plantea dudas sobre la capacidad de la empresa para proteger sus herramientas más potentes.
Atrás
Un segundo grupo en dos meses afirma haber eludido la seguridad del modelo de IA de alto riesgo de Anthropic, lo que plantea dudas sobre la capacidad de la empresa para proteger sus herramientas más potentes.

El grupo de hackers ShinyHunters afirma haber vulnerado los sistemas internos de Anthropic, líder en seguridad de IA, accediendo supuestamente a datos relacionados con su modelo Claude Mythos aún no lanzado. Esta afirmación no confirmada se produce tras una brecha independiente en julio, en la que un grupo de Discord obtuvo acceso al mismo modelo de alto riesgo.
Anthropic aún no ha confirmado públicamente la afirmación de ShinyHunters. La empresa declaró anteriormente que estaba "al tanto de la afirmación y estaba investigando" el incidente de julio, según un informe de Bloomberg.
ShinyHunters supuestamente compartió capturas de pantalla de paneles de gestión de usuarios y experimentos internos de IA. Esto sigue a la brecha de julio, donde los usuarios adivinaron la ubicación en línea del modelo y utilizaron el acceso privilegiado de un contratista. Anthropic ha descrito a Claude Mythos como capaz de "identificar y luego explotar vulnerabilidades de día cero en todos los principales sistemas operativos".
Los repetidos fallos de seguridad, si se verifica la nueva afirmación, podrían dañar seriamente la reputación de Anthropic como laboratorio de IA centrado en la seguridad y erosionar la confianza entre sus clientes corporativos y socios como Google. Los incidentes plantean preguntas críticas sobre los protocolos de seguridad en toda la industria de la IA mientras las empresas compiten por desarrollar modelos cada vez más potentes.
La afirmación de ShinyHunters marca la segunda vez en las últimas semanas que usuarios no autorizados supuestamente han obtenido acceso a lo que Anthropic llama una IA "potencialmente peligrosa". A principios de julio, un grupo de usuarios en la plataforma social Discord accedió a Mythos no a través de un ataque sofisticado, sino adivinando su ubicación en línea basándose en las convenciones de nomenclatura de la empresa.
Esa brecha anterior fue facilitada por un miembro del grupo que tenía acceso privilegiado como contratista de Anthropic. Aunque los usuarios dijeron a Bloomberg que estaban usando el modelo para tareas inofensivas, el incidente expuso debilidades de seguridad significativas. Para una empresa cuya marca se basa en la seguridad y el desarrollo responsable de la IA, dos supuestas brechas de su modelo más potente en rápida sucesión es una preocupación seria para los inversores y clientes.
Anthropic ha mantenido a Claude Mythos bajo estricta reserva, otorgando acceso solo a un grupo selecto de socios a través de una iniciativa llamada Project Glasswing. La propia descripción de la empresa sobre las capacidades del modelo —que puede encontrar y utilizar vulnerabilidades de software novedosas— lo sitúa en una categoría de riesgo única. Mientras que rivales como OpenAI y Google también están desarrollando modelos potentes, el énfasis público de Anthropic ha sido sistemáticamente contener los peligros potenciales de la IA avanzada.
Las supuestas brechas sugieren que la propia seguridad operativa de la empresa podría no estar a la altura de sus elevados principios de seguridad. Si un grupo como ShinyHunters puede acceder a los paneles internos, se plantea la posibilidad de robo del modelo o la exposición de datos confidenciales de los socios de Anthropic. Los incidentes proporcionan un recordatorio contundente de que, a medida que los modelos de IA se vuelven más potentes, las empresas que los construyen se convierten en objetivos más valiosos.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.