Síguenos en Google News
Anthropic Claude Mythos Fallas en seguridad
Anthropic Claude Mythos Fallas en seguridad | Creado con IA

Acceso no autorizado a Claude Mythos abre dudas sobre la seguridad de los modelos de IA para ciberseguridad

Medios internacionales detallaron que un pequeño grupo de personas no autorizadas habría accedido a Claude Mythos Preview, un modelo de Anthropic orientado a la detección de vulnerabilidades en software. Anthropic indicó que investiga la denuncia y que, por ahora, no tiene indicios de acceso al modelo fuera de los sistemas del proveedor externo involucrado.

El caso es relevante porque Mythos no forma parte del acceso público de Anthropic. Su despliegue está reservado para organizaciones seleccionadas, dentro de un esquema cerrado que busca detectar fallos antes de que sean explotados por terceros.

¿Qué es Claude Mythos y por qué Anthropic restringe su acceso?

Claude Mythos Preview fue desarrollado para identificar fallos de seguridad que pueden permanecer ocultos durante largos periodos. Según Anthropic, el sistema ha detectado vulnerabilidades que no habían sido localizadas mediante revisiones humanas ni pruebas automatizadas previas.

“Las vulnerabilidades que ha detectado han logrado, en algunos casos, eludir décadas de revisiones humanas y millones de pruebas de seguridad automatizadas”.

El acceso al modelo está limitado a empresas y organizaciones seleccionadas, entre ellas Amazon, Apple, Google, Microsoft, Nvidia, CrowdStrike, JPMorgan Chase, Cisco, Broadcom, Palo Alto Networks y Linux Foundation. El objetivo es permitir que estas entidades revisen sus propios sistemas antes de que eventuales fallos sean utilizados con fines maliciosos.

Socios estratégicos fundadores de la iniciativa de seguridad conjunta.
Socios estratégicos fundadores de la iniciativa de seguridad conjunta. | Créditos: Anthropic

DW cita el caso de Firefox, cuyos desarrolladores informaron la corrección de 271 fallos de seguridad mediante el uso de Mythos. El antecedente refuerza el valor defensivo del sistema y, al mismo tiempo, explica la preocupación que genera cualquier acceso no autorizado a una herramienta de este tipo.

¿Cómo se habría producido el acceso no autorizado?

De acuerdo con Bloomberg, entre las personas no autorizadas había un empleado de un proveedor externo de Anthropic con acceso a los sistemas de la compañía. El grupo pertenecería a un foro privado en línea y no habría conseguido tomar control del modelo.

El reporte también indica que el conocimiento sobre la forma en que Anthropic había almacenado modelos anteriores habría facilitado el acceso. Con la información disponible, no es factible afirmar que se extrajeran pesos del modelo, que se comprometiera la infraestructura principal o que existiera una filtración de credenciales.

Anthropic comunicó a Bloomberg que, hasta ahora, no dispone de indicios de acceso al modelo fuera de los sistemas del proveedor externo. Ese punto acota el alcance del incidente, aunque no elimina las preguntas sobre permisos, terceros y controles internos.

El doble uso de la IA aplicada a ciberseguridad

El riesgo de Mythos aparece en el mismo punto donde se concentra su utilidad defensiva: la búsqueda automatizada de vulnerabilidades que otros controles no detectan. Con acceso restringido, esa capacidad permite adelantar correcciones en software crítico antes de una explotación real. Fuera de ese perímetro, en cambio, puede acortar el trabajo técnico necesario para identificar superficies de ataque.

La restricción aplicada por Anthropic debe leerse desde ese equilibrio frágil entre protección y exposición. Cuando un modelo puede localizar fallos críticos en repositorios privados, cada permiso concedido a terceros pasa a formar parte de la superficie de riesgo y ya no puede tratarse como una autorización operativa menor.

Por qué el caso presiona los controles sobre accesos externos

El presidente del Bundesbank, Joachim Nagel, vinculó el debate sobre Mythos con los riesgos que la IA puede representar para el sector financiero. En una intervención en Roma, advirtió que los agentes autónomos podrían introducir amenazas cibernéticas nuevas y complejas.

“La detección temprana y la contención de estos riesgos es de importancia decisiva para la estabilidad financiera, como lo pone de manifiesto el debate actual en torno a Mythos de Anthropic”.

Joachim Nage, presidente del Bundesbank

Nagel también sostuvo que Mythos sería capaz de identificar y explotar rápidamente vulnerabilidades de seguridad en software de instituciones financieras. La advertencia amplía el alcance del caso, porque traslada la discusión desde Anthropic hacia la gobernanza de modelos con capacidades sensibles.

Con la información publicada, no hay base para afirmar que Claude Mythos haya sido tomado bajo control externo ni que quedara expuesto públicamente. El punto relevante está en la ruta de acceso atribuida a un proveedor, porque ese antecedente obliga a revisar permisos, separación de entornos y supervisión técnica cuando se trabaja con modelos capaces de detectar vulnerabilidades críticas.

Desde esa perspectiva, la industria tecnológica enfrenta una pregunta concreta: ¿cómo restringir esos accesos sin bloquear el uso defensivo de herramientas capaces de anticipar vulnerabilidades antes de que sean explotadas?

Fuentes: DW | Bloomberg

Síguenos en Google News