A fecha de 16 de abril de 2026, el sector de la ciberseguridad está procesando dos anuncios que, tomados en conjunto, representan un cambio estructural en la forma en que la industria plantea la defensa de infraestructura digital crítica. El 7 de abril, Anthropic presentó Claude Mythos Preview, un modelo de lenguaje de propósito general con capacidades de seguridad informática que la propia compañía califica de excepcionales, junto a Project Glasswing, una iniciativa dotada de 100 millones de dólares en créditos de modelo destinada a proteger el software más crítico del mundo. Una semana después, el 14 de abril, OpenAI respondió con GPT-5.4-Cyber, una variante de su modelo insignia GPT-5.4 optimizada para defensa cibernética, escalando su programa Trusted Access for Cyber (TAC) de un piloto cerrado a miles de profesionales verificados.
Estos dos movimientos, coordinados en el tiempo casi a modo de réplica estratégica, señalan que las grandes plataformas de IA ya no contemplan la ciberseguridad como un caso de uso más: la tratan como un dominio prioritario que justifica modelos especializados, programas de acceso diferenciado, compromisos financieros sustanciales y estructuras de gobernanza propias. Para los equipos de seguridad, los CISOs y las organizaciones que dependen de infraestructura compartida, entender qué ofrecen estos sistemas, cuáles son sus limitaciones reales y qué riesgos introduce su existencia es ahora una necesidad operativa, no una curiosidad tecnológica.
El contexto: por qué la defensa cibernética necesitaba un salto cualitativo
La ciberseguridad profesional ha vivido durante años con una asimetría estructural difícil de resolver: los atacantes necesitan encontrar un solo punto de entrada para comprometer un sistema; los defensores deben vigilar la totalidad de la superficie de ataque de forma permanente. Esta diferencia de escala se agrava en un entorno en el que el software acumula décadas de código heredado, los equipos de seguridad son escasos y las herramientas de análisis automatizadas —aunque útiles— requieren supervisión humana intensiva para ser efectivas.
Los modelos de lenguaje de gran escala llevan dos años acumulando capacidades relevantes para este dominio: generación de código, análisis de texto técnico, síntesis de documentación de vulnerabilidades, asistencia en la redacción de reglas para sistemas de detección de intrusos. Sin embargo, hasta 2026 ningún laboratorio había presentado un modelo que pudiera operar de forma autónoma sobre tareas de seguridad ofensiva y defensiva complejas, encadenando pasos sin intervención humana continua. Mythos Preview y GPT-5.4-Cyber marcan ese umbral.
El telón de fondo regulatorio también ha cambiado. En los últimos dieciocho meses, la Unión Europea ha endurecido los requisitos de notificación de incidentes bajo la directiva NIS2, el gobierno de los Estados Unidos ha emitido nuevas directrices para la seguridad de software crítico, y varios gobiernos han comenzado a articular marcos específicos para el uso de IA en entornos de defensa digital. En ese contexto, el sector privado tiene incentivos claros para adoptar herramientas que aumenten la capacidad de detección y respuesta, siempre que vengan acompañadas de garantías de acceso controlado y trazabilidad de uso.
La convergencia de estos factores —la madurez técnica de los modelos, la presión regulatoria y la escasez de talento especializado en seguridad— crea las condiciones para que iniciativas como Glasswing y TAC tengan impacto real más allá del anuncio corporativo.
Claude Mythos Preview: capacidades sin precedentes en tareas de seguridad informática
Anthropic describe Claude Mythos Preview como un modelo de propósito general que destaca de forma especialmente notable en tareas de seguridad informática. Esa caracterización, habitual en el lenguaje de los laboratorios de IA, adquiere una dimensión concreta cuando se examinan las pruebas de capacidad publicadas en red.anthropic.com.
El caso más documentado es la identificación y explotación autónoma de CVE-2026-4747, una vulnerabilidad de ejecución remota de código en FreeBSD que permanecía sin descubrir durante diecisiete años. La vulnerabilidad, relacionada con el subsistema NFS, permite a un atacante no autenticado obtener acceso de root completo a cualquier servidor que ejecute el sistema de archivos en red. Mythos Preview identificó el fallo de forma completamente autónoma, escribió el código de explotación y encadenó los pasos necesarios para obtener control total del sistema, todo ello sin intervención humana durante el proceso de ejecución.
Este tipo de tarea representa una diferencia cualitativa respecto a los modelos anteriores. Los sistemas de IA previos podían asistir a un analista humano en la búsqueda de vulnerabilidades, pero requerían que el experto marcara los vectores de investigación, interpretara los resultados parciales y tomara las decisiones de encadenamiento. Mythos Preview opera como un agente capaz de mantener el contexto completo de una investigación de seguridad durante sesiones prolongadas, identificar múltiples vulnerabilidades en un sistema y combinarlas para construir cadenas de ataque completas.
Las capacidades documentadas incluyen también la identificación de vulnerabilidades de día cero en sistemas operativos y navegadores web principales, y la capacidad de escribir código funcional que las explote cuando el usuario tiene autorización para realizar tests de penetración sobre los sistemas evaluados. Anthropic es explícita al señalar que estas capacidades existen y que precisamente por eso el acceso al modelo para tareas de seguridad está estrictamente controlado a través de Project Glasswing.
Más allá del caso de ciberseguridad, Mythos Preview está siendo evaluado como modelo de referencia en razonamiento complejo, codificación avanzada y tareas de larga duración. Los resultados preliminares en evaluaciones como SWE-bench, AIME y GPQA Diamond sitúan al modelo en posiciones competitivas, aunque Anthropic aún no ha publicado cifras definitivas para la versión Preview. La compañía también ha hecho pública la evaluación de riesgo del modelo, un documento que detalla sus capacidades potencialmente peligrosas y las medidas de mitigación implementadas, siguiendo el enfoque de transparencia que caracteriza su política de seguridad desde 2024.
Project Glasswing: un modelo de colaboración para la infraestructura digital compartida
Project Glasswing no es simplemente un programa de acceso anticipado a Mythos Preview. Es una apuesta estructurada de Anthropic por convertir la IA en un activo colectivo para la defensa de la infraestructura digital compartida, con un modelo de gobernanza que combina selección rigurosa de participantes, compromisos de uso responsable y financiación sustancial.
El programa arranca con un compromiso de 100 millones de dólares en créditos de uso del modelo que Anthropic pondrá a disposición de los socios participantes durante la fase de investigación Preview. Esta cifra no es simbólica: cubre un volumen de inferencia que permitiría a organizaciones medianas ejecutar búsquedas de vulnerabilidades a escala durante meses sin preocuparse por el coste computacional.
Los socios de lanzamiento incluyen algunas de las organizaciones más relevantes en el ecosistema tecnológico global: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, la Linux Foundation, Microsoft, NVIDIA y Palo Alto Networks. A estas se suman aproximadamente cuarenta organizaciones adicionales responsables de construir o mantener software de infraestructura crítica que representa una fracción significativa de la superficie de ataque compartida de internet.
El foco de Project Glasswing es la búsqueda y corrección de vulnerabilidades en sistemas fundacionales: compiladores, sistemas operativos, entornos de ejecución, protocolos de red y componentes criptográficos que forman el substrato sobre el que se construye prácticamente todo el software moderno. Un fallo en estas capas no afecta a una sola organización: puede exponer simultáneamente a millones de sistemas en todo el mundo. El ejemplo de CVE-2026-4747 en FreeBSD es precisamente este tipo de vulnerabilidad: una sola vulnerabilidad en un sistema operativo ampliamente utilizado con diecisiete años de exposición potencial.
La selección de participantes sigue un proceso de verificación por invitación. Anthropic evalúa las credenciales de las organizaciones, el tipo de software que mantienen, su capacidad para gestionar de forma responsable el acceso a herramientas con potencial dual y su historial en materia de divulgación coordinada de vulnerabilidades. Las organizaciones aceptadas firman compromisos de uso que establecen restricciones explícitas sobre cómo pueden emplear las capacidades del modelo y bajo qué condiciones de supervisión.
Desde una perspectiva de política tecnológica, Project Glasswing representa un intento de resolver un problema que el sector privado no ha podido abordar de forma sistemática: la deuda técnica acumulada en software crítico y compartido, cuya corrección requiere recursos humanos especializados que no existen en cantidad suficiente. Si los modelos de IA pueden automatizar parte del trabajo de identificación de vulnerabilidades en este software, el impacto potencial en la resiliencia colectiva de la infraestructura digital es considerable.
GPT-5.4-Cyber y el programa TAC de OpenAI: escala, verificación y acceso diferenciado
OpenAI tomó una dirección similar pero con una filosofía de implementación diferente. Donde Anthropic optó por un modelo de acceso extremadamente restringido y orientado a organizaciones de infraestructura crítica, OpenAI ha elegido escalar su programa a miles de usuarios verificados individualmente, apostando por la verificación de identidad como mecanismo de control principal.
GPT-5.4-Cyber es una variante de GPT-5.4 en la que OpenAI ha ajustado los umbrales de respuesta para permitir flujos de trabajo de ciberseguridad que el modelo base rechazaría en circunstancias normales. La característica más notable es la ingeniería inversa de binarios: la capacidad de analizar ejecutables compilados para identificar comportamientos maliciosos potenciales, vulnerabilidades embebidas y debilidades estructurales, sin necesidad de acceder al código fuente.
Esta funcionalidad tiene una relevancia práctica inmediata. Herramientas como IDA Pro o Ghidra han sido durante años el estándar de la industria para el análisis de binarios, pero su uso requiere formación especializada y años de experiencia para obtener resultados fiables. GPT-5.4-Cyber no reemplaza a estas herramientas, pero reduce significativamente la barrera de entrada para analistas con menos experiencia y acelera los flujos de trabajo de los profesionales experimentados al automatizar las fases más rutinarias del análisis.
El Trusted Access for Cyber (TAC) program fue lanzado por OpenAI en febrero de 2026 con un piloto cerrado y un fondo de 10 millones de dólares para subvenciones en ciberseguridad. El anuncio del 14 de abril eleva el programa a una escala significativamente mayor: miles de defensores individuales verificados y cientos de equipos responsables de la seguridad de software crítico.
El proceso de acceso funciona en dos niveles. Los usuarios individuales pueden solicitar acceso en chatgpt.com/cyber, donde pasan por un proceso de verificación de identidad estilo KYC que confirma sus credenciales profesionales en el campo de la seguridad. Las empresas y equipos pueden solicitar acceso institucional a través de sus representantes de cuenta en OpenAI, con verificaciones adicionales sobre el tipo de uso previsto y los controles internos que la organización tiene en vigor.
La filosofía que subyace al programa TAC es distinta a la de Project Glasswing en un aspecto fundamental: OpenAI está apostando por que la verificación de identidad y la monitorización del uso son mecanismos de control más efectivos que la restricción total de acceso. La lógica es que un atacante determinado encontrará formas de acceder a capacidades de hacking de todos modos, pero un sistema que identifica a los usuarios, monitoriza los patrones de uso y retiene datos de actividad puede detectar y responder a comportamientos abusivos con mayor precisión que un modelo que simplemente rechaza las solicitudes.
Comparativa: dos filosofías ante el mismo desafío
La simultaneidad de los anuncios de Anthropic y OpenAI permite una comparación directa que revela diferencias importantes en cómo los dos laboratorios conciben la tensión entre capacidad y control.
Anthropic ha optado por la restricción máxima en la etapa inicial. Mythos Preview para tareas de seguridad solo está disponible a través de Project Glasswing, por invitación, para organizaciones de infraestructura crítica. El modelo completo no está disponible públicamente. La compañía ha publicado un informe de riesgo detallado que documenta explícitamente las capacidades ofensivas del modelo y explica por qué ese nivel de transparencia es parte de la estrategia de seguridad: si la comunidad conoce lo que el modelo puede hacer, puede preparar defensas adecuadas antes de que actores mal intencionados tengan acceso a capacidades equivalentes.
OpenAI ha elegido la escala controlada. GPT-5.4-Cyber es accesible para miles de usuarios, pero con capas de verificación y monitorización. La apuesta es que democratizar el acceso a herramientas de análisis defensivo fortalece el ecosistema de seguridad en su conjunto, siempre que los controles sean suficientemente robustos para disuadir el abuso.
Ambos enfoques tienen mérito. El modelo de Anthropic maximiza el control pero limita el impacto a corto plazo: solo las organizaciones más grandes con los recursos para participar en Glasswing se benefician inmediatamente. El modelo de OpenAI amplía el impacto pero introduce más vectores de riesgo: una verificación de identidad imperfecta, cuentas comprometidas o usos legítimos que evolucionan hacia usos problemáticos son puntos de falla que un sistema más cerrado no tiene.
La evaluación de cuál es la estrategia correcta depende en parte de la amenaza que uno tiene en mente. Si el riesgo principal es que actores estatales o grupos criminales sofisticados accedan al modelo, la restricción total tiene más sentido. Si el riesgo principal es la brecha de capacidades entre equipos de seguridad bien dotados y los que no lo están, la democratización controlada tiene más valor. En la práctica, estos dos riesgos coexisten y ninguna estrategia los elimina simultáneamente.
Un elemento común a ambos programas merece destacarse: los dos laboratorios están optando por la transparencia sobre las capacidades del modelo en lugar de la seguridad por oscuridad. Esto es un cambio respecto a la postura habitual de la industria tecnológica, que tiende a no publicar información detallada sobre lo que sus sistemas pueden hacer en el ámbito ofensivo. La apuesta es que la comunidad de seguridad informada puede preparar mejores defensas que la comunidad que desconoce las capacidades reales de la amenaza.
Implicaciones para los equipos de seguridad y las organizaciones
Para los profesionales de seguridad y las organizaciones que deben decidir cómo posicionarse ante estos desarrollos, las implicaciones son concretas y graduadas según el perfil de cada organización.
Para los equipos de respuesta a incidentes y los analistas de seguridad, GPT-5.4-Cyber representa la oportunidad más accesible a corto plazo. La ingeniería inversa de binarios asistida por IA puede reducir significativamente el tiempo de triaje en análisis de malware, una de las tareas que más horas consume en un SOC. Las organizaciones con equipos de seguridad verificados deberían solicitar acceso al programa TAC y comenzar a evaluar cómo integran estas capacidades en sus flujos de trabajo de análisis.
Para las organizaciones que mantienen software de infraestructura crítica —bases de datos ampliamente utilizadas, compiladores, bibliotecas criptográficas, sistemas operativos— Project Glasswing representa la oportunidad de contar con una herramienta de búsqueda de vulnerabilidades sin precedentes. Las organizaciones elegibles deberían explorar activamente si cumplen los criterios para participar.
Para los CISOs y los equipos de gestión de riesgos, el mensaje más importante no es cuál herramienta adoptar primero, sino reconocer que la superficie de amenaza ha cambiado. Si Mythos Preview puede encontrar de forma autónoma una vulnerabilidad de diecisiete años en FreeBSD, la hipótesis de que el código heredado sin auditar es seguro simplemente porque nadie lo ha explotado todavía ya no se sostiene. Las organizaciones deben asumir que los actores con acceso a capacidades similares —ya sea a través de estos programas o de modelos desarrollados de forma privada— están acelerando sus búsquedas de vulnerabilidades. Esto refuerza el argumento para invertir en búsqueda proactiva de vulnerabilidades y en programas de divulgación coordinada.
Para las pequeñas y medianas empresas, la situación es más matizada. El acceso directo a Mythos Preview no está disponible, y GPT-5.4-Cyber requiere una verificación que no todas las organizaciones tienen recursos para gestionar. Sin embargo, el efecto colateral de estos programas —las vulnerabilidades encontradas y corregidas en software compartido— beneficia a todos los usuarios de ese software, independientemente de su tamaño. El impacto de Project Glasswing en la corrección de vulnerabilidades en sistemas operativos y bibliotecas ampliamente utilizadas es, en este sentido, un bien colectivo.
Para los proveedores de servicios de seguridad gestionados, estos desarrollos introducen tanto presión competitiva como oportunidad. Los equipos internos con acceso a GPT-5.4-Cyber pueden asumir tareas que antes requerían subcontratación especializada. Al mismo tiempo, los proveedores que se posicionen como integradores calificados de estas herramientas, con los controles de acceso y la supervisión necesarios, pueden diferenciar su oferta de forma significativa frente a competidores que no gestionen este proceso de adopción.
Riesgos reales y límites que no deben ignorarse
La narrativa de la IA como solución para la ciberseguridad viene acompañada de un conjunto de riesgos y limitaciones que merecen atención explícita antes de cualquier decisión de adopción.
El riesgo de la democratización ofensiva es el más citado. Si un modelo de IA puede encontrar y explotar vulnerabilidades de forma autónoma, la pregunta inevitable es quién más tiene acceso a capacidades equivalentes. Anthropic ha publicado documentación sobre las capacidades de Mythos Preview precisamente para que la comunidad de seguridad pueda anticipar el tipo de amenazas que podrían surgir de modelos similares. Pero la transparencia no resuelve el problema: los actores que desarrollan modelos equivalentes sin restricciones de acceso no tienen incentivos para publicar sus capacidades, y los controles de acceso de Anthropic y OpenAI no aplican a ellos.
La fiabilidad no es perfecta. Tanto Mythos como GPT-5.4-Cyber cometen errores. En el análisis de seguridad, un falso positivo —una vulnerabilidad reportada que no existe— consume recursos valiosos del equipo de respuesta. Un falso negativo —una vulnerabilidad real que el modelo no detecta— puede dar una falsa sensación de seguridad que sea peor que no haber realizado el análisis. Los equipos que adopten estas herramientas necesitan mantener procesos de validación humana para las conclusiones críticas, especialmente en las etapas iniciales de implementación.
Los modelos no entienden el contexto organizacional. Una vulnerabilidad técnicamente explotable en un sistema que está físicamente aislado de redes externas tiene un perfil de riesgo completamente diferente a la misma vulnerabilidad en un sistema accesible desde internet. Los modelos pueden identificar la vulnerabilidad técnica pero no tienen acceso al contexto arquitectónico y operacional necesario para priorizar correctamente sin información adicional proporcionada por el analista humano.
El acceso controlado tiene sus propios límites. Los programas de verificación de identidad como el TAC de OpenAI son efectivos para disuadir a usuarios sin credenciales, pero no para prevenir el abuso por parte de usuarios verificados que cambian sus intenciones o cuyas cuentas son comprometidas. La monitorización continua del uso es un requisito funcional, no una garantía absoluta.
La cobertura no es uniforme. Tanto Mythos como GPT-5.4-Cyber han sido evaluados principalmente en entornos de software convencional: sistemas operativos de uso general, aplicaciones web, binarios compilados para arquitecturas x86 y ARM comunes. La cobertura de sistemas embebidos, hardware específico, protocolos industriales o software de infraestructura crítica especializado puede ser significativamente menor. Las organizaciones en sectores como energía, manufactura o sistemas de control industrial deben verificar empíricamente las capacidades de estos modelos en sus entornos específicos antes de confiar en sus resultados.
El rol de Nvidia en la infraestructura que hace posible estos modelos
No es posible analizar Mythos Preview o GPT-5.4-Cyber sin mencionar la infraestructura que los hace posibles. Ambos modelos son el resultado de ciclos de entrenamiento que consumen recursos computacionales a una escala que hubiera sido difícil de costear hace tres años. Nvidia, cuyos procesadores Vera Rubin están comenzando a llegar a los centros de datos de los principales proveedores cloud en el segundo semestre de 2026, es el componente habilitador de esta aceleración.
La asociación estratégica entre Nvidia y OpenAI para desplegar diez gigavatios de sistemas Nvidia —con el primer gigavatio en la plataforma Vera Rubin a partir del segundo semestre de 2026— ilustra la escala de inversión que subyace a modelos como GPT-5.4-Cyber. Sin esa infraestructura, el entrenamiento de modelos con las capacidades que Anthropic y OpenAI están presentando no sería viable en los plazos observados. El salto cualitativo en las capacidades de seguridad de Mythos Preview está directamente relacionado con el volumen de cómputo disponible para el entrenamiento, no solo con avances algorítmicos.
Para las organizaciones que evalúan estos servicios, esta dependencia de infraestructura implica que las capacidades de los modelos seguirán mejorando mientras la curva de hardware continúe. Lo que Mythos Preview puede hacer hoy con la identificación autónoma de vulnerabilidades de diecisiete años es probablemente solo el punto de partida de lo que modelos futuros harán en plazos más cortos y con mayor cobertura de sistemas.
Perspectiva regulatoria: marcos en construcción para un fenómeno nuevo
Los anuncios de Anthropic y OpenAI llegan en un momento en que los reguladores de múltiples jurisdicciones están tratando de definir marcos para el uso de IA en aplicaciones de alto riesgo, categoría en la que la ciberseguridad ofensiva-defensiva encaja sin ambigüedad.
La Unión Europea, a través de su AI Act, clasifica los sistemas de IA que operan en infraestructura crítica como de alto riesgo, lo que implica requisitos de transparencia, documentación de entrenamiento, supervisión humana y mecanismos de auditoría. Project Glasswing y el programa TAC incluyen elementos que se alinean con estas exigencias —controles de acceso, registro de uso, compromisos de uso responsable— pero la aplicabilidad formal del reglamento europeo a estos programas específicos aún no ha sido clarificada por las autoridades competentes.
En los Estados Unidos, las directrices sobre el uso de IA en sistemas de seguridad para el sector privado siguen siendo más fragmentadas, aunque la colaboración de Anthropic y OpenAI con agencias gubernamentales sugiere que ambas compañías están construyendo sus programas con visibilidad regulatoria en mente.
Para las organizaciones con operaciones internacionales, esto implica que la adopción de estas herramientas debe ir acompañada de una evaluación jurídica sobre las obligaciones aplicables en cada jurisdicción, especialmente si el uso incluye el análisis de sistemas o datos de usuarios en la Unión Europea. La decisión de adoptar no es solo técnica: implica asumir responsabilidades de cumplimiento que varían según el entorno regulatorio de cada operación.
Preguntas frecuentes
¿Puede cualquier empresa solicitar acceso a Claude Mythos Preview para tareas de ciberseguridad?
No. El acceso a Claude Mythos Preview para tareas de seguridad está restringido a organizaciones participantes en Project Glasswing, que requiere invitación y un proceso de verificación riguroso. Anthropic evalúa el tipo de software que mantiene la organización, su historial en materia de divulgación coordinada de vulnerabilidades y su capacidad para gestionar de forma responsable el acceso a herramientas con potencial dual. Las organizaciones interesadas pueden manifestar su interés a través de anthropic.com/glasswing, pero la admisión no está garantizada.
¿Qué diferencia a GPT-5.4-Cyber del modelo GPT-5.4 estándar?
GPT-5.4-Cyber es una variante de GPT-5.4 con umbrales de respuesta ajustados para flujos de trabajo de ciberseguridad legítimos. La diferencia principal es que el modelo responde a solicitudes relacionadas con análisis de vulnerabilidades, ingeniería inversa de binarios y estudio de técnicas de ataque que el modelo base rechazaría por defecto. El acceso requiere verificación a través del programa TAC de OpenAI. Las capacidades de razonamiento general son las mismas que en GPT-5.4; la diferencia está en los controles de contenido y en las capacidades específicas de análisis de seguridad habilitadas.
¿Suponen Mythos y GPT-5.4-Cyber un riesgo para las organizaciones que no los adoptan?
Indirectamente, sí. Si actores maliciosos tienen acceso a modelos con capacidades equivalentes —desarrollados de forma privada o a través de brechas en los controles de acceso de programas existentes— las organizaciones que no emplean herramientas similares para buscar vulnerabilidades en sus propios sistemas estarán en desventaja. Sin embargo, las vulnerabilidades encontradas y corregidas en software de infraestructura compartido a través de Project Glasswing benefician a todas las organizaciones que usan ese software, independientemente de si participan en el programa.
¿Pueden estos modelos reemplazar a los equipos humanos de seguridad?
No en el corto ni en el medio plazo. Mythos Preview y GPT-5.4-Cyber son herramientas que aumentan la capacidad de los equipos humanos, no sustitutos de ellos. Requieren supervisión para validar resultados, no tienen acceso al contexto organizacional completo necesario para priorizar adecuadamente los hallazgos, y cometen errores que un experto humano puede detectar. Su valor está en la automatización de tareas rutinarias de alta escala y en la aceleración del triaje inicial, no en la eliminación del juicio humano especializado.
¿Cuándo estará disponible acceso más amplio a Mythos Preview?
Anthropic no ha anunciado una fecha para la disponibilidad general de Mythos Preview. La fase actual es una investigación Preview con acceso por invitación a través de Project Glasswing. Es posible que versiones con capacidades reducidas o con controles de acceso adicionales estén disponibles en fases posteriores, pero la compañía ha dejado claro que las capacidades de seguridad más avanzadas del modelo seguirán siendo objeto de acceso controlado en el futuro previsible.
Fuentes oficiales recomendadas
Para profundizar en los temas tratados en este artículo, se recomiendan las siguientes fuentes primarias:
Anthropic — Claude Mythos Preview (red.anthropic.com): Documentación oficial sobre las capacidades del modelo, incluyendo los resultados de evaluación de seguridad y el informe de riesgo de la compañía. https://red.anthropic.com/2026/mythos-preview/
Anthropic — Project Glasswing (anthropic.com/glasswing): Descripción del programa, lista de socios, compromisos de uso responsable e instrucciones para organizaciones interesadas en participar. https://www.anthropic.com/glasswing
OpenAI — Scaling Trusted Access for Cyber Defense (openai.com): Anuncio oficial del escalado del programa TAC y la presentación de GPT-5.4-Cyber, incluyendo detalles sobre los niveles de acceso y el proceso de verificación. https://openai.com/index/scaling-trusted-access-for-cyber-defense/
OpenAI — Introducing GPT-5.4 (openai.com): Documentación técnica sobre el modelo base GPT-5.4, sus capacidades generales y las diferencias con la variante Cyber. https://openai.com/index/introducing-gpt-5-4/
NVIDIA Newsroom — Rubin Platform (nvidianews.nvidia.com): Detalles sobre la plataforma de hardware que sustenta el entrenamiento de modelos de la generación actual, incluyendo los acuerdos de despliegue con los principales proveedores cloud. https://nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer
Schneier on Security — On Anthropic's Mythos Preview and Project Glasswing: Análisis independiente de Bruce Schneier sobre las implicaciones de seguridad del lanzamiento de Mythos, con perspectiva crítica sobre el modelo de acceso controlado. https://www.schneier.com/blog/archives/2026/04/on-anthropics-mythos-preview-and-project-glasswing.html
