
Anthropic e Claude Mythos rivoluzionano la cybersecurity

Come Anthropic usa Claude Mythos per rivoluzionare la cybersecurity
Anthropic ha lanciato Project Glasswing: il modello AI Claude Mythos Preview ha già identificato migliaia di vulnerabilità zero-day in sistemi operativi e browser critici, incluso un bug di 27 anni in OpenBSD trovato con meno di 50 dollari di calcolo. L'accesso è limitato a 40 organizzazioni partner; Anthropic ha stanziato 100 milioni di dollari in crediti e 4 milioni in donazioni all'open source.
Anthropic ha svelato una delle iniziative di sicurezza AI più ambiziose fino ad oggi. Con Project Glasswing, l'azienda usa il suo modello più avanzato — Claude Mythos Preview, non ancora rilasciato al pubblico — per una caccia su scala industriale alle vulnerabilità zero-day. L'approccio è preventivo: trovare e correggere i bug prima che lo facciano gli avversari.
Questa mossa segna un punto di svolta. Non si tratta più di usare l'AI per assistere gli analisti di sicurezza, ma di scatenare un agente autonomo capace di superare decenni di revisione umana e test automatici in poche ore.
Cos'è Project Glasswing e perché rappresenta una svolta
Project Glasswing è un consorzio difensivo guidato da Anthropic che fornisce accesso controllato a Claude Mythos Preview a un gruppo selezionato di organizzazioni, con l'obiettivo di rafforzare la sicurezza del software che alimenta l'infrastruttura digitale globale.
Anthropic ha stanziato risorse concrete per catalizzare l'adozione:
- 100 milioni di dollari in crediti di utilizzo di Claude Mythos per i partner del consorzio
- 4 milioni di dollari in donazioni dirette a fondazioni open source, tra cui la Linux Foundation e l'Apache Software Foundation
- Una partnership iniziale con 12 colossi tecnologici — Google, Microsoft, AWS e Apple tra i principali — estesa a circa 40 organizzazioni che mantengono software critico
L'urgenza del progetto deriva da una consapevolezza interna ad Anthropic: i modelli AI di frontiera stanno diventando così potenti da rappresentare un rischio sistemico se le loro capacità offensive venissero sfruttate prima che le difese si adeguino. Secondo MIT Technology Review, questa è la prima iniziativa strutturata di un lab AI a trattare la sicurezza offensiva come variabile di rischio sistemico.
Quali capacità emergenti ha sviluppato Claude Mythos
La caratteristica più rilevante di Mythos è che le sue abilità nella cybersecurity non sono state addestrate esplicitamente: sono emerse come conseguenza di miglioramenti generali nelle capacità di coding, ragionamento e autonomia del modello.
Come riporta The Hacker News, questo significa che Claude Mythos ha sviluppato un'intuizione profonda sulla logica del software, permettendole di individuare difetti sfuggiti a generazioni di sviluppatori e a strumenti di analisi statica come Coverity o SonarQube.
Non abbiamo addestrato esplicitamente Mythos Preview per avere queste capacità. Piuttosto, sono emerse come conseguenza a valle di miglioramenti generali nel codice, nel ragionamento e nell'autonomia.
Questa capacità emergente ha già permesso a Mythos di identificare migliaia di vulnerabilità zero-day nei principali sistemi operativi e browser — un salto qualitativo che trasforma l'AI da strumento di supporto a vero agente di sicurezza autonomo.
Quanto è efficace Mythos nel trovare vulnerabilità reali
I risultati dei test interni di Anthropic mostrano un divario di performance netto rispetto ai modelli precedenti come Claude 3 Opus. Mythos non trova solo più bug: li trova in software maturo e considerato sicuro da anni.
Secondo il report del Red Team di Anthropic, i risultati concreti includono:
- Bug di 27 anni individuato nel kernel di OpenBSD: permetteva di mandare in crash qualsiasi host con un singolo pacchetto TCP. Costo del calcolo per trovarlo: meno di 50 dollari.
- Vulnerabilità RCE di 17 anni in FreeBSD NFS: Mythos ha concatenato autonomamente sei chiamate di sistema per ottenere accesso root non autenticato.
- 181 exploit funzionanti generati per Firefox: il modello precedente, Claude Opus 4.6, ne aveva prodotti solo 2 sullo stesso set di test.
Questi numeri non sono benchmark astratti: dimostrano che un'AI può comprimere in ore il lavoro di un red team umano che richiederebbe settimane.
Perché Anthropic non rilascerà Mythos al pubblico
La decisione di limitare l'accesso a Mythos è la conseguenza diretta della sua potenza. Le stesse capacità che lo rendono uno strumento di difesa formidabile lo trasformano in un'arma offensiva senza precedenti — quello che Anthropic definisce il "problema del duplice uso".
Questi modelli dimostrano una crescente sofisticazione nelle loro capacità di cyberattacco. Accadrà — non ho dubbi al riguardo — e prima che siamo pronti.
Come analizza Bruce Schneier nel suo blog dedicato a Glasswing, il vantaggio dei difensori è destinato a ridursi man mano che modelli equivalenti diventano accessibili. La finestra temporale in cui i "buoni" hanno un vantaggio è stretta.
Potenziale Difensivo
Mythos analizza milioni di righe di codice, individua bug logici complessi e suggerisce patch corrette, operando su una scala impossibile per qualsiasi team umano — anche il più grande.
Rischio Offensivo
Un attaccante con accesso a Mythos potrebbe automatizzare la ricerca di zero-day e la creazione di exploit, lanciando attacchi sofisticati a costi e velocità senza precedenti nella storia della cybersecurity.
Per questo, l'accesso rimane limitato ai 12 partner fondatori e a circa 40 organizzazioni che gestiscono software critico per l'infrastruttura globale.
Qual è l'impatto per le aziende italiane
L'annuncio di Project Glasswing produce effetti concreti anche per il tessuto imprenditoriale italiano, con un mix di benefici indiretti e nuove sfide strategiche che i CISO e i CTO devono già considerare.
Nessun accesso diretto
Il consorzio non include partner italiani. Banche, telecomunicazioni e PA italiane non accedono a Mythos, accumulando un potenziale debito di sicurezza rispetto ai concorrenti internazionali già dentro il programma.
Benefici sull'open source
Le aziende italiane che usano Linux, Apache, OpenBSD o FreeBSD beneficiano gratuitamente del rafforzamento prodotto da Glasswing. Un vantaggio reale, anche se asimmetrico rispetto ai partner diretti.
Nuovo panorama di minacce
I modelli AI open-source diventeranno sempre più potenti. I team di sicurezza italiani devono prepararsi a un futuro in cui gli attacchi non sono solo automatizzati, ma guidati da intelligenza artificiale con capacità di ragionamento avanzato.
La vera sfida non è più solo difendersi da attacchi noti: è anticipare vulnerabilità che solo un'AI può scoprire, in software che si riteneva già sicuro.
Come preparare la tua azienda all'era della cybersecurity AI
L'avvento di modelli come Claude Mythos sposta il focus della sicurezza. Non basta più reagire alle minacce: ogni progetto di automazione basato su agenti AI — che si tratti di pipeline LangChain, workflow n8n o agenti custom — introduce una nuova superficie d'attacco che i framework tradizionali non coprono.
Mappare la superficie d'attacco AI
Censire tutti i sistemi interni che usano LLM, agenti autonomi o API AI esterne. Ogni punto di integrazione è un potenziale vettore di prompt injection o esfiltrazione dati.
Adottare Security by Design
Integrare la sicurezza fin dalla progettazione di ogni nuovo progetto di automazione AI, non come layer aggiuntivo a posteriori. Definire policy di accesso minimo per ogni agente.
Implementare monitoring specifico per AI
Strumenti come Datadog LLM Observability o soluzioni custom di logging permettono di rilevare comportamenti anomali negli agenti AI prima che diventino incidenti.
Formare i team su minacce AI-native
Aggiornare i team di sviluppo e sicurezza su vettori specifici: prompt injection, jailbreak, esfiltrazione tramite LLM e attacchi alla supply chain dei modelli.
Integrare l'intelligenza artificiale nei processi aziendali non è solo una questione di efficienza: è una responsabilità. In Datazen, aiutiamo le aziende a costruire soluzioni di automazione AI sicure, resilienti e pronte per il futuro — con un approccio che considera la sicurezza come requisito di progetto, non come opzione.
Vuoi implementare strategie AI sicure?
Prenota una call conoscitiva gratuita con i nostri esperti per discutere come proteggere e potenziare il tuo business nell'era degli agenti AI.
Richiedi Consulenza GratuitaDomande Frequenti
No. L'accesso a Claude Mythos Preview è strettamente limitato ai partner di Project Glasswing: 12 aziende fondatrici e circa 40 organizzazioni che mantengono software di importanza critica. Anthropic ha dichiarato che non rilascerà pubblicamente il modello a causa del suo potenziale di duplice uso per attacchi informatici.
Una capacità emergente è un'abilità che un modello AI sviluppa senza essere stato specificamente addestrato per essa. Nel caso di Claude Mythos, le sue doti di cybersecurity sono una conseguenza dei miglioramenti generali in ragionamento, codifica e autonomia — non di un addestramento mirato a trovare bug.
Claude Mythos Preview è un modello di frontiera di generazione successiva a Claude 3 Opus. I benchmark mostrano performance superiori in coding, ragionamento e autonomia: su Firefox, Mythos ha generato 181 exploit funzionanti contro i 2 prodotti da Opus 4.6 sullo stesso set di test.



