Claude Mythos: o modelo da Anthropic que mudou a conversa sobre IA e cibersegurança
A Anthropic apresentou o Claude Mythos Preview como um modelo de fronteira capaz de encontrar e explorar vulnerabilidades em softwares críticos. Entenda o que foi anunciado, por que o acesso foi limitado, o que há de comprovado por avaliações externas e quais lições práticas ficam para empresas.
Principais conclusões
- O Claude Mythos Preview é um modelo geral da Anthropic que demonstrou capacidades avançadas em tarefas de cibersegurança e exploração de vulnerabilidades.
- A Anthropic limitou o acesso público e criou o Project Glasswing para direcionar o uso do modelo a defesa de software crítico.
- Avaliações externas indicam salto relevante em tarefas controladas, mas não provam que o modelo consiga comprometer sistemas reais bem defendidos.
- O maior impacto prático é a redução da barreira e do tempo para descobrir e explorar falhas em ambientes vulneráveis.
- Empresas devem reforçar fundamentos de segurança, gestão de patches, controle de acesso, logs e resposta a incidentes antes que capacidades semelhantes se popularizem.
O Claude Mythos Preview colocou a Anthropic no centro de uma discussão rara no mercado de inteligência artificial: o que fazer quando um modelo geral fica bom demais em uma capacidade de uso duplo para ser liberado amplamente? A empresa afirma que o Mythos é um modelo de fronteira ainda não disponível ao público, com avanço expressivo em raciocínio, programação e autonomia, mas que demonstrou uma habilidade especialmente sensível: encontrar e transformar falhas de software em caminhos de exploração.
Em vez de abrir o acesso como em outros lançamentos da família Claude, a Anthropic optou por restringir o Mythos a um programa defensivo chamado Project Glasswing. A iniciativa reúne grandes empresas de tecnologia, infraestrutura, chips, segurança e finanças para usar o modelo na varredura e correção de softwares críticos. A mensagem é direta: a mesma capacidade que pode fortalecer defesas também pode reduzir drasticamente a barreira para ataques sofisticados.
O que é o Claude Mythos Preview
O Claude Mythos Preview é descrito pela Anthropic como um modelo geral de nova geração, não apenas uma ferramenta especializada em segurança. A diferença é que seus ganhos em código, raciocínio longo e uso autônomo de ferramentas se manifestaram com força incomum em tarefas de cibersegurança. Segundo a empresa, o modelo consegue analisar bases de código reais, identificar vulnerabilidades antigas e sutis, propor correções e, em testes controlados, construir explorações funcionais.
Esse ponto muda o tom da discussão. Muitos modelos anteriores já ajudavam desenvolvedores a revisar código, escrever testes e explicar falhas conhecidas. O Mythos, pelo relato da Anthropic e de avaliadores externos, aparece em um patamar mais operacional: ele não apenas sugere onde pode haver um problema, mas consegue encadear etapas, adaptar tentativas e chegar a resultados que antes exigiam especialistas humanos muito experientes.
Por que a Anthropic não liberou o modelo ao público
A decisão de limitar o lançamento vem do caráter dual da tecnologia. Em defesa, um modelo desse tipo pode acelerar auditorias, encontrar bugs antes de atacantes e ajudar mantenedores de software aberto a corrigir problemas antigos. Em ofensiva, as mesmas habilidades podem automatizar parte do trabalho de descoberta e exploração de vulnerabilidades, especialmente contra sistemas desatualizados, mal configurados ou sem monitoramento adequado.
A Anthropic afirma ter encontrado milhares de vulnerabilidades de alta severidade durante os testes, incluindo falhas em sistemas operacionais e navegadores amplamente usados. A empresa também diz que mais de 99% das vulnerabilidades identificadas ainda não estavam corrigidas no momento da divulgação inicial, razão pela qual os detalhes técnicos completos não foram publicados. Esse cuidado segue a lógica de divulgação coordenada: primeiro avisar responsáveis e permitir correções, depois divulgar informações quando a exposição não aumentar o risco.
Project Glasswing: colocar a capacidade do lado da defesa
O Project Glasswing é a resposta prática da Anthropic ao problema. A iniciativa concede acesso controlado ao Mythos Preview para parceiros selecionados e organizações responsáveis por software crítico. A lista divulgada inclui nomes como Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Linux Foundation, Microsoft, NVIDIA e Palo Alto Networks, além de dezenas de outras organizações ligadas a infraestrutura essencial.
A proposta é usar o modelo para revisar sistemas próprios e projetos de código aberto, priorizar correções e compartilhar aprendizados defensivos com o ecossistema. A Anthropic também anunciou créditos de uso e doações para organizações de segurança open source, o que sinaliza uma leitura importante: se a IA acelera a descoberta de falhas, os mantenedores precisam de capacidade equivalente para corrigir, testar e distribuir patches.
O que as avaliações externas mostram
O AI Security Institute do Reino Unido avaliou o Mythos Preview em ambientes controlados e concluiu que ele representa um salto em relação a modelos de fronteira anteriores. Em desafios de captura de bandeira de nível especialista, nos quais nenhum modelo conseguia bom desempenho antes de 2025, o Mythos teve taxa de sucesso reportada de 73%. Em uma simulação de ataque corporativo com 32 etapas, o modelo foi o primeiro a concluir todo o cenário em parte das tentativas e completou, em média, mais etapas do que concorrentes testados.
Esses números são relevantes, mas precisam de contexto. Os próprios avaliadores destacam que laboratórios e cyber ranges não equivalem a ambientes reais bem defendidos. Simulações normalmente têm menos ruído, menos defesa ativa, menos penalidade por ações suspeitas e alvos propositalmente vulneráveis. Portanto, a conclusão responsável não é que o Mythos consiga invadir qualquer sistema moderno, mas que ele já é capaz de executar cadeias de ataque complexas em cenários vulneráveis quando recebe acesso e objetivo explícito.
O que ainda é incerto ou pode ser hype
Como em todo lançamento de IA de fronteira, existe uma camada de incerteza. A Anthropic tem incentivo comercial e reputacional para apresentar o Mythos como um marco. Boa parte dos detalhes técnicos permanece indisponível por segurança, e poucos especialistas independentes tiveram acesso direto ao modelo. Isso torna difícil separar com precisão o que é capacidade generalizável, o que depende de scaffolds internos, o que exige muito orçamento de inferência e o que só aparece em condições controladas.
Ao mesmo tempo, o ceticismo não elimina o sinal principal. Fontes independentes, cobertura especializada e avaliações governamentais convergem em um ponto: a fronteira de IA para tarefas de segurança ofensiva avançou rápido. Mesmo que algumas afirmações sejam vistas com cautela, a direção é clara. Modelos melhores em programação e autonomia tendem a ser melhores tanto em corrigir quanto em explorar falhas.
O episódio de acesso não autorizado
Dias depois da divulgação, a Anthropic informou estar investigando relatos de acesso não autorizado ao Mythos por meio de um ambiente de fornecedor terceirizado. Até onde foi reportado, não havia indicação pública de comprometimento direto dos sistemas centrais da Anthropic nem de uso malicioso comprovado. Ainda assim, o episódio expõe uma fragilidade importante: controles de acesso precisam cobrir não só o laboratório que cria o modelo, mas também parceiros, contratados, integrações e ambientes de teste.
Para modelos com capacidade sensível, vazamentos parciais, chaves mal administradas ou permissões herdadas podem ser tão perigosos quanto uma invasão clássica. O risco deixa de ser apenas técnico e passa a ser operacional: quem tem acesso, por quanto tempo, com qual escopo, sob qual auditoria e com quais limites de uso?
Por que isso importa para empresas comuns
Mesmo organizações que nunca terão acesso ao Mythos devem prestar atenção. A principal consequência é a compressão do tempo entre a existência de uma falha e sua exploração em escala. Se ferramentas de IA reduzem a necessidade de especialistas raros para encontrar bugs exploráveis, empresas com baixa maturidade de segurança ficam mais expostas.
O recado prático não é entrar em pânico, mas acelerar fundamentos: inventário de ativos, atualização regular de sistemas, correção de dependências, autenticação forte, menor privilégio, segmentação de rede, logs úteis, detecção de comportamento anômalo e resposta a incidentes treinada. Esses controles parecem básicos, mas são exatamente os que diferenciam uma organização que resiste a automação ofensiva de outra que vira alvo fácil.
O lado positivo: IA como vantagem defensiva
A história de ferramentas de segurança mostra que automação não favorece apenas atacantes. Fuzzers, scanners, análise estática e pipelines de CI também ampliaram a capacidade de defesa. O Mythos sugere que modelos de linguagem podem ocupar uma camada superior desse fluxo: ler código como um engenheiro sênior, formular hipóteses, testar caminhos, explicar riscos e ajudar a construir correções mais rapidamente.
Para equipes técnicas, o caminho provável é incorporar IA em revisão de código, análise de dependências, pentest autorizado, geração de testes de regressão e triagem de vulnerabilidades. O diferencial não será apenas ter acesso a um modelo poderoso, mas saber integrá-lo a processos seguros, com autorização, logs, isolamento, revisão humana e métricas claras.
O que observar nos próximos meses
Há quatro sinais que merecem acompanhamento. Primeiro, se os parceiros do Project Glasswing conseguirão publicar resultados defensivos concretos, como patches, métricas de redução de risco e aprendizados reutilizáveis. Segundo, se outros laboratórios lançarão modelos com capacidades comparáveis e políticas de acesso semelhantes. Terceiro, como reguladores e institutos de avaliação vão atualizar testes para medir agentes em ambientes defendidos, não apenas em laboratórios vulneráveis. Quarto, se o ecossistema open source receberá recursos suficientes para corrigir o volume de falhas que ferramentas assim podem revelar.
O Claude Mythos não deve ser visto como ficção científica nem como solução mágica. Ele é um sinal de que a IA está entrando em uma fase em que capacidades de programação, autonomia e segurança se combinam de forma mais poderosa. Para empresas, a resposta mais inteligente é pragmática: fortalecer fundamentos hoje, experimentar IA defensiva com governança técnica real e tratar acesso a modelos sensíveis como infraestrutura crítica.
Sobre o autor
Editor — Techify
Rob é editor da Techify e escreve sobre IA aplicada, automação e engenharia de sistemas para empresas que querem escalar.
- Focado em automação com IA aplicada