Mythos, da Anthropic: abrimos a "caixa de pandora"?
Existe um padrão silencioso na evolução da inteligência artificial. Primeiro, ela impressiona. Depois, ela escala. E então, ela começa a assustar. O Mythos, da Anthropic, parece ser exatamente esse ponto de virada. O que se sabe, até agora, já é suficiente para mudar o tom da conversa.
O Mythos não é apenas mais um modelo de linguagem. Ele é descrito como um sistema com capacidades de segurança cibernética que superam os maiores especialistas humanos. Durante testes internos, foi capaz de identificar e explorar vulnerabilidades críticas em softwares reais, inclusive falhas desconhecidas - os chamados “zero-days” (destruidores) em sistemas amplamente utilizados no mundo inteiro . Em alguns casos, encontrou brechas que estavam escondidas há décadas. Em outros, conseguiu transformar falhas conhecidas em ataques completos, de forma autônoma.
Isso muda tudo. Porque até aqui, a narrativa da IA era sobre produtividade, criatividade e eficiência. O Mythos desloca essa narrativa para outra dimensão: poder ofensivo. Pela primeira vez, estamos olhando para uma inteligência que não apenas entende sistemas, mas consegue quebrá-los. E o mais relevante: isso não exige especialistas.
Engenheiros sem formação em segurança conseguiram, com o auxílio do modelo, gerar “códigos de ataque” completos da noite para o dia . Ou seja, o que antes era restrito a uma elite técnica altamente especializada, agora começa a ser democratizado. É aqui que o tema deixa de ser técnico e passa a ser de segurança internacional.
Bancos centrais, governos e grandes instituições financeiras já estão tratando o Mythos como um risco sistêmico. Executivos de bancos globais alertaram que a tecnologia pode expor vulnerabilidades críticas em larga escala e até gerar disrupções no sistema financeiro . O próprio governo americano abriu discussões diretas com a Anthropic sobre implicações de segurança nacional.
Isso não é comum. Modelos de IA não costumam gerar reuniões com Casa Branca, bancos centrais e líderes financeiros ao mesmo tempo. Quando isso acontece, é porque a tecnologia ultrapassou um limite invisível. E talvez o ponto mais simbólico de todos: o Mythos não foi liberado para o público.
A própria Anthropic afirmou que o modelo é “potencialmente perigoso demais” para ser aberto . Esse movimento é raro. Desde o GPT-2, não víamos uma empresa segurar um modelo por risco direto. Mas aqui entra uma camada ainda mais provocadora. Alguns especialistas começam a questionar se o Mythos é realmente um salto tão radical ou se já estamos mais próximos disso do que imaginamos.
Há análises sugerindo que capacidades semelhantes podem emergir rapidamente em modelos disponíveis publicamente . Se isso for verdade, o Mythos não é a exceção. Ele é apenas o primeiro a mostrar o que já está vindo. E isso nos leva ao ponto central: o Mythos não é só sobre tecnologia. Ele é sobre assimetria.
Quando uma inteligência consegue encontrar milhares de vulnerabilidades em sistemas globais, ela não está apenas otimizando processos. Ela está redefinindo o equilíbrio entre ataque e defesa. E historicamente, quando essa balança se desloca, quem está preparado sobrevive. Quem não está, desaparece.
A própria Anthropic já antecipou o próximo passo: versões ainda mais avançadas estão a caminho. Mythos 2, Mythos 3… uma sequência que não desacelera . Isso transforma o tema em corrida. Não mais entre empresas. Mas entre sistemas entre países, entre estruturas inteiras.
Curte meus insights? Entre no canal Entrelinhas no WhatsApp e receba os conteúdos e bastidores das empresas antes de todo mundo. Clique aqui.
No limite, a pergunta deixa de ser “o que essa IA consegue fazer?” e passa a ser “quem controla isso?” Porque, se uma máquina consegue entender profundamente a arquitetura do mundo digital e explorar suas fragilidades, estamos falando de algo que se aproxima de uma infraestrutura de poder.
O Mythos não é o fim da linha. Mas pode ser o primeiro sinal claro de que cruzamos uma fronteira. E quando uma tecnologia começa a ser tratada como risco sistêmico antes mesmo de ser amplamente usada, talvez o problema não seja o que ela já fez. Mas o que ainda pode fazer.




