SpaceX Militarizada, o TikTok Rastreia Tudo Mundo e a IA Já Superou Programadores?
Bom dia! Hoje é 17 de fevereiro. Neste mesmo dia, em 1996, o supercomputador Deep Blue, da IBM, derrotava pela primeira vez o campeão mundial de xadrez Garry Kasparov em uma partida oficial, inaugurando uma era em que máquinas começariam a superar humanos em domínios cognitivos antes considerados intransponíveis.
Quase três décadas depois, a inteligência artificial não apenas joga xadrez melhor que qualquer ser humano, mas também coordena enxames de drones autônomos, rastreia comportamentos de pessoas que jamais a utilizaram e encontra vulnerabilidades em códigos que milhares de engenheiros nunca detectaram. O tabuleiro mudou, mas a partida entre homem e máquina segue mais intensa do que nunca.
A SpaceX está na Disputa por um Contrato Militar
A entrada da SpaceX e da xAI na disputa por um contrato sigiloso de US$ 100 milhões do Pentágono Americano para desenvolver uma nova tecnologia de enxames de drones autônomos controlados por voz e IA, representa uma curva na trajetória do novo conglomerado de Elon Musk.
Com a recente fusão anunciada no início de fevereiro entre as duas empresas, sua estratégia ganha, agora, contornos mais nítidos: não se trata apenas de data centers orbitais ou modelos de linguagem mais competitivos, mas sim de uma integração que pode posicionar Musk como um dos principais fornecedores da infraestrutura militar americana do século XXI.
A tecnologia em disputa envolve algo que o setor militar denomina “enxames de drones autônomos controlados por voz”. Na prática, trata-se de um sistema capaz de receber comandos verbais de um operador humano, convertê-los em instruções digitais por meio de inteligência artificial e, a partir disso, coordenar dezenas ou centenas de drones simultaneamente para executar uma missão.
Diferente de operações tradicionais, onde cada drone exige um piloto remoto dedicado, a lógica do enxame pressupõe que as aeronaves se comuniquem entre si, ajustem trajetórias em tempo real e tomem microdecisões de forma autônoma, como um cardume que se move em conjunto mesmo sem a presença de um líder central. O operador, nesse modelo, deixa de controlar cada unidade individualmente e passa a comandar o comportamento coletivo do grupo.
Contudo, o desafio técnico que o conglomerado do bilionário enfrentará, caso vença a licitação, é considerável. Embora já seja possível operar múltiplos drones ao mesmo tempo, a coordenação verdadeiramente autônoma de enxames, com deslocamento independente em direção a alvos no mar e no ar, permanece uma fronteira ainda não conquistada.
A proposta de converter comandos de voz em instruções digitais adiciona uma camada de complexidade que exige precisão absoluta, afinal, modelos de linguagem de grande escala, como o Grok da xAI, estão sujeitos a vieses e alucinações que, em contextos civis, geram constrangimentos, mas em operações militares podem significar catástrofes. Especialistas do próprio Pentágono alertam que será essencial limitar a IA generativa à tradução de comandos, sem permitir que ela controle diretamente o comportamento dos drones.
Musk, que já defendeu restrições ao desenvolvimento de “novas ferramentas para matar pessoas”, agora, descobriu que os maiores orçamentos, as maiores escalas e as maiores urgências residem no setor de defesa. A própria SpaceX já é fornecedora tradicional do Pentágono e a xAI já fechou contratos de US$ 200 milhões para integrar o Grok a sistemas militares.
O que muda agora, porém, é a fusão dessas capacidades em uma única proposta integrada: um conglomerado capaz de combinar acesso ao espaço, infraestrutura global de comunicação, inteligência artificial de fronteira e, potencialmente, sistemas autônomos de armas - é a consolidação de Musk como o rosto do futuro.
O TikTok Rastreia Até Mesmo Quem Está de Fora
A revelação de que o pixel de rastreamento (pequeno código incorporado em sites, e-mails ou anúncios para monitorar o comportamento do usuário) do TikTok passou a captar informações de usuários que sequer possuem conta na plataforma expõe uma dimensão frequentemente ignorada da economia de dados: a de que a vigilância não requer participação ativa.
A análise conduzida pela empresa de cibersegurança Disconnect aponta que a nova versão do aplicativo, lançada após a transferência de suas operações para o Estados Unidos, seria “extremamente invasiva”, interceptando dados enviados por sites para outras plataformas, incluindo informações sensíveis sobre saúde, fertilidade e busca por apoio em saúde mental.
O mecanismo é tecnicamente simples, mas poderoso por si. Pixels de rastreamento são pequenos fragmentos de código, invisíveis ao usuário, que sites inserem em suas páginas para monitorar comportamentos: cliques, tempo de permanência, produtos visualizados, formulários preenchidos. Quando você pesquisa um tênis em uma loja online e, minutos depois, vê anúncios daquele mesmo modelo em outras páginas, é o pixel operando. Ele identifica sua atividade, envia os dados à plataforma de origem e permite que anunciantes o “sigam” pela internet com ofertas personalizadas.
A mudança recente no TikTok ampliou esse alcance de forma significativa. Antes, o pixel do TikTok media apenas resultados dentro do aplicativo, registrando se um usuário que viu um anúncio na plataforma realizou a ação desejada. Agora, ele também acompanha usuários após saírem do TikTok, rastreando o que fazem em outros sites.
A mudança torna os anúncios no TikTok mais atraentes para empresas, ampliando a presença da ferramenta em mais páginas da web.
Atualmente, a internet, como algoritmo, tornou-se um ambiente onde a opção de não participar simplesmente não existe. O debate sobre privacidade digital, portanto, precisa abandonar a ficção do consentimento informado e enfrentar a realidade de que a arquitetura técnica atual pressupõe vigilância como condição de funcionamento. A questão deixa de ser “como proteger meus dados” e passa a ser “quem controla o sistema que me observa”, e essa pergunta, no caso do TikTok pós-transferência, adquire contornos geopolíticos que transcendem a mera publicidade digital.
A IA Encontrou Vulnerabilidades que Nenhum Programador Tinha Encontrado
A Anthropic revelou que o Claude Opus 4.6, versão atualizada de seu modelo de IA mais avançado, identificou mais de 500 vulnerabilidades de segurança de alta gravidade em bibliotecas de código aberto, nenhuma delas conhecida publicamente. O feito não foi resultado de instruções específicas para caçar falhas: colocado em uma máquina virtual para analisar projetos de código aberto, o modelo simplesmente começou a listar brechas de dia zero enquanto revisava códigos.
O método de operação deste LLM nos revela uma sofisticação que ultrapassa a mera automação de tarefas repetitivas. O Claude Opus 4.6 age como um programador humano experiente, examinando correções anteriores à caça de bugs semelhantes ainda abertos, identificando padrões que podem causar problemas.
Além disso, no teste, cada vulnerabilidade encontrada pela IA passou por validação de pesquisadores humanos para garantir que as descobertas não eram alucinações (e não eram, ele acertou em todas). Entre as falhas divulgadas, posteriormente corrigidas, estavam brechas no GhostScript, utilitário que processa arquivos PDF, no OpenSC, que manipula dados de cartões inteligentes, e no CGIF, biblioteca de arquivos GIF. Os engenheiros da Anthropic se surpreenderam com a capacidade do modelo de validar e produzir provas de conceito para comprovar a existência dos bugs.
As implicações deste feito, mesmo que para o público em geral seja silencioso, para a indústria de software, foram muito barulhentas. Afinal, bibliotecas de código aberto formam a base invisível da infraestrutura digital global: sistemas bancários, plataformas de comércio eletrônico, aplicativos de saúde e infraestrutura crítica dependem de componentes que, em muitos casos, são mantidos por equipes reduzidas de voluntários.
A capacidade de uma IA encontrar centenas de vulnerabilidades que escaparam a milhares de revisores humanos sugere que o déficit de segurança no ecossistema de código aberto é substancialmente maior do que se estimava. Diante disso, para nossas empresas, isso significa que auditorias de segurança conduzidas apenas por humanos podem não ser suficientes e, para desenvolvedores de código aberto, a ferramenta representa uma oportunidade de elevar drasticamente a qualidade de seus projetos, ou seja, usar a ferramenta para se destacar, e não como instrumento de medo.








