Qual é o risco? A inteligência das máquinas ou a imaturidade dos humanos?
Há algo curioso, e até desconfortável, acontecendo no centro da revolução mais importante do nosso tempo. Os homens responsáveis por construir o futuro da inteligência artificial estão, ao mesmo tempo, protagonizando disputas públicas que lembram mais um feed de rede social do que o comando de uma tecnologia que pode redefinir a sociedade.
No recente embate judicial envolvendo Elon Musk e Sam Altman, a própria juíza precisou intervir para repreender o comportamento dos envolvidos, criticando a troca de provocações públicas como se aquilo fosse parte do processo. Esse detalhe, aparentemente periférico, talvez seja o mais revelador de todos.
Na superfície, a disputa gira em torno da essência da OpenAI, se a organização teria ou não se desviado de sua missão original de desenvolver inteligência artificial para o benefício da humanidade. Musk sustenta que sim, que a empresa se transformou em uma estrutura orientada a lucro, especialmente após sua aproximação com a Microsoft.
Altman, por outro lado, argumenta que essa transformação foi necessária para garantir escala, competitividade e sobrevivência em um cenário global extremamente agressivo. Mas, olhando com mais frieza, essa discussão não é sobre missão, propósito ou filosofia. É sobre poder. Quem controla a tecnologia mais estratégica do século? Quem define seus limites? Quem captura o valor gerado por ela? Essas são as perguntas reais por trás do ruído.
Existe, no entanto, uma camada ainda mais profunda nessa história. A geração que se posicionou como ruptura do modelo corporativo tradicional, criticando estruturas lentas, políticas e burocráticas, começa a reproduzir exatamente os mesmos padrões que dizia combater. A diferença é que agora tudo acontece em escala global e em tempo real.
Cada declaração pública vira ativo estratégico, cada movimento influencia mercados, cada narrativa molda percepção. E, mesmo assim, o comportamento ainda parece guiado por impulsos básicos de disputa, atenção e posicionamento. Isso revela um desalinhamento perigoso: a tecnologia avançou mais rápido do que a maturidade de quem a lidera.
Curte meus insights? Entre no canal Entrelinhas no WhatsApp e receba os conteúdos e bastidores das empresas antes de todo mundo. Clique aqui.
O problema é que não estamos falando de qualquer setor. A inteligência artificial não é apenas mais uma indústria. Ela está rapidamente se tornando a infraestrutura invisível sobre a qual decisões serão tomadas, sistemas serão operados e relações serão mediadas. Quando o controle dessa camada passa a ser disputado sob lógica de ego, o risco deixa de ser técnico e passa a ser existencial. Não é sobre falhas no código, mas sobre falhas humanas. E isso muda completamente o tipo de atenção que deveríamos dar a esses movimentos.
Talvez o maior paradoxo desse momento seja justamente esse. Enquanto cresce o debate sobre os limites da inteligência artificial e seu potencial de substituir humanos em diversas funções, os próprios humanos que lideram essa transformação ainda demonstram dificuldade em superar padrões comportamentais básicos, como vaidade, necessidade de controle e disputa de narrativa.
No fim, a questão não é apenas se a IA será confiável. A questão central passa a ser quem são as pessoas que estão por trás dela e quais são os incentivos que realmente guiam suas decisões. Porque, se a base continuar sendo construída sobre conflitos dessa natureza, o risco não está na inteligência das máquinas, mas na imaturidade de quem as programa.



