Existe uma narrativa sedutora dominando o mercado: a de que inteligência artificial resolve tudo com pouco esforço. Gurus vendem a ideia de faturamentos astronômicos trabalhando 30 minutos por dia — números que, extrapolados para jornadas de 40 horas semanais, ultrapassariam o PIB de países pequenos. A promessa é irresistível. E é exatamente por isso que merece crítica.
O problema não está na IA em si. As ferramentas são extraordinárias e evoluem a cada semana. O problema é o uso indiscriminado: delegar não apenas a execução de uma tarefa, mas todo o raciocínio por trás dela. Quando você terceiriza o pensamento crítico, perde a capacidade de identificar quando a máquina errou — e ela vai errar.
O profissional que falta no mercado
O que vejo surgindo como necessidade crítica é um perfil de profissional que sabe auditar o trabalho de uma IA. Alguém que conhece o resultado esperado, é crítico o suficiente para perceber qual contexto a ferramenta entendeu errado ou simplesmente inventou, e sabe corrigir o rumo. Não é sobre saber usar a IA. É sobre saber quando ela está errada.
Um exemplo real: quando a IA recomenda o oposto do que faz sentido
Você deve ter visto o caso recente do criador de conteúdo Husk pedindo pro ChatGPT contar o tempo que ele levava para correr 1 milha, onde o ChatGPT afirma depois de 2 segundos que se passaram 10 minutos. Quando o Husk questiona o tempo, vemos um caso de gaslighting da IA dizendo que entende a frustração dele achar que correu mais rápido.
Recentemente, na Essi, testamos dar acesso de leitura das nossas campanhas de mídia para uma IA identificar oportunidades de otimização — ajustes em anúncios, segmentação, estratégia de lance. O ICP do cliente, um contexto que vivemos na operação diariamente, estava claro: homens 35+.
A recomendação da IA? Criar uma campanha exclusiva para mulheres 18–24. A lógica dela: menor frequência e CPM mais baixo nesse segmento, já que o público de homens 35+ estava saturado. Do ponto de vista métrico, faz sentido. Do ponto de vista estratégico, é um desperdício de verba. A IA não tinha o contexto do negócio — e entregou uma resposta confiante sobre uma premissa errada.
É um exemplo simples, mas reforça o ponto central: saber o que a IA não possui de contexto é tão importante quanto saber usá-la. Sem isso, você não audita — apenas aceita.
O problema que ninguém quer resolver: dados confiáveis
Passei por operações de diversos tamanhos e em todas elas encontrei o mesmo problema: dados que ninguém confia. O relatório de vendas entregue diariamente pelo time comercial, mas com conceitos não tão claros — o cliente comprou, porém o produto não foi entregue, então é uma venda ou uma venda em potencial? O comercial conta como venda, o financeiro não. E ninguém entra em consenso sobre o KPI que vai medir os dois times.
Ou a operação menor: um lead com janela de conversão de três meses que chegou pelo WhatsApp, mas o funcionário ficou doente naquele dia. O dono atendeu, mas não registrou na planilha. Ou quando mudam o sistema de CRM e o modelo de exportação é outro, e alguém precisa refazer a estrutura inteira do banco de dados.
São cenários que se repetem em qualquer empresa: dados não padronizados, informações perdidas, lacunas de jornada. E dados são a matéria-prima de qualquer IA. Alimentar uma ferramenta com dados ruins não gera inteligência — gera confiança em respostas erradas.
O consultor de 20 anos de experiência que mora no seu prompt
“Atue como um consultor estratégico com mais de 20 anos de experiência…” — o prompt clássico. O que um consultor de verdade faria primeiro é te dizer que você precisa de uma gestão adequada dos seus dados, porque é dali que saem os aprendizados e as decisões. Mas a IA não faz isso. Ela tenta te responder de qualquer jeito, com 20 anos ou 20 minutos de experiência fictícia, mesmo quando a pergunta não faz sentido com os dados que tem.
Fica oculto, nessa narrativa de produtividade mágica, que o esforço real está em fornecer matéria-prima adequada para as ferramentas. Não é sobre o prompt perfeito. É sobre ter dados organizados, contexto claro e uma pessoa crítica do outro lado da tela.
O que eu recomendo
Crie obsessão pelos seus dados. Saiba onde está cada informação. Garanta que você e seu time sabem exatamente o que a sua IA tem de contexto e o que não tem. Porque a diferença entre uma recomendação brilhante e uma alucinação perigosa muitas vezes é apenas um dado que faltou.
E tome cuidado com o seu guru de bolso. Aquela velha história de quando a esmola é alta demais ainda é válida — talvez agora mais do que nunca.
Filipe Almeida • Essi Digital
