No início de 2025, o DeepSeek — modelo de Inteligência Artificial com desempenho próximo ao do ChatGPT e custo operacional bem menor — foi lançado e expôs uma nova fase da disputa em IA generativa. O impacto saiu do campo técnico e chegou ao mercado financeiro, levando a uma queda de cerca de 16% nas ações da Nvidia e à perda de US$ 589 bilhões em valor de mercado em um único dia, em um dos maiores recuos já registrados na bolsa americana.
O recado que esse tipo de movimento passa é direto: os modelos estão ficando mais eficientes, mais baratos e mais acessíveis, e a equação dentro das empresas passa a ser apenas escolher o modelo certo, rodar em uma boa infraestrutura e esperar ganhos em eficiência, receita e produtividade.
A realidade operacional, entretanto, não acompanha essa narrativa. Relatórios de consultorias globais mostram que a maioria das organizações ainda não consegue transformar iniciativas de IA em valor escalável. O Boston Consulting Group (BCG), por exemplo, indica que 74% das empresas enfrentam dificuldades para extrair e ampliar valor em IA, mesmo após investimentos relevantes.
Quando se aprofunda nesse cenário, um padrão se repete: o principal obstáculo não está na falta de modelos ou APIs, mas na base que sustenta tudo isso. Dados espalhados em múltiplos sistemas, pouca padronização, redundâncias, lacunas de governança e arquiteturas que não foram desenhadas para alimentar IA de forma contínua fazem com que muitos projetos consumam tempo e orçamento, mas travem na hora de escalar.
Este conteúdo parte da tensão entre a velocidade da inovação em IA e a capacidade real das empresas de capturar valor. A proposta é mostrar por que a maturidade de dados se tornou um fator decisivo, como o investimento em IA costuma se concentrar sem voltar em resultados e o que diferencia organizações que escalam valor daquelas que acumulam pilotos e contas de cloud crescentes.
A nova fase da corrida de inovação e IA
A disputa em torno da IA generativa hoje não se resume a um único modelo. Depois do movimento protagonizado pelo DeepSeek, modelos como Claude, Gemini, Pi e Mistral passaram a dividir o centro do palco, cada um tentando provar que oferece a melhor combinação entre desempenho, custo e especialização para uso corporativo. A cada anúncio, novas comparações de benchmarks, preços e casos de uso entram na mesa de decisão das empresas.
Nesse contexto, os executivos entendem que a IA é um vetor de transformação e pode ser incorporada em praticamente qualquer processo. O discurso em torno de agentes autônomos (agentic AI), capazes de orquestrar tarefas complexas, interagir com múltiplos sistemas e apoiar decisões em tempo real, ganha ainda mais atenção.
Com esse cenário e a pressão competitiva avançando, muitas organizações entram em um ciclo intenso de experimentação. Surgem laboratórios de GenAI, provas de conceito em diferentes áreas, integrações pontuais com aplicações existentes e pilotos operando em ambientes controlados para “testar o potencial” da tecnologia.
Porém, quando se observa o resultado, o contraste aparece. Pesquisas com executivos e estudos de mercado indicam que, embora o uso de IA e GenAI tenha se espalhado com rapidez, poucas empresas conseguem transformar essas iniciativas em ganho estrutural de eficiência, receita ou margem. Em muitos casos, projetos permanecem no estágio de piloto ou em uso restrito, sem alcançar a escala necessária para justificar o investimento.
É nesse ponto que a discussão deixa de ser apenas sobre qual modelo performa melhor e passa a tocar na pergunta central: como alinhar dados, arquitetura, governança e objetivos de negócio para que qualquer modelo, independentemente do fornecedor, consiga gerar valor real dentro da empresa?
Para chegar perto dessa resposta, é preciso olhar antes para qual é o custo de inovar em IA quando a base não está estruturada.
O custo de inovar em IA sem base preparada
Depois de alguns ciclos de piloto, muitas empresas descobrem que estão gastando mais do que gostariam e capturando menos valor do que esperavam. A raiz desse descompasso, na prática, está em dois tipos de custo: o que é fácil de ver e o que fica escondido na base de dados e na operação.
O custo aparente da IA
Quando uma empresa decide investir em Inteligência Artificial, a primeira leva de despesas é relativamente previsível. Normalmente entram nessa conta:
- Licenças de plataformas e APIs de modelos;
- Infraestrutura em nuvem, especialmente Unidades de Processamento Gráfico (GPUs) para treinar ou rodar modelos mais pesados;
- Times especializados (cientistas de dados, engenheiros de ML, desenvolvedores);
- Consultorias para desenho de casos de uso e implementação;
- Ferramentas de MLOps para orquestrar pipelines e monitorar modelos.
Esse conjunto de itens é tangível, entra em propostas formais, aparece em contratos e pode ser projetado em planilhas para a área financeira. Olhando só para ele, a discussão parece girar principalmente em torno de negociar preços, comparar modelos e dimensionar a infraestrutura.
Com o tempo, porém, muitas organizações percebem que a pressão maior sobre o orçamento vem de outra camada.
O custo oculto da IA (o que quase ninguém projeta)
O impacto mais pesado costuma aparecer quando chega a hora de alimentar os modelos com dados reais. Empresas que carregam anos de sistemas legados, múltiplas “fontes da verdade”, integrações frágeis e pouca governança descobrem que, antes de colocar qualquer solução de Inteligência Artificial em produção, precisam investir tempo e esforço significativos apenas para organizar a base.
No dia a dia, isso se traduz em situações como:
- Retrabalho constante de engenharia de dados, com limpeza e transformação refeitas em cada piloto;
- Dependência de pessoas-chave para interpretar bases, exceções e regras informais que nunca foram documentadas;
- Integrações ponto a ponto difíceis de manter, que quebram a cada atualização de sistema;
- Dificuldade para rastrear origem, qualidade e atualidade das informações usadas pelos modelos;
- Aumento de risco regulatório, quando algoritmos acessam dados sensíveis sem controles adequados.
Além do impacto técnico e financeiro, há um efeito direto sobre a confiança das áreas de negócio.
Quando projetos piloto de IA não entregam resultado mensurável, relatórios não batem com a realidade ou times de produto esperam por meses por uma base estruturada que não chega, o entusiasmo inicial dá lugar ao ceticismo. Novos projetos enfrentam mais resistência, a priorização fica mais rígida e a empresa perde velocidade justamente no momento em que o mercado acelera.
Estudos recentes da EY mostram que organizações já registraram perdas financeiras relevantes em incidentes relacionados ao uso de IA, com valores médios na casa de milhões de dólares por empresa afetada.
Projeções da Gartner indicam que 30% dos projetos de GenAI devem ser encerrados ainda na fase de prova de conceito até o fim de 2025, e que mais de 40% dos projetos de agentic AI podem ser cancelados até 2027 devido a custos crescentes, valor de negócio pouco claro e controles de risco insuficientes.
O padrão que emerge é consistente: sem uma base de dados preparada, o custo de inovar em IA cresce rápido, enquanto o retorno fica aquém do planejado. A partir desse ponto, a discussão deixa de ser apenas sobre tecnologia e passa, necessariamente, pela maturidade de dados da organização.
IA sem dados maduros só escala ineficiência
Em termos práticos, a maturidade de dados descreve o quanto uma organização é capaz de trabalhar com informações confiáveis, acessíveis, bem governadas e prontas para alimentar decisões e algoritmos sem depender de retrabalho constante.
Quando esse nível de maturidade é baixo, a IA não corrige problemas — ela amplia. Modelos treinados com dados incompletos ou distorcidos produzem previsões pouco confiáveis. Agentes que dependem de fontes fragmentadas tomam decisões inconsistentes. Processos automatizados sobre bases desatualizadas geram mais retrabalho, exceções e escalonamentos do que ganho real de eficiência.
Alguns sintomas costumam indicar esse cenário:
- Cada área trabalha com sua própria extração ou planilha, e não há consenso sobre qual número está certo;
- Análises relevantes dependem de extrações manuais e tratamentos ad hoc em planilhas;
- Integrações entre sistemas são feitas sob demanda, e mudanças em um ponto derrubam vários fluxos de dados;
- Decisões baseadas em modelos são difíceis de auditar, porque ninguém consegue rastrear quais dados foram usados e em quais condições;
- Não existe ownership claro sobre domínios de dados, qualidade, atualização ou conformidade.
Em muitos casos, o problema se concentra na ausência de um “dado mestre” — uma referência única e confiável para entidades críticas do negócio, como clientes, produtos, contratos ou ativos. Sem esse ponto de verdade, qualquer projeto de IA começa em terreno instável, porque cada sistema traz uma versão diferente da realidade.
Um ambiente preparado para IA segue outra lógica. Dados são consolidados em plataformas modernas (data lakes, lakehouses, data warehouses bem desenhados), pipelines automatizados fazem checagens de qualidade, a governança define quem pode acessar o quê e em quais contextos, e a observabilidade acompanha o fluxo de dados ao longo das aplicações. Internamente, dados passam a ser tratados como produtos, com responsáveis definidos, critérios de sucesso e ciclo de vida claro.
Quando essa fundação está organizada, a IA passa a atuar como parte estruturante da operação, em um ambiente previsível. A automação se apoia em informações confiáveis, os modelos utilizam dados consistentes, as decisões são tomadas com menos atrito e o risco é acompanhado desde o início. Essa mesma base sustenta uma experimentação mais madura, em que “fail fast” significa aprender rápido e ajustar rotas — não transformar inovação em desperdício.
O verdadeiro custo da experimentação em IA
“Testar rápido, aprender rápido” virou um mantra de inovação em IA. Essa lógica ajuda a tirar ideias do papel e a reduzir o tempo entre hipótese e resultado.
O problema começa quando a experimentação não vem acompanhada de alguns elementos básicos, como: problema de negócio claro, hipótese explícita, métrica de sucesso e critério de parada. Sem esse mínimo de estrutura, projetos de IA consomem orçamento e atenção, mas geram pouco aprendizado reaproveitável.
Quando isso acontece, alguns padrões aparecem com frequência:
- Squads testam muitos casos de uso ao mesmo tempo, sem foco suficiente para levar nenhum até um resultado sólido;
- Ambientes de cloud seguem ativos mesmo depois que o piloto perde relevância, acumulando custo mês após mês;
- Modelos são treinados com os dados que estavam disponíveis, e não com bases validadas e alinhadas à governança da organização;
- Lideranças gastam tempo em apresentações de pilotos que não deixam claro se o projeto deve avançar, ajustar rota ou ser encerrado.
Esse tipo de cenário ajuda a explicar por que várias empresas estão revendo sua agenda de inovação em IA.
Um estudo da Qlik com 4.200 executivos C-level e tomadores de decisão em IA mostra que 49% das organizações no Brasil estão reduzindo investimentos na tecnologia. Entre as principais razões aparecem falta de confiança nos resultados, lacunas de habilidade, desafios de governança de dados e questões regulatórias — fatores que dificultam a transição de provas de conceito para implementações em escala.
A experimentação estruturada segue outro caminho: ela começa com um problema de negócio específico e com uma hipótese objetiva sobre como a IA pode contribuir; define metas mensuráveis de sucesso, como redução de custo, aumento de margem, ganho de produtividade, melhoria de conversão; estabelece prazos e critérios explícitos para avançar, ajustar ou encerrar a iniciativa; e, sobretudo, verifica se dados, arquitetura e governança têm o mínimo necessário para sustentar o piloto antes de iniciar qualquer desenvolvimento.
Quando esses elementos estão alinhados, o ciclo de experimentação passa a produzir aprendizado acumulado. A partir desse ponto, entra em cena o papel da liderança em conectar dados, IA e estratégia para decidir onde insistir, onde pausar e onde não investir.
Conectando dados, IA e estratégia nas decisões de liderança
A Inteligência Artificial começa a gerar valor real somente quando as iniciativas estão conectadas à estratégia do negócio, à maturidade da arquitetura de dados e às prioridades de risco e governança da organização. Esse alinhamento não acontece por acaso: depende de decisões de liderança consistentes em alguns eixos bem definidos.
1. Escolha de casos de uso com impacto claro
O primeiro movimento é selecionar onde IA pode fazer diferença de forma mensurável. Em vez de focar em iniciativas pensadas apenas como vitrine ou marketing tecnológico, faz mais sentido priorizar processos com impacto financeiro ou operacional evidente: atendimento, logística, produção, compliance, auditoria, controle de qualidade, cobrança, prevenção a fraudes, retenção de clientes, entre outros. Casos de uso ancorados em eficiência, margem ou receita tendem a ganhar tração e facilitar a defesa de novos investimentos.
2. Arquitetura de dados e nuvem como base, não como detalhe
O segundo eixo está na fundação técnica. Organizar dados com qualidade, governança e acessibilidade antes de escalar IA aumenta a previsibilidade de resultado e reduz surpresas na fatura de cloud. Isso significa tratar arquitetura de dados, nuvem, segurança, observabilidade e FinOps como partes do mesmo desenho, e não como etapas posteriores.
Empresas que seguem esse caminho conseguem controlar melhor custos recorrentes, evitar retrabalho estrutural e sustentar o crescimento sem ter que “parar tudo” para refazer a base.
3. Governança e observabilidade desde os primeiros pilotos
O terceiro pilar diz respeito a como o risco é gerido. Políticas de acesso, critérios de uso ético, mecanismos de auditoria e controles de risco precisam estar presentes desde os primeiros pilotos. Do mesmo modo, monitorar custo, desempenho e qualidade dos resultados em tempo quase real permite ajustes rápidos e reduz a probabilidade de incidentes caros — seja por vieses nos modelos, seja por uso inadequado de dados sensíveis.
Não por acaso, pesquisas como as da Bain & Company mostram que investimentos em dados, analytics e modernização de arquitetura se tornaram prioridade para grandes empresas, incluindo varejistas, no horizonte de 2024 a 2026.
Em paralelo, projeções de mercado como as do Statista indicam que o mercado global de data analytics e big data deve alcançar cerca de US$ 103 bilhões até 2027, reforçando que a vantagem competitiva tende a se concentrar na capacidade de transformar dados em ativos que alimentam essas iniciativas de forma contínua, em vez de se limitar à comparação entre modelos de IA.
Com esse pano de fundo, a questão deixa de ser apenas “como testar IA” e passa a ser “como sair do piloto e chegar à escala com retorno”. É nesse ponto que um roteiro claro de evolução ajuda a orientar próximos passos, do diagnóstico de maturidade de dados até a definição do que deve ou não ser escalado.
Como sair de piloto e escalar com IA: um roteiro em cinco passos
Sair do ciclo de pilotos eternos e levar para a escala exige disciplina, critérios objetivos e coordenação entre negócio, tecnologia, dados e segurança. Um caminho possível pode ser organizado em cinco movimentos que se conectam entre si.
1. Diagnosticar a maturidade de dados e os riscos atuais
Antes de escolher modelos ou ferramentas, é essencial entender o terreno. Onde os dados estão? Quão confiáveis são? Quem responde por cada domínio? Quais riscos já existem no uso atual de informação e IA?
Esse diagnóstico orienta prioridades, revela gargalos estruturais e evita iniciar projetos em bases frágeis que dificilmente chegarão à produção.
2. Priorizar casos de uso com ganho mensurável
Com a fotografia de dados em mãos, o passo seguinte é selecionar onde a IA pode gerar impacto concreto.
Casos de uso com custo elevado, alta recorrência de erro, dependência intensa de mão de obra ou influência direta em margem e receita são candidatos naturais. Iniciativas desconectadas de indicadores de negócio tendem a perder tração com o tempo.
3. Desenhar a arquitetura alvo de dados, IA e cloud com visão de custo
Definidos os casos prioritários, entra em cena a arquitetura. É aqui que se decide como dados, modelos e aplicações vão conversar. A infraestrutura precisa equilibrar desempenho, segurança, governança e custo recorrente.
Incluir FinOps e observabilidade no desenho inicial permite monitorar gastos em cloud, detectar ineficiências e ajustar o ambiente antes que o custo cresça sem controle.
4. Implantar governança e observabilidade desde o primeiro piloto
Governança e monitoramento não são etapas finais, são parte do primeiro passo em produção. Políticas de acesso, critérios de uso, trilhas de auditoria e mecanismos de gestão de risco precisam acompanhar os pilotos desde o início.
Monitorar custo, desempenho e qualidade das recomendações dos modelos em tempo quase real aumenta a confiança das áreas de negócio e reduz a chance de incidentes caros.
5. Escalar o que gera valor e encerrar o que não traz retorno
Por fim, é preciso ter clareza sobre como decidir o que avança. Pilotos que atingem metas de eficiência, receita ou produtividade devem ser escalados com reforço em dados, arquitetura e governança.
Projetos que não entregam o resultado esperado precisam ser ajustados ou encerrados, com o aprendizado registrado para orientar os próximos ciclos. A disciplina em medir ROI fecha o circuito e evita que a experimentação se transforme em um conjunto de iniciativas perpétuas sem conclusão.
Esse roteiro não substitui a complexidade de cada organização, mas oferece uma base prática para tomada de decisão. Na execução, faz diferença contar com parceiros que tenham maturidade em dados, IA, cloud, segurança e observabilidade para acelerar o caminho, reduzir riscos e ajudar a transformar pilotos em capacidades de negócio sustentáveis.
Onde a Nava entra nessa equação
Projetos de inovação em IA ganham relevância real quando se apoiam em dados confiáveis, arquitetura preparada e objetivos de negócio claros. Em vez de aparecerem como iniciativas isoladas, eles se conectam a rotinas críticas da empresa: apoiar decisões, reduzir custos operacionais, melhorar produtividade e ampliar margem com previsibilidade.
Quando maturidade de dados, governança e controle de custo em cloud são considerados em conjunto, a discussão sobre inovação e IA ganha outra profundidade. Além de comparar modelos e funcionalidades, as lideranças passam a lidar com uma questão mais estrutural: como organizar a base de dados, a arquitetura e a governança para sustentar a inovação em IA sem perder de vista risco, compliance e orçamento.
É nesse contexto que a Nava atua como parceira estratégica. A partir de um diagnóstico de dados, arquitetura e uso atual de IA, o time ajuda a priorizar onde faz mais sentido investir, conectando casos de uso a indicadores de eficiência, receita e margem. Na sequência, apoia o desenho e a operação de ambientes que integrem Dados, IA, Cloud, Cibersegurança e Observabilidade, com práticas de FinOps e monitoramento contínuo de desempenho e custo.
Para empresas que já testam IA, mas ainda têm dificuldade em transformar pilotos em resultado consistente, essa visão integrada ajuda a organizar a agenda, concentrar investimentos no que gera retorno e reduzir o “preço oculto” da experimentação. Se esse é o momento da sua organização, fale com um de nossos especialistas e entenda como evoluir em dados e IA, do diagnóstico inicial ao plano alinhado à sua estratégia.