Não Confie na Máquina

A IA se tornou poderosa demais para confiar cegamente

In partnership with

Become An AI Expert In Just 5 Minutes

If you’re a decision maker at your company, you need to be on the bleeding edge of, well, everything. But before you go signing up for seminars, conferences, lunch ‘n learns, and all that jazz, just know there’s a far better (and simpler) way: Subscribing to The Deep View.

This daily newsletter condenses everything you need to know about the latest and greatest AI developments into a 5-minute read. Squeeze it into your morning coffee break and before you know it, you’ll be an expert too.

Subscribe right here. It’s totally free, wildly informative, and trusted by 600,000+ readers at Google, Meta, Microsoft, and beyond.

Acima temos o anunciante da News dessa semana  Se puder, clique no link do anunciante acima para deixar seu apoio (é grátis!) ❤️

Semana passada, uma PM de uma empresa grande me contou uma história que me deixou desconfortável.

Ela tinha usado Claude pra analisar 20 entrevistas de usuários. O output das solicitações veio impecável: themes organizados, quotes com timestamp, recomendações claras. Ela montou o deck, apresentou pro board, e conseguiu aprovação pra um investimento de $2M num feature novo.

Três meses depois, uma estagiária curiosa foi checar as citações originais. Metade das quotes não existia. A AI tinha costurado frases de entrevistados diferentes, inventado timestamps, e construído uma narrativa coerente — mas falsa.

A feature foi implementada. O dinheiro foi gasto. E a "evidência" que sustentava tudo era ficção gerada por uma máquina extremamente convincente.

Essa história não é única. E essa semana, três notícias diferentes convergem pro mesmo ponto: a AI está poderosa demais pra ser confiada cegamente — nos seus dados, no seu negócio, e nas mãos de governos.

1️⃣ Sua AI Está Mentindo Pra Você (E Você Nem Percebe)

Caitlin Sullivan, veterana em pesquisa de usuários que já treinou times na Canva e no YouTube, publicou essa semana no Lenny's Newsletter um artigo que deveria ser leitura obrigatória pra qualquer pessoa que usa AI pra analisar dados.

O título: "How to do AI analysis you can actually trust."

A tese: não dá pra confiar.

Pelo menos não sem um processo de verificação rigoroso. Sullivan identificou quatro modos de falha que acontecem toda vez que você joga dados de pesquisa num LLM:

Modo 1: Evidência inventada. A AI não "busca" citações como um mecanismo de busca. Ela gera texto que parece uma citação. Se o contexto é sobre frustração com preço, ela vai gerar linguagem de frustração-com-preço que soa como algo que alguém disse. Às vezes acerta. Às vezes fabrica. E os IDs de participante e timestamps? Também podem ser inventados.

Modo 2: Insights genéricos. "Usuários valorizam confiabilidade." "Preço é um fator nas decisões." Verdade, provavelmente. Mas inútil. LLMs são máquinas de encontrar consenso — eles surfam o padrão mais óbvio e entregam algo que poderia sair de qualquer estudo, de qualquer produto, de qualquer indústria.

Modo 3: Sinais que não guiam decisões. "18% dos churned respondents precisam de mais orientação acionável." Ok — mas orientação sobre o quê? Métricas mais claras? Planos de treino? As duas coisas? O cluster é amplo demais pra tomar uma decisão.

Modo 4: Insights contraditórios. A AI encontra que usuários querem simplicidade e mais features avançadas. Ambos são verdade — mas vindos de segmentos diferentes. Sem essa distinção, você constrói pra ninguém.

O fix? Sullivan propõe algo que vai contra a preguiça natural de quem usa AI: verificação quote por quote. Depois da análise, você roda um segundo prompt pedindo pra AI confirmar se cada citação existe verbatim no material original. O resultado típico? Mais da metade são paráfrases ou fabricações.

Cinco minutos extras. A diferença entre uma decisão de produto baseada em evidência e uma baseada em ficção convincente.

2️⃣ Os Três Fossos que Estão Derretendo

Enquanto a AI mente nos seus relatórios de pesquisa, ela também está corroendo as fundações do modelo de negócio que sustenta metade da indústria de software.

As ações de empresas SaaS globais despencaram nesse início de 2026. Salesforce, ServiceNow — quedas de dois dígitos. Centenas de bilhões em valor de mercado evaporaram. E o motivo não é uma recessão. É um artigo viral.

Nicolas Bustamante, CEO da Fintool, publicou uma análise que está circulando entre investidores tech com a velocidade de um meme. A tese dele: três moats clássicos de software estão derretendo.

Moat 1: Interfaces aprendidas. Durante décadas, empresas de software investiram em interfaces complexas que criavam lock-in. Aprender Salesforce leva meses. Trocar custa caro — não pelo preço, mas pelo retreinamento. Mas quando o usuário pode simplesmente pedir o que quer em português, a interface aprendida vira irrelevante. A complexidade que era barreira de saída agora é só... complexidade.

Moat 2: Workflows customizados. Anos de engenharia pra codificar processos específicos de indústria. Agora, um domain expert com acesso a um LLM escreve o mesmo workflow num arquivo markdown em uma semana. O que levava um time de 10 engenheiros e 18 meses agora é um prompt bem construído.

Moat 3: Scaffolding de dados públicos. Empresas que construíram valor agregando, organizando e apresentando dados públicos (regulatórios, financeiros, jurídicos) estão vendo esse valor comoditizar em tempo real. Modelos de fronteira já sabem parsear esses documentos direto do treinamento.

Mas Bustamante não é só doom-and-gloom. O que sobrevive?

Empresas com dados verdadeiramente proprietários — dados que nenhum modelo consegue sintetizar. AI precisa de inputs únicos, e quem os tem pode até fortalecer sua posição.

E lock-ins regulatórios — como os sistemas de saúde da Epic. Compliance não vai a lugar nenhum. A demanda por conformidade é à prova de disrupção.

A lição pra quem constrói software (e isso inclui nós na Olmps): se o seu moat é complexidade ou agregação de dados públicos, você está nu. Se é dado proprietário, relacionamento, ou expertise regulatória, você provavelmente está mais seguro do que pensa.

3️⃣ Quem Decide os Limites da Máquina?

Agora zoom out. Porque enquanto discutimos se a AI é confiável nos nossos decks e nos nossos negócios, uma briga muito maior está acontecendo.

O Pentágono está "perto" de cortar relações com a Anthropic — a empresa por trás do Claude — e classificá-la como "risco na cadeia de suprimentos." Uma designação normalmente reservada pra adversários estrangeiros.

O motivo? A Anthropic se recusa a liberar Claude para "todos os fins legais" que o Departamento de Defesa exige. Especificamente, duas linhas vermelhas:

  1. Vigilância em massa de cidadãos americanos.

  2. Armas autônomas.

O Claude já é o único modelo de AI nos sistemas classificados do Pentágono. Foi reportedly usado via Palantir na operação que capturou Nicolás Maduro em janeiro. A Anthropic não se opôs a isso — mas se recusa a dar um cheque em branco.

Do outro lado da mesa, OpenAI, Google e xAI oferecem termos mais flexíveis. O mercado está pronto pra substituir quem tiver escrúpulos.

O contrato em jogo vale até $200 milhões. Se a designação de "risco" for efetivada, todos os contratados de defesa dos EUA teriam que cortar relações com a Anthropic. Não só o Pentágono — toda a cadeia.

Isso não é uma discussão abstrata sobre ética de AI. É uma empresa dizendo "não" pra quem tem o maior orçamento do planeta. E sendo potencialmente punida por isso.

A pergunta que fica: se o Pentágono consegue pressionar a Anthropic a abrir mão dos guardrails, quem sobra pra dizer não?

4️⃣ O Padrão que Conecta Tudo

Olha o fio:

No nível micro, a AI fabrica evidências e você toma decisões de produto baseadas em ficção. O fix: verificar antes de confiar.

No nível médio, a AI destrói vantagens competitivas que levaram décadas pra construir. O fix: construir sobre o que não pode ser replicado — dados únicos, relacionamentos, expertise profunda.

No nível macro, governos pressionam pra usar AI sem guardrails éticos. O fix: que existam empresas dispostas a dizer não — e que o mercado não as puna por isso.

O padrão é o mesmo nos três casos: a tentação de confiar cegamente porque o output é impressionante.

O deck com quotes inventadas parece rigoroso. O SaaS com interface complexa parece defensável. O modelo de AI que obedece sem limites parece mais útil.

Mas "parece" não é "é."

5️⃣ Confiança é Processo, Não Sentimento

Tem uma frase da Sullivan que grudou:

"Esses erros são invisíveis até que um stakeholder faz uma pergunta que você não consegue responder, ou uma decisão desmorona três meses depois, ou você percebe que a 'evidência de clientes' por trás de um investimento grande tinha buracos enormes."

Confiança em AI não é um botão que você liga ou desliga. É um processo de verificação contínua. É saber onde a máquina brilha (velocidade, padrões, síntese) e onde ela tropeça (nuance, contexto, ética).

Na edição passada, falamos sobre autonomia como músculo. Essa semana o tema-irmão: confiança como processo.

Confiar na AI sem verificar é como confiar no GPS sem olhar pela janela. Funciona 95% das vezes. Nos outros 5%, você está dirigindo pro rio.

🔮 O Shift

A era da AI confiante já chegou. A era da AI confiável ainda não.

Todo output de AI vem com um disclaimer invisível: "isto é estatisticamente provável, não necessariamente verdadeiro." Mas a confiança do formato — as quotes com timestamp, os themes organizados, as recomendações claras — nos faz esquecer disso.

O diferencial de quem vai navegar bem essa era não é usar mais AI ou menos AI. É saber quando duvidar.

Duvidar do deck com quotes perfeitas demais. Duvidar do modelo de negócio que parece defensável demais. Duvidar do governo que promete usar poder sem limites "só pro bem."

Ceticismo saudável não é ser contra AI. É ser a favor de decisões que sobrevivem ao escrutínio.

🚀 Sua missão para os próximos 7 dias

  1. Verifique uma análise. Na próxima vez que usar AI pra analisar dados (entrevistas, surveys, feedback), rode o prompt de verificação de quotes. Conte quantas são reais vs. fabricadas. O número vai te surpreender.

  2. Audite seus moats. Liste as 3 maiores vantagens competitivas do seu produto ou negócio. Pra cada uma, pergunte: "um LLM poderia replicar isso em 6 meses?" Se sim, esse moat tem prazo de validade.

  3. Escolha uma fonte de AI e questione. Pegue uma recomendação que a AI te deu essa semana — de produto, de investimento, de qualquer coisa. Busque a fonte original. Confirme se é real. Construa o hábito.

Como você avalia a newsletter de hoje?

Sua resposta será utilizada para guiar os próximos conteúdos.

Faça Login ou Inscrever-se para participar de pesquisas.

📚 Conteúdos Recomendados

📄 Artigo: How to do AI analysis you can actually trust — Lenny's Newsletter — O guia completo de Caitlin Sullivan sobre os 4 modos de falha de AI em pesquisa de usuários. Leitura obrigatória pra PMs e researchers.

📄 Artigo: SaaS moats are crumbling — Nicolas Bustamante — A análise viral sobre por que ações de SaaS estão despencando e quais moats sobrevivem à era da AI.

📄 Artigo: Anthropic-Pentagon feud escalates — Axios — Os detalhes da briga entre a Anthropic e o Departamento de Defesa americano sobre limites éticos de uso militar.

🔒 Artigo: OpenAI introduces Lockdown Mode — OpenAI — O novo modo de segurança do ChatGPT que limita navegação e conexões externas pra usuários de alto risco.

Forte abraço,

Equipe Olympus