GasCity & Gestão Multi-Agente

Do L1 ao L8: A Escada Que Você Já Está Subindo

E se o Claude Code pudesse rodar o Claude Code?

Essa pergunta — feita por Steve Yegge no começo de 2026 — marca o ponto onde usar IA para código vira algo diferente: construir sistemas que coordenam IA para código.

Chamou de "a maior mudança no meu workflow de programação em duas décadas."

1. A Escada de 8 Degraus

Steve Yegge — ex-Amazon, ex-Google, ex-Grab — publicou Welcome to Gas Town em janeiro de 2026 e formalizou o Developer-Agent Evolution Model: oito níveis de evolução entre desenvolvedores e agentes de IA.

Era do IDE (L1-L3) — A IA é ferramenta no editor.

  • L1: Sem IA. Autocomplete básico. VS Code vanilla.

  • L2: Agente no IDE com permissões ligadas. Cursor, Windsurf, Cline. Você aprova cada ação.

  • L3: Modo YOLO. Permissões desligadas. A confiança sobe, o controle diminui.

Era Agent-First (L4-L6) — A IA vira interlocutor.

  • L4: Diffs desaparecem. Você acompanha a conversa, não o código.

  • L5: CLI, agente único, autônomo. Você manda a tarefa e vai tomar café.

  • L6: Três a cinco agentes paralelos. Múltiplos terminais. Atenção multiplexada.

Era da Orquestração (L7-L8) — A IA vira um time.

  • L7: 10+ agentes gerenciados à mão. Contexto errado pro agente errado. "E se o Claude Code pudesse rodar o Claude Code?"

  • L8: Você constrói o orquestrador. Spawning, routing, coordenação — tudo programático.

Qual degrau você está?

Addy Osmani complementa: no modo Conductor (L2-L5), você está ativo 100% do tempo. No Orchestrator (L6-L8), o esforço se concentra no início (especificações) e no fim (review). O meio é automatizado.

84% dos desenvolvedores usam ou planejam usar IA. 51% usam todo dia. Se você está lendo isso, já passou do L1.

A questão é: está subindo conscientemente ou tropeçando nos degraus?

2. O Orquestrador Que Se Orquestrou

Yegge não só criou a escala. Ele construiu o Gas Town — orquestrador multi-agente open-source, 189 mil linhas de Go, 100% vibecoded (construído via agentes de IA).

O princípio central é o Zero Framework Cognition (ZFC): raciocínio e decisões são delegados aos modelos de IA.

O código é casca fina e determinística: IO, validação, rate limits, state tracking.

Qualquer julgamento no código é violação. O sistema melhora conforme os modelos melhoram.

Yegge mostra que 50 a 80% do tráfego pode ir para modelos baratos. Haiku para tarefas simples, Sonnet para médias, Opus para raciocínio pesado. A orquestração se torna economicamente viável.

Junto veio o MEOW Stack (Molecular Expression of Work).

Unidades atômicas chamadas beads — JSONL em Git, com crash recovery. Beads se agrupam em epics, que formam molecules (workflows instanciados), definidos por formulas (configuração TOML).

A diferença para Jira? No MEOW, trabalho é o primitivo. Orquestração é camada fina sobre trabalho persistente.

O Gas Town tinha um limite: papéis hardcoded em Go. Então nasceu o Gas Cityreescrita do zero, 215 mil linhas de Go, em 30 dias por Julian Knutsen (ex-CashApp, ~1.002 de 1.212 commits). Cinco primitivos irredutíveis. Quatro mecanismos derivados. O resto é configuração.

A Olympus City é a nossa instância. Mayor, CTOs de área, polecats, pesquisadores, escritores e revisores.

3. Context Engineering: O Skill Que Separa os Níveis

Tobi Lütke, CEO da Shopify, popularizou o termo: "Context engineering — the art of providing all the context for the task to be plausibly solvable by the LLM."

A Anthropic detalha: é curar o conjunto ótimo de tokens durante a inferência. Não é escrever prompts melhores — é arquitetar o que o modelo recebe.

LLMs têm um "attention budget." Cada token precisa atender a cada outro. Contexto longo causa degradação da qualidade. O princípio: encontrar o menor conjunto de tokens de alto sinal que maximiza resultados.

Quatro componentes — system prompts, tools, examples e retrieval dinâmico — mais técnicas de longo prazo como compactação de histórico e sub-agentes com contextos limpos.

No L3, você escreve um prompt e torce. No L8, você construiu o CLAUDE.md, as fórmulas, os hooks, os templates, o sistema de mail entre agentes, a estrutura de beads. O prompt é a ponta do iceberg.

Mas os dados pedem cautela.

Google e MIT testaram 180 configurações multi-agente: para tarefas paralelizáveis, +80,9% com coordenação centralizada. Para sequenciais, -70%. Agentes independentes amplificam erros 17,2x. Ou seja: se um agente único resolve, use um agente só.

A Anthropic demonstrou 16 agentes construindo um compilador C: 100 mil linhas, 99% de pass rate no GCC torture test, compila Linux 6.9. Custo: ~$20.000. A lição de Nicholas Carlini: "The key was designing the environment around Claude — not the agents themselves."

Orquestração não é mágica. É engenharia. A diferença entre L3 e L8 não é habilidade técnica — é quanto contexto você construiu ao redor dos agentes.

Sua missão para os próximos 7 dias

  1. Identifique seu nível. Olhe para como você trabalha com IA. L2? L4? L6? Não tem resposta errada — mas tem resposta honesta.

  2. Suba um degrau. Se está no L2, tente o L3 — desligue as permissões por um dia. Se está no L5, abra dois agentes simultâneos. Cada degrau tem seu momento de confiança.

  3. Escreva um CLAUDE.md. Descreva seu projeto, convenções e padrões. Coloque no root do repositório. Context engineering na prática — o primeiro passo do L3 ao L4.

Como você avalia a newsletter de hoje?

Sua resposta será utilizada para guiar os próximos conteúdos.

Faça Login ou Inscrever-se para participar de pesquisas.

Conteúdos Recomendados

Forte abraço,

Equipe Olympus