v2.6 · Mesmo prompt, três IAs, recibos reais · Ler a comparação →

// compare qualquer IA · guarde os recibos ↓

LOCAL [WAR] ROOM_

Rode qualquer IA na sua tarefa real — veja qual resolveu mais barato e melhor, com recibos. Um comando para Claude, Codex, Gemini, Grok, MiniMax ou qualquer um dos mais de 20 runtimes suportados. Eles rodam o mesmo prompt em uma sessão compartilhada, chamam ferramentas reais (read_file, grep, git_log) para verificar afirmações no seu repositório, e produzem uma trilha de auditoria assinada com custo, tokens e recibos de cada chamada de ferramenta. Use pela GUI, pela CLI ou pelo seu coding agent via MCP — mesmos dados, mesma trilha de auditoria. Local-first. MIT. Traga suas próprias chaves.

N
LLMs por sessão
20+
Runtimes
Assinada
Trilha de auditoria
MIT
Código aberto

Você não consegue fazer N LLMs discordarem com recibos

🔄

Três abas do navegador, zero contexto compartilhado

Você cola a mesma pergunta no Claude, no GPT, no Gemini uma aba por vez. Cada um começa do zero. Nenhum vê o que os outros disseram. A discordância que deveria ser o sinal fica enterrada no seu histórico de copy-paste.

⛓️

As ferramentas existentes só rearranjam texto

A maioria das ferramentas de debate multi-LLM não lê seu repositório, não faz grep, não verifica uma única afirmação antes de costurar as respostas. É vibes-as-a-service — bonitinho, mas sem verificação.

👁️

A sessão desaparece

Você recebe a resposta, lê, segue em frente. Nenhum registro de qual LLM fez qual afirmação, nenhuma forma de citar “confirmado pelo GPT, contestado pelo Claude,” nenhum markdown para colar no PR. O recibo é o artefato — e está faltando.

Sessões reais, recibos reais

Cada dispatch multi-LLM cai no seu SQLite local como uma sessão que você pode revisar depois. Cada linha carrega um resumo auto-gerado, os runtimes que falaram, as personas (quando você usou --agent), tags e um session id que você pode passar para ato sessions get do terminal. Sem contas, sem round-trip de nuvem — tudo na máquina do desenvolvedor.

Aba Sessions do ATO desktop mostrando duas war-rooms de code review fechadas: 'Code review: stray dogfood retry comment' (Minimax + Google, 4 turnos) e 'Code Review of Usage Poller Providers' (Minimax + Google, 4 turnos). Cada linha mostra os badges de runtime, um resumo auto-gerado descrevendo o desacordo e a resolução, tags de tópico e o UUID da sessão.
Aba Sessions · dois code reviews multi-LLM fechados com resumos auto-gerados, badges de runtime, tags e session ids

O motor da sala de guerra, mais tudo que você precisa ao redor

Novidade na v2.6 — Compare qualquer IA na sua tarefa real

ato review --reviewer @security-specialist --reviewer @perf-reviewer --reviewer claude --reviewer minimax • Function-calling tools (read_file, grep, git_log) • Agentes especialistas persistentes com system prompts • Trilha de auditoria por turno na GUI — badges “verificado-via-N-tool-calls” vs “só pelo prompt” • Modo lean força os LLMs a navegarem o repositório de verdade

  • Painel de runs ao vivo — Veja cada despacho em execução com slug do agente, runtime, workspace e tempo decorrido. Mate despachos travados em um clique — sem precisar ler todos os buffers de terminal para achar o problema. Aparece no momento em que você dispara algo via Quick Test, painel de chat, cron agendado ou MCP run_agent.
  • Atribuição de arquivos por despacho — Cada execução captura a lista de arquivos tocados no project root via diff de mtime-snapshot. Funciona em todos os runtimes porque é nível de sistema de arquivos, não parsing de stream. Clique em qualquer arquivo no dashboard para ver cada despacho que já tocou nele — agente, runtime, timestamp, resumo do prompt, arquivos irmãos.
  • Detecção de regressão cross-runtime — Troque @reviewer de Sonnet 4.6 para Opus 4.7 e o dashboard avisa “taxa de sucesso caiu 17pp em 412 conversas”. Junta automaticamente o ledger de mudanças de configuração com janelas de trace. Marcado por severidade: regressões primeiro, melhorias depois, neutros escondidos por padrão.
  • Atribuição concorrente honesta — Quando dois agentes despacham no mesmo workspace, o sistema operacional nos dá mtimes, não PIDs. Em vez de fingir que conseguimos desambiguar, o ATO marca a execução como “ambiguous × N” com os slugs dos agentes envolvidos. Verdade sobre confiança falsa.
  • Agentes externos — Construa chatbots para clientes na mesma IDE que você usa para operações diárias. Geradores de bundle para Cloudflare Worker, Vercel Edge, Docker e Node standalone. 9 provedores de chat-LLM. Embed widget incluso em todo deploy. Chave de API do cliente, infraestrutura do cliente — o ATO nunca opera a inferência.
  • Prompts dinâmicos que se adaptam na hora do disparo — Use {user_name}, {project_root}, {recent_orders} no seu system prompt. Resolvers: estático, env, caminho de projeto, arquivo, query de banco, chamada de MCP, JS computado.
  • Pipelines sequenciais de automação — Um prompt dispara o workflow inteiro. Cada filho roda no próprio runtime, então cadeias Claude → Codex → Gemini funcionam nativamente. Grupos roteados + editor visual de grafo para roteamento de especialistas.
  • 15+ provedores, 6 runtimes nativos — Claude Code, Codex, Gemini CLI, OpenClaw, Hermes, Ollama + Anthropic, OpenAI, Google AI, Mistral, Groq, xAI, Together, Fireworks, DeepSeek, Qwen, MiniMax, Kimi, GLM, Yi via chave de API.
Insights · Live runs · 3 in flight
@code-writer CLAUDE 14s
📁 ato/repo-a
@security-reviewer CODEX 8s
📁 ato/repo-a · ⚠ ambiguous ×1
@docs-summarizer GEMINI 2m 04s
📁 ato/docs-site
3 dispatches across 3 runtimes · 2 sharing repo-a · click any file in trace history for cross-run lineage

A/B cross-runtime — replay de qualquer prompt

Escolha qualquer trace anterior. Clique em Replay. Re-execute o prompt original em outro runtime. Veja source vs replay lado a lado com delta de duração + custo estimado. O Codex teria respondido corretamente naqueles prompts que falharam? Agora você descobre.

  • Replay — de qualquer trace na nuvem, escolha runtime e modelo de destino. O re-despacho acontece via prompt_agent_inner, então o replay também é matável e aparece em Runs ao Vivo. A pill de status passa por pending → running → done; o painel de resultado mostra as duas respostas + delta de duração. Os prompts originais vêm do seu execution log local — o ATO nunca envia o conteúdo do prompt para servidor que você ainda não usa.
  • Bancada de comparação — Insights → Compare. Faça diff de quaisquer dois traces na nuvem do mesmo agente: duração, custo (estimado, com badge “est.” para a precisão ser honesta), arquivos só-no-baseline / só-na-comparação, mudança de status OK. Agnóstico de tipo — funciona para despachos de chat, bundles deployados, estágios de grupo, qualquer coisa.
  • Recomendações de custo@code-writer · claude → codex · −59% por chamada · projetado em $1.01/mês neste volume. Mostra swaps concretos quando você tem histórico multi-runtime no mesmo agente e a alternativa é meaningfully mais barata sem perder qualidade. Guards de qualidade: ≥30% mais barato, ok-rate dentro de 10pp, eval-score dentro de 5pp. Não mostra nada se nenhuma recomendação qualifica — melhor do que falsa confiança.
  • Sub-aba Pipelines — despachos multi-estágio (grupos sequenciais, grupos roteados, qualquer coisa que se ramifique entre runtimes) agrupados por parent_run_id. Uma linha por pipeline; clique para ver o fluxo por estágio com setas de handoff + timing por estágio + arquivos tocados por estágio.
  • ⌘K em todo o workspace — um atalho de teclado busca agentes, grupos, schedules, segredos, MCPs, projetos e seu histórico de chat (combina com títulos de thread E corpo de mensagem, com trechos). Lista de Quick Actions pula para qualquer sub-aba de Insights em um toque.
Insights · Compare · Replay claude → codex
Source · CLAUDE
Replay · CODEX
Binary search finds a target by repeatedly halving a sorted range. O(log n) instead of O(n).
Repeatedly compare with the middle, discard the half that can’t contain the target. Halving the search space cuts complexity to O(log n).
Duration
−1842ms
Cost (est.)
−$0.0084
Runtime
claude → codex
Source prompts read from local execution log · never leave the device unless you click replay

Contexto Multi-Runtime

Detalhamento de contexto por runtime. Alterne entre Claude, Codex, OpenClaw e Hermes para ver o que cada agente carregou. Skills aparecem como on-demand — não contam no total.

  • Abas de runtime: Claude / Codex / OpenClaw / Hermes
  • Estado "Não conectado" para runtimes não instalados
  • Alertas por cor em 75% e 90% de uso
Context Usage 67,234 / 200,000 tokens · 33.6%
System (30K) Skills (12K) MCP (8K) CLAUDE.md (5.2K) Conversation (12K) Free (132.8K)

Skills Manager + Marketplace

Gerencie skills em todos os runtimes com abas por runtime. Navegue pelo marketplace, instale skills da comunidade ou peça para a IA criar uma para você.

  • Abas por runtime: Claude / Codex / OpenClaw / Hermes
  • Criação de skill por IA: descreva o que quer, a IA escreve
  • Diálogo de aprovação in-app para salvar arquivos
code-review.md
2,340 tokens
testing-patterns.md
1,876 tokens
api-conventions.md
3,102 tokens
⚠ legacy-rules.md
conflict

Construtor de Automações

Editor visual de workflows que detecta automaticamente fluxos a partir das suas skills instaladas. Qualquer skill com headers de Step ou Phase vira uma automação visual.

  • Gera fluxos automaticamente a partir do conteúdo da skill
  • Seleção de runtime por nó (misture agentes)
  • Execute workflows com um clique
Today
45,230
$0.68 estimated
Burn Rate
12.4K/hr
~6.2h to limit
This Week
312K
$4.68 total
This Month
1.2M
$18.40 total

Jobs agendados

Escolha um agente (ou um grupo roteado/sequencial) e um agendamento. O system prompt do agente, variáveis, hooks, memória e skills disparam em cada execução — não apenas um prompt cru.

  • Despacho de Agent / Group / Raw — baseado em agente por padrão
  • Presets amigáveis de agendamento (todo dia útil às 9h, de hora em hora, a cada 15 min…) ou expressão cron completa
  • Acorda do sleep em qualquer OS desktop — launchd no macOS, timers systemd --user no Linux, Task Scheduler no Windows. Jobs disparam mesmo com o ATO fechado.
  • Visão de calendário: clique num dia para ver output ou erro; detecção inteligente de falha silenciosa
filesystem
stdio 12 tools 23ms
github
stdio 8 tools 45ms
postgres
stdio 5 tools 120ms
slack
sse timeout

Pronto para produção, para times e empresas

Gerenciamento de chaves de API de LLM

Dashboard centralizado para armazenar, rotacionar e escopar chaves de API de todo provedor LLM relevante. Chaves criptografadas localmente — nunca enviadas para nenhum servidor.

  • Anthropic, OpenAI, Google, Mistral, Groq, Cohere, Together, Fireworks
  • Mais os provedores chineses: DeepSeek, Qwen, MiniMax, Kimi, GLM, Yi (URLs base compatíveis com OpenAI expostas no app)
  • Rotação de chave em um clique com preview mascarado, escopo por runtime
  • Rastreamento de uso: veja quais chaves estão ativas e com que frequência
A Anthropic Production
sk-a...4f2x
O OpenAI GPT-4
sk-p...9k3m
G Google AI Staging
AI...7xq2
G Groq Fast
gsk...r4p1

Monitor de Agentes em Tempo Real

Dashboard ao vivo mostrando sessões ativas, taxas de consumo de tokens, saúde do runtime e alertas inteligentes — em todas as suas ferramentas de IA de uma vez.

  • Rastreamento de sessão ao vivo com refresh a cada 3 segundos (Pro)
  • Gráficos de timeline de uso de tokens e burn rate
  • Alertas inteligentes: picos de erro, alto uso de tokens, runtimes offline
  • Estatísticas básicas e sessões recentes grátis para todos
Tokens/hr
24.5K
Sessions
18
Avg Duration
4.2s
Errors
0
claude code-review session 2.1K tok · 3.4s
codex test generation 1.8K tok · 2.1s
hermes documentation update 956 tok · 1.8s

Log de Auditoria

Trilha completa de auditoria de cada ação nos seus sistemas agenticos. Filtre por tipo de ação, recurso e janela de tempo. Exporte para JSON para fins de compliance.

  • Rastreie mudanças de skill, rotações de chave, atualizações de config, triggers de cron
  • Filtros por tipo de ação e recurso
  • Dashboard de stats: hoje, esta semana, ações principais
  • Exportação para JSON em um clique
skill.create — code-review.md 2m ago
config.update — claude runtime 5m ago
cron.trigger — daily-backup 1h ago
secret.delete — old-api-key 3h ago

SSO & Auth Enterprise GRÁTIS COM CADASTRO

Conecte o provedor de identidade da sua empresa. Google Workspace, Okta, Microsoft Entra ou qualquer provedor OIDC — com restrição por domínio e auto-provisionamento.

  • Google Workspace, Okta, Microsoft Entra integrados
  • Qualquer provedor OIDC customizado via configuração de URL
  • Restrição por domínio: somente @empresa.com pode entrar
  • Auto-provisionamento de usuários no primeiro login via SSO
SSO Providers
G
Google
Active
M
Microsoft
Configure
O
Okta
Configure

Cross-runtime por protocolo — 17 ferramentas

Cada agente ATO é exposto como uma ferramenta MCP. Qualquer runtime que entenda MCP — Claude Code, Codex, Cursor, outros — pode despachar para qualquer agente ATO, independente de qual runtime é o dono.

$ npx ato-mcp # Add to ~/.claude/settings.json: { "mcpServers": { "ato": { "command": "npx", "args": ["ato-mcp"] } } } # Agent dispatch (cross-runtime) list_agents — All ATO agents + groups run_agent — Dispatch to any agent or group, transparently # Context & Usage get_context_usage — Context window breakdown get_usage_stats — Token and cost analytics get_mcp_status — MCP server health # Skills Management list_skills — All skills with token counts toggle_skill — Enable/disable skills get_skill_index_stats — Index & watcher status rescan_skills — Force full rescan # Runtime Health get_runtime_status — Check any runtime get_all_runtime_statuses — All runtimes at once get_agent_logs — Execution logs / traces get_runtime_path_cache — Cached CLI paths refresh_runtime_paths — Re-discover CLIs set_runtime_path — Manual CLI path # Cache Management get_cache_stats — Cache statistics clear_cache — Flush cache

Feito para desenvolvedores

Desktop

offline-first · grátis
  • Tauri 2.x (Rust + React)
  • Banco SQLite local
  • Gerenciamento de chaves de API LLM
  • Audit logging
  • Monitor de agentes (básico)
  • Skills, automação, cron, MCP
Sync

Cloud (grátis com cadastro)

grátis com cadastro · acesso antecipado
  • 7 microsserviços no Railway
  • PostgreSQL + SSO (OIDC)
  • Monitoramento de agentes em tempo real
  • Alertas inteligentes & gráficos de tokens
  • Retenção de traces na nuvem + observabilidade
  • Sincronização de agentes entre dispositivos

Disponível em Português, English e Español

English EN
Português PT
Español ES

Baixar o ATO

Grátis, código aberto e pronto para a sua plataforma.

> Acesso antecipado: todas as funcionalidades grátis com cadastro — replay, compare, detecção de regressão, recomendações de custo, sync na nuvem, retenção de traces, evaluators. Sem pagamento, sem cartão de crédito — só um e-mail.

# Instalar via Homebrew (macOS) $ brew tap WillNigri/ato $ brew install --cask ato # SDK — só para agentes do ATO implantados externamente $ npm install @ato-sdk/js # Ou instalar só o MCP server $ npx ato-mcp

Complementar, não concorrente. O ATO é sua sala de guerra local para humanos e LLMs — o lado do desenvolvedor do trabalho multi-runtime com IA. Para observabilidade em produção via SDK no seu app implantado, use Langfuse, Helicone ou LangSmith. A maioria dos times de produção usa um de cada lado — cobrem lados diferentes do mesmo agente. Mais sobre como funcionam juntos →