v2.6 · Mismo prompt, tres IAs, recibos reales · Lee la comparación →

// compara cualquier IA · guarda los recibos ↓

LOCAL [WAR] ROOM_

Ejecuta cualquier IA en tu tarea real — ve cuál la resolvió más barato y mejor, con recibos. Un comando para Claude, Codex, Gemini, Grok, MiniMax o cualquiera de los más de 20 runtimes soportados. Ejecutan el mismo prompt en una sola sesión compartida, llaman herramientas reales (read_file, grep, git_log) para verificar afirmaciones en tu repositorio, y producen un registro de auditoría firmado con costo, tokens y recibos de cada tool call. Úsalo desde la GUI, la CLI o tu coding agent vía MCP — los mismos datos, el mismo registro. Local-first. MIT. Trae tus propias claves.

N
LLMs por sesión
20+
Runtimes
Firmado
Registro de auditoría
MIT
Código abierto

No puedes hacer que N LLMs argumenten con recibos

🔄

Tres pestañas, cero contexto compartido

Pegas la misma pregunta en Claude, GPT, Gemini, una pestaña a la vez. Cada uno empieza de cero. Ninguno ve lo que dijeron los demás. El desacuerdo que debería ser la señal queda enterrado en tu historial de copy-paste.

⛓️

Las herramientas existentes solo barajan texto

La mayoría de las herramientas de debate multi-LLM no leen tu repositorio, no hacen grep, no verifican una sola afirmación antes de hilvanar las respuestas. Son vibes-as-a-service — ingenioso, pero sin forma de verificar.

👁️

La sesión desaparece

Recibes una respuesta, la lees, sigues adelante. Sin registro de qué LLM hizo qué afirmación, sin forma de citar “confirmado por GPT, refutado por Claude,” sin markdown para pegar en un PR. El recibo es el artefacto — y falta.

Sesiones reales, recibos reales

Cada dispatch multi-LLM cae en tu SQLite local como una sesión que puedes revisar después. Cada fila lleva un resumen auto-generado, los runtimes que hablaron, las personas (cuando usaste --agent), tags y un session id que puedes pasar a ato sessions get desde tu terminal. Sin cuentas, sin round-trip a la nube — todo en la máquina del desarrollador.

Pestaña Sessions del ATO desktop mostrando dos war-rooms de code review cerradas: 'Code review: stray dogfood retry comment' (Minimax + Google, 4 turnos) y 'Code Review of Usage Poller Providers' (Minimax + Google, 4 turnos). Cada fila muestra los badges de runtime, un resumen auto-generado describiendo el desacuerdo y la resolución, tags de tópico y el UUID de la sesión.
Pestaña Sessions · dos code reviews multi-LLM cerrados con resúmenes auto-generados, badges de runtime, tags y session ids

El motor de la sala de guerra, más todo lo que necesitas alrededor

Nuevo en v2.6 — Compara cualquier IA en tu tarea real

ato review --reviewer @security-specialist --reviewer @perf-reviewer --reviewer claude --reviewer minimax • Function-calling tools (read_file, grep, git_log) • Agentes especialistas persistentes con system prompts • Registro de auditoría por turno en la GUI — badges “verificado-vía-N-tool-calls” vs “solo prompt” • Modo lean fuerza a los LLMs a recorrer el repositorio real

  • Panel de runs en vivo — Ve cada despacho en ejecución con slug del agente, runtime, workspace y tiempo transcurrido. Mata despachos atascados con un clic — sin necesidad de leer todos los buffers de terminal para encontrar el problemático. Aparece en el momento en que disparas algo vía Quick Test, panel de chat, cron programado o MCP run_agent.
  • Atribución de archivos por despacho — Cada ejecución captura la lista de archivos tocados en el project root vía diff de mtime-snapshot. Funciona en todos los runtimes porque es a nivel de sistema de archivos, no parsing de stream. Haz clic en cualquier archivo del dashboard para ver cada despacho que lo tocó — agente, runtime, timestamp, resumen del prompt, archivos hermanos.
  • Detección de regresiones cross-runtime — Cambia @reviewer de Sonnet 4.6 a Opus 4.7 y el dashboard te avisa “la tasa de éxito cayó 17pp en 412 conversaciones”. Une automáticamente el ledger de cambios de configuración con ventanas de trace. Etiquetado por severidad: regresiones primero, mejoras después, neutrales ocultos por defecto.
  • Atribución concurrente honesta — Cuando dos agentes despachan en el mismo workspace, el sistema operativo nos da mtimes, no PIDs. En vez de pretender que podemos desambiguar, ATO marca la ejecución como “ambiguous × N” con los slugs de los agentes involucrados. Verdad antes que falsa confianza.
  • Agentes externos — Construye chatbots para tus clientes en la misma IDE que usas para operaciones diarias. Generadores de bundles para Cloudflare Worker, Vercel Edge, Docker y Node standalone. 9 proveedores de chat-LLM. Embed widget incluido en cada deploy. La clave de API del cliente, la infraestructura del cliente — ATO nunca opera la inferencia.
  • Prompts dinámicos que se adaptan al disparar — Usa {user_name}, {project_root}, {recent_orders} en tu system prompt. Resolvers: estático, env, ruta de proyecto, archivo, consulta de base de datos, llamada de MCP, JS computado.
  • Pipelines secuenciales de automatización — Un prompt dispara el workflow completo. Cada hijo corre en su propio runtime, así que cadenas Claude → Codex → Gemini funcionan nativamente. Grupos enrutados + editor visual de grafo para enrutamiento de especialistas.
  • 15+ proveedores, 6 runtimes nativos — Claude Code, Codex, Gemini CLI, OpenClaw, Hermes, Ollama + Anthropic, OpenAI, Google AI, Mistral, Groq, xAI, Together, Fireworks, DeepSeek, Qwen, MiniMax, Kimi, GLM, Yi vía clave de API.
Insights · Live runs · 3 in flight
@code-writer CLAUDE 14s
📁 ato/repo-a
@security-reviewer CODEX 8s
📁 ato/repo-a · ⚠ ambiguous ×1
@docs-summarizer GEMINI 2m 04s
📁 ato/docs-site
3 dispatches across 3 runtimes · 2 sharing repo-a · click any file in trace history for cross-run lineage

A/B cross-runtime — replay de cualquier prompt

Elige cualquier trace anterior. Haz clic en Replay. Re-ejecuta el prompt original en otro runtime. Mira source vs replay lado a lado con delta de duración + costo estimado. ¿Habría respondido correctamente Codex a esos prompts que fallaron? Ahora puedes averiguarlo.

  • Replay — desde cualquier trace en la nube, elige runtime y modelo de destino. El re-despacho ocurre vía prompt_agent_inner, así que el replay también es matable y aparece en Runs en Vivo. La pill de estado avanza pending → running → done; el panel de resultado muestra ambas respuestas + delta de duración. Los prompts originales vienen de tu execution log local — ATO nunca envía el contenido del prompt a un servidor que aún no uses.
  • Banco de comparación — Insights → Compare. Haz diff de dos traces cualesquiera del mismo agente en la nube: duración, costo (estimado, con badge “est.” para que la precisión sea honesta), archivos solo-en-baseline / solo-en-comparación, cambio de estado OK. Agnóstico de tipo — funciona para despachos de chat, bundles desplegados, etapas de grupo, cualquier cosa.
  • Recomendaciones de costo@code-writer · claude → codex · −59% por llamada · proyectado $1.01/mes a este volumen. Muestra swaps concretos cuando tienes historial multi-runtime del mismo agente y la alternativa es significativamente más barata sin perder calidad. Guards de calidad: ≥30% más barato, ok-rate dentro de 10pp, eval-score dentro de 5pp. No muestra nada si ninguna recomendación califica — mejor que falsa confianza.
  • Sub-pestaña Pipelines — despachos multi-etapa (grupos secuenciales, grupos enrutados, cualquier cosa que se ramifique entre runtimes) agrupados por parent_run_id. Una fila por pipeline; haz clic para ver el flujo por etapa con flechas de handoff + timing por etapa + archivos tocados por etapa.
  • ⌘K en todo el workspace — un atajo de teclado busca agentes, grupos, schedules, secretos, MCPs, proyectos y tu historial de chat (matchea contra títulos de thread Y cuerpo de mensaje, con snippets). Lista de Quick Actions salta a cualquier sub-pestaña de Insights en un toque.
Insights · Compare · Replay claude → codex
Source · CLAUDE
Replay · CODEX
Binary search finds a target by repeatedly halving a sorted range. O(log n) instead of O(n).
Repeatedly compare with the middle, discard the half that can’t contain the target. Halving the search space cuts complexity to O(log n).
Duration
−1842ms
Cost (est.)
−$0.0084
Runtime
claude → codex
Source prompts read from local execution log · never leave the device unless you click replay

Contexto Multi-Runtime

Desglose de contexto por runtime. Alterna entre Claude, Codex, OpenClaw y Hermes para ver lo que cada agente cargó. Las skills aparecen como on-demand — no cuentan en el total.

  • Pestañas de runtime: Claude / Codex / OpenClaw / Hermes
  • Estado "No conectado" para runtimes no instalados
  • Alertas por color al 75% y 90% de uso
Context Usage 67,234 / 200,000 tokens · 33.6%
System (30K) Skills (12K) MCP (8K) CLAUDE.md (5.2K) Conversation (12K) Free (132.8K)

Skills Manager + Marketplace

Gestiona skills en todos los runtimes con pestañas por runtime. Explora el marketplace, instala skills de la comunidad, o pídele a la IA que cree una por ti.

  • Pestañas por runtime: Claude / Codex / OpenClaw / Hermes
  • Creación de skill por IA: describe lo que quieres, la IA lo escribe
  • Diálogo de aprobación in-app para guardar archivos
code-review.md
2,340 tokens
testing-patterns.md
1,876 tokens
api-conventions.md
3,102 tokens
⚠ legacy-rules.md
conflict

Constructor de Automatizaciones

Editor visual de workflows que detecta automáticamente flujos a partir de tus skills instaladas. Cualquier skill con headers de Step o Phase se convierte en una automatización visual.

  • Auto-genera flujos a partir del contenido de la skill
  • Selección de runtime por nodo (mezcla agentes)
  • Ejecuta workflows con un clic
Today
45,230
$0.68 estimated
Burn Rate
12.4K/hr
~6.2h to limit
This Week
312K
$4.68 total
This Month
1.2M
$18.40 total

Jobs programados

Elige un agente (o un grupo enrutado/secuencial) y un schedule. El system prompt del agente, variables, hooks, memoria y skills disparan en cada ejecución — no solo un prompt crudo.

  • Despacho de Agent / Group / Raw — basado en agente por defecto
  • Presets amigables de schedule (cada día hábil a las 9am, cada hora, cada 15 min…) o expresión cron completa
  • Despierta del sleep en cualquier OS desktop — launchd en macOS, timers systemd --user en Linux, Task Scheduler en Windows. Los jobs disparan incluso con ATO cerrado.
  • Vista de calendario: haz clic en un día para ver output o error; detección inteligente de fallas silenciosas
filesystem
stdio 12 tools 23ms
github
stdio 8 tools 45ms
postgres
stdio 5 tools 120ms
slack
sse timeout

Listo para producción, para equipos y empresas

Gestión de claves de API de LLM

Dashboard centralizado para almacenar, rotar y aplicar scope a las claves de API de cada proveedor LLM relevante. Las claves se cifran localmente — nunca se envían a ningún servidor.

  • Anthropic, OpenAI, Google, Mistral, Groq, Cohere, Together, Fireworks
  • Más los proveedores chinos: DeepSeek, Qwen, MiniMax, Kimi, GLM, Yi (URLs base compatibles con OpenAI expuestas en la app)
  • Rotación de clave en un clic con preview enmascarado, scope por runtime
  • Tracking de uso: ve qué claves están activas y con qué frecuencia
A Anthropic Production
sk-a...4f2x
O OpenAI GPT-4
sk-p...9k3m
G Google AI Staging
AI...7xq2
G Groq Fast
gsk...r4p1

Monitor de Agentes en Tiempo Real

Dashboard en vivo que muestra sesiones activas, tasas de consumo de tokens, salud del runtime y alertas inteligentes — en todas tus herramientas de IA a la vez.

  • Tracking de sesión en vivo con refresh cada 3 segundos (Pro)
  • Gráficos de timeline de uso de tokens y burn rate
  • Alertas inteligentes: picos de error, alto uso de tokens, runtimes offline
  • Estadísticas básicas y sesiones recientes gratis para todos
Tokens/hr
24.5K
Sessions
18
Avg Duration
4.2s
Errors
0
claude code-review session 2.1K tok · 3.4s
codex test generation 1.8K tok · 2.1s
hermes documentation update 956 tok · 1.8s

Log de Auditoría

Registro completo de auditoría de cada acción en tus sistemas agenticos. Filtra por tipo de acción, recurso y ventana de tiempo. Exporta a JSON para compliance.

  • Rastrea cambios de skill, rotaciones de clave, actualizaciones de config, disparos de cron
  • Filtros por tipo de acción y recurso
  • Dashboard de stats: hoy, esta semana, acciones principales
  • Exportación a JSON en un clic
skill.create — code-review.md 2m ago
config.update — claude runtime 5m ago
cron.trigger — daily-backup 1h ago
secret.delete — old-api-key 3h ago

SSO & Auth Enterprise GRATIS CON REGISTRO

Conecta el proveedor de identidad de tu empresa. Google Workspace, Okta, Microsoft Entra o cualquier proveedor OIDC — con restricción de dominio y auto-aprovisionamiento.

  • Google Workspace, Okta, Microsoft Entra integrados
  • Cualquier proveedor OIDC personalizado vía configuración de URL
  • Restricción por dominio: solo @empresa.com puede unirse
  • Auto-aprovisionamiento de usuarios en el primer login vía SSO
SSO Providers
G
Google
Active
M
Microsoft
Configure
O
Okta
Configure

Cross-runtime por protocolo — 17 herramientas

Cada agente ATO se expone como una herramienta MCP. Cualquier runtime que entienda MCP — Claude Code, Codex, Cursor, otros — puede despachar a cualquier agente ATO, sin importar qué runtime sea su dueño.

$ npx ato-mcp # Add to ~/.claude/settings.json: { "mcpServers": { "ato": { "command": "npx", "args": ["ato-mcp"] } } } # Agent dispatch (cross-runtime) list_agents — All ATO agents + groups run_agent — Dispatch to any agent or group, transparently # Context & Usage get_context_usage — Context window breakdown get_usage_stats — Token and cost analytics get_mcp_status — MCP server health # Skills Management list_skills — All skills with token counts toggle_skill — Enable/disable skills get_skill_index_stats — Index & watcher status rescan_skills — Force full rescan # Runtime Health get_runtime_status — Check any runtime get_all_runtime_statuses — All runtimes at once get_agent_logs — Execution logs / traces get_runtime_path_cache — Cached CLI paths refresh_runtime_paths — Re-discover CLIs set_runtime_path — Manual CLI path # Cache Management get_cache_stats — Cache statistics clear_cache — Flush cache

Hecho para desarrolladores

Desktop

offline-first · gratis
  • Tauri 2.x (Rust + React)
  • Base de datos SQLite local
  • Gestión de claves de API LLM
  • Audit logging
  • Monitor de agentes (básico)
  • Skills, automatización, cron, MCP
Sync

Cloud (gratis con registro)

gratis con registro · acceso anticipado
  • 7 microservicios en Railway
  • PostgreSQL + SSO (OIDC)
  • Monitoreo de agentes en tiempo real
  • Alertas inteligentes & gráficos de tokens
  • Retención de traces en la nube + observabilidad
  • Sincronización de agentes entre dispositivos

Disponible en Español, English y Português

English EN
Português PT
Español ES

Descargar ATO

Gratis, código abierto y listo para tu plataforma.

> Acceso anticipado: todas las funciones gratis con registro — replay, compare, detección de regresiones, recomendaciones de costo, sync en la nube, retención de traces, evaluators. Sin pago, sin tarjeta de crédito — solo un correo electrónico.

# Instalar vía Homebrew (macOS) $ brew tap WillNigri/ato $ brew install --cask ato # SDK — solo para agentes de ATO desplegados externamente $ npm install @ato-sdk/js # O instalar solo el MCP server $ npx ato-mcp

Complementario, no competidor. ATO es tu sala de guerra local para humanos y LLMs — el lado del desarrollador del trabajo multi-runtime con IA. Para observabilidad en producción vía SDK en tu stack desplegado, usa Langfuse, Helicone o LangSmith. La mayoría de equipos de producción usan uno de cada lado — cubren lados distintos del mismo agente. Más sobre cómo encajan juntos →