v0.2.0 · macOS · Linux · Windows

El agente IA para tu terminalque funciona con cualquier modelo.

Halcón conecta tu terminal a Claude, GPT-4o, DeepSeek, Gemini o cualquier modelo Ollama local — con 21 herramientas integradas, permisos por capas y un servidor MCP nativo para tu IDE.

Instalación en una línea

bash
$ curl -sSfL cuervo.cloud/install.sh | sh

Verificado con SHA-256 · sin sudo · instala en ~/.local/bin

Compatible con todos los proveedores de IA

Cambia de proveedor y modelo con un solo flag. Sin reconfiguración, sin fricción.

🧠
Anthropic

Modelos

Claude Opus 4.6
Claude Sonnet 4.5
Claude Haiku 4.5
OpenAI

Modelos

GPT-4o
GPT-4o mini
o1
o3-mini
DeepSeek

Modelos

deepseek-chat
deepseek-coder
deepseek-reasoner
Google Gemini

Modelos

Gemini 2.0 Flash
Gemini 2.5 Pro
Ollama
Local · Gratis

Modelos

Llama 3
Mistral
DeepSeek Coder V2
+ cualquier modelo

Cambia con un solo flag

halcon -p openai chat halcon -p ollama -m llama3 chat

Todo lo que necesitas para automatizar tu flujo de trabajo

Motor de alto rendimiento con más de 2.200 pruebas. Multi-modelo. Sin dependencias nativas.

21 herramientas integradas

Lectura/escritura/edición de archivos, ejecución bash, operaciones git, búsqueda web, grep regex, extracción de símbolos de código, peticiones HTTP y tareas en segundo plano — todo conectado al bucle del agente.

Permisos en el primer diseño

Cada herramienta está clasificada: las herramientas ReadOnly se ejecutan silenciosamente, las ReadWrite y Destructive requieren tu confirmación explícita. El agente nunca ejecuta rm ni git commit sin ti.

Cockpit TUI

Interfaz de terminal con 3 zonas: contadores de tokens en vivo, estado FSM del agente, progreso del plan, métricas en panel lateral y flujo de actividad en tiempo real. Pausa, avanza paso a paso o cancela el agente a mitad de ejecución.

Memoria episódica

El agente recuerda decisiones, rutas de archivos y aprendizajes entre sesiones usando búsqueda semántica BM25, puntuación con decaimiento temporal y consolidación automática. Sin configuración.

Servidor MCP integrado

Ejecuta `halcon mcp-server` para exponer las 21 herramientas vía JSON-RPC por stdio. Conéctalo a VS Code, Cursor o cualquier IDE compatible con Model Context Protocol.

Enrutamiento multi-proveedor

Fallback automático entre proveedores, selección de modelos por latencia y seguimiento de costos por sesión. Configura estrategias `balanced`, `fast` o `cheap` en el archivo de configuración.

En marcha en 60 segundos

1

Instala Halcón CLI

Se instala en ~/.local/bin/halcon. Verificado con SHA-256.

$ curl -sSfL cuervo.cloud/install.sh | sh
2

Configura tu clave API

Almacena tu clave de forma segura en el keychain del sistema.

$ halcon auth login anthropic
3

Empieza a programar con IA

O lanza el cockpit TUI completo con --tui

$ halcon chat "Refactoriza mi función de login para usar async/await"

Compatible con Anthropic, OpenAI, DeepSeek, Gemini y Ollama local.