Algunas organizaciones no pueden enviar datos a OpenAI. Ni a Anthropic. Ni a Google. No porque los modelos no sean lo suficientemente buenos — porque los datos no pueden salir del edificio.
Sistemas de salud procesando registros de pacientes. Instituciones financieras manejando datos de transacciones. Contratistas de defensa trabajando con información clasificada. Agencias gubernamentales sujetas a requisitos de soberanía de datos. Para estas organizaciones, la promesa de automatización de IA siempre ha venido con un asterisco: siempre y cuando esté cómodo enviando sus datos a una API en la nube.
JieGou elimina ese asterisco.
Qué cambió
Dos cosas convergieron para hacer la automatización de IA auto-alojada práctica:
Los modelos de código abierto se pusieron al día. Llama 4 Maverick, DeepSeek V3, Qwen 3 235B y Mistral 3 Large entregan calidad que iguala o supera a GPT-4o en muchas tareas. Llamada de herramientas, salida estructurada, ventanas de contexto largo — las capacidades que los flujos de trabajo empresariales necesitan están todas ahí.
Los servidores de inferencia maduraron. vLLM, Ollama, SGLang y LocalAI proporcionan APIs compatibles con OpenAI listas para producción. Usted apunta su aplicación a http://localhost:8000/v1 en lugar de https://api.openai.com/v1, y todo funciona.
JieGou ahora soporta cualquier endpoint compatible con OpenAI como proveedor de primera clase. Mismo sistema de recetas, mismo motor de flujos de trabajo, mismas comparaciones de bakeoff, mismas puertas de aprobación — solo ejecutándose en su hardware con sus modelos.
Cómo funciona
El proveedor compatible con OpenAI
JieGou trata los endpoints personalizados de la misma manera que trata a Anthropic, OpenAI y Google. Cuando configura un endpoint personalizado en Configuración > Claves API, proporciona:
- URL del endpoint — Donde vive su servidor de inferencia (ej.,
http://ollama:11434/v1) - Nombre del modelo — Qué modelo usar (ej.,
llama3.3) - Clave API — Opcional. La mayoría de los endpoints locales no requieren una.
A partir de ese punto, cada funcionalidad de JieGou funciona con su modelo: recetas, flujos de trabajo, bakeoffs, ejecuciones por lotes, chat multi-turno, extracción de salida estructurada — todo.
Modelos certificados vs. comunitarios
No todos los modelos de código abierto manejan igualmente bien cada funcionalidad de JieGou. La llamada de herramientas, la salida JSON estructurada y el procesamiento de contexto largo requieren capacidades específicas del modelo. Probamos y certificamos modelos que manejan de forma confiable el conjunto completo de funcionalidades de JieGou:
| Modelo | Tamaño | Capacidades clave |
|---|---|---|
| Llama 4 Maverick | 400B+ MoE | Llamada de herramientas, salida estructurada, visión, contexto 1M |
| DeepSeek V3.2 | 671B MoE | Razonamiento, generación de código, salida estructurada |
| Qwen 3 235B | 235B MoE | Multilingue, llamada de herramientas, salida estructurada |
| Mistral 3 Large | 123B | Visión, llamada de herramientas, contexto 128K |
Los modelos certificados obtienen una insignia verde en el selector de modelos. Los modelos comunitarios (todo lo demás) obtienen una insignia gris con una nota: “No certificado — la calidad puede variar.” Animamos a los usuarios a ejecutar un Bakeoff comparando modelos comunitarios contra los certificados antes de ponerlos en producción.
Auto-descubrimiento
Cuando JieGou se inicia, sondea endpoints locales conocidos:
http://ollama:11434— Red Docker (contenedor Ollama co-ubicado)http://localhost:11434— Puerto predeterminado de Ollamahttp://localhost:8000— Puerto predeterminado de vLLM
Si encuentra un servidor de inferencia en ejecución, el panel de administración muestra un banner: “Endpoint LLM local detectado” con un botón “Configurar” de un clic que pre-llena la configuración del endpoint.
Gestor de descarga de modelos
Para endpoints Ollama, JieGou incluye un gestor de modelos integrado. Navegue la lista de modelos certificados, haga clic en “Pull” y observe el progreso de la descarga en tiempo real. No se requiere terminal.
Opciones de despliegue
Opción 1: Kit de inicio Docker Compose (más simple)
Para evaluación o equipos pequeños. Todo en un solo docker compose up:
git clone https://github.com/JieGouAI/orion.git
cd orion/console/self-hosted-starter
cp .env.example .env
docker compose up -d
./models/pull-models.sh llama3.3
Cinco minutos para una plataforma de automatización de IA funcional. JieGou auto-detecta la instancia Ollama co-ubicada. Abra http://localhost:3000 y comience a construir.
Para aceleración GPU:
docker compose -f docker-compose.yml -f docker-compose.gpu.yml up -d
Opción 2: Despliegue híbrido VPC (empresarial)
Para organizaciones que quieren el plano de control gestionado de JieGou (UI, programación, monitoreo) pero necesitan que la ejecución ocurra en sus instalaciones. Los agentes de ejecución VPC se ejecutan dentro de su red, reciben solicitudes de ejecución de pasos y los procesan usando sus endpoints LLM locales. El plano de control nunca ve datos crudos.
Opción 3: Despliegue completo en Kubernetes
Para organizaciones grandes que ejecutan sus propios clusters K8s. JieGou incluye un chart Helm (console/chart/) que se despliega junto a sus servicios vLLM u Ollama existentes. Configure el endpoint personalizado para apuntar al nombre DNS interno de su servicio de inferencia.
Comparando plataformas
¿Cómo se compara la historia auto-alojada de JieGou con las alternativas?
n8n soporta auto-alojamiento y tiene una integración con Ollama, pero es una herramienta de flujo de trabajo de propósito general — no construida específicamente para automatización de IA. Sin registro de modelos certificados, sin sistema de bakeoff para comparar calidad de modelos, sin organización de flujos de trabajo por departamento, sin puertas de aprobación.
Zapier y Microsoft Copilot Studio son solo nube. No hay opción auto-alojada, punto.
LangChain/LangGraph proporciona los bloques de construcción pero no la plataforma. Aún necesita construir la UI, gestión de usuarios, programación, flujos de aprobación, monitoreo de calidad y todo lo demás. Ese es el producto, no una llamada a una biblioteca.
JieGou es la única plataforma que combina automatización de IA auto-alojada con las funcionalidades empresariales que las industrias reguladas necesitan: RBAC, flujos de aprobación, registro de auditoría, presets de cumplimiento y bakeoffs de calidad — todo ejecutándose en su infraestructura.
Qué sigue
Estamos invirtiendo fuertemente en la experiencia auto-alojada:
- Benchmarks de rendimiento de modelos — Puntuación de calidad automatizada para cada modelo certificado contra la suite de pruebas de recetas de JieGou
- Calculadora de costos de inferencia — Compare costos de GPU auto-alojada vs. precios de API en la nube para su carga de trabajo específica
- Orquestación multi-GPU — Enrute diferentes recetas a diferentes modelos basándose en requisitos de capacidad
- Catálogo de modelos offline — Paquetes de modelos pre-empaquetados para entornos completamente air-gapped sin acceso a internet
Comenzar
El kit de inicio auto-alojado está disponible ahora. Clone el repositorio, ejecute Docker Compose, descargue un modelo y comience a automatizar.
Si necesita despliegue híbrido VPC o controles de cumplimiento para industrias reguladas, contacte nuestro equipo de ventas sobre el plan Enterprise.