local-llm-agent/orchestration/DEPENDENCY-GRAPH.yml
Adrian Flores Cortes 3def230d58 Initial commit: local-llm-agent infrastructure project
Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
2026-02-02 16:42:45 -06:00

174 lines
7.0 KiB
YAML

# ===============================================================================
# DEPENDENCY-GRAPH.yml - Local LLM Agent
# ===============================================================================
#
# Sistema: SIMCO v4.3.0 + NEXUS v4.0
# Proposito: Grafo de dependencias del proyecto
# Fecha: 2026-01-24
#
# ===============================================================================
version: "1.0.0"
proyecto: "local-llm-agent"
tipo: "STANDALONE"
fecha_actualizacion: "2026-01-24"
# -----------------------------------------------------------------------------
# DEPENDENCIAS DE HERENCIA
# -----------------------------------------------------------------------------
herencia:
parent: null
tipo: STANDALONE
razon: "Proyecto de infraestructura independiente"
# -----------------------------------------------------------------------------
# DEPENDENCIAS INTERNAS (entre componentes del proyecto)
# -----------------------------------------------------------------------------
dependencias_internas:
gateway:
depende_de:
- componente: "inference-engine"
tipo: "runtime"
protocolo: "HTTP"
puerto: 3161
obligatorio: true
inference_engine:
depende_de:
- componente: "ollama"
tipo: "backend"
protocolo: "HTTP"
puerto: 11434
obligatorio: false
nota: "Backend CPU para desarrollo"
- componente: "vllm"
tipo: "backend"
protocolo: "HTTP"
puerto: 8000
obligatorio: false
nota: "Backend GPU para produccion"
# -----------------------------------------------------------------------------
# DEPENDENCIAS EXTERNAS (servicios externos)
# -----------------------------------------------------------------------------
dependencias_externas:
runtime:
- nombre: "Ollama"
version: ">=0.1.0"
tipo: "inference_backend"
puerto: 11434
obligatorio: false
descripcion: "Backend CPU para desarrollo"
- nombre: "vLLM"
version: ">=0.4.0"
tipo: "inference_backend"
puerto: 8000
obligatorio: false
descripcion: "Backend GPU para produccion con Multi-LoRA"
opcional:
- nombre: "Redis"
version: ">=7.0"
tipo: "cache"
puerto: 6379
db: 9
obligatorio: false
descripcion: "Cache para sesiones y rate limiting"
- nombre: "PostgreSQL"
version: ">=16"
tipo: "database"
puerto: 5432
obligatorio: false
descripcion: "Persistencia de logs y metricas"
- nombre: "Prometheus"
tipo: "monitoring"
puerto: 9090
obligatorio: false
descripcion: "Recoleccion de metricas"
- nombre: "Grafana"
tipo: "dashboard"
puerto: 3000
obligatorio: false
descripcion: "Visualizacion de metricas"
gpu:
- nombre: "NVIDIA CUDA"
version: ">=12.6"
obligatorio: false
descripcion: "Requerido solo para vLLM backend"
- nombre: "NVIDIA Container Toolkit"
obligatorio: false
descripcion: "Docker GPU support"
# -----------------------------------------------------------------------------
# CONSUMIDORES (proyectos que usan este servicio)
# -----------------------------------------------------------------------------
consumidores:
- proyecto: "*"
tipo: "SERVICE"
via: "API"
puerto: 3160
descripcion: "Cualquier proyecto del workspace puede usar el gateway"
# -----------------------------------------------------------------------------
# PROPAGACION
# -----------------------------------------------------------------------------
propagacion:
recibe_de: []
propaga_a: []
nota: "Proyecto standalone - no participa en cadena de herencia"
# -----------------------------------------------------------------------------
# DIAGRAMA
# -----------------------------------------------------------------------------
diagrama: |
┌─────────────────────────────────────────────────────────┐
│ CONSUMIDORES (workspace-v2/*) │
└─────────────────────────┬───────────────────────────────┘
│ API (3160)
┌─────────────────────────────────────────────────────────┐
│ LOCAL-LLM-AGENT │
│ ┌───────────────────────────────────────────────────┐ │
│ │ Gateway (NestJS) :3160 │ │
│ └───────────────────────┬───────────────────────────┘ │
│ │ HTTP │
│ ┌───────────────────────▼───────────────────────────┐ │
│ │ Inference Engine (FastAPI) :3161 │ │
│ └──────────┬─────────────────────────┬──────────────┘ │
│ │ │ │
│ ┌────────▼────────┐ ┌────────▼────────┐ │
│ │ Ollama :11434 │ │ vLLM :8000 │ │
│ │ (CPU) │ │ (GPU) │ │
│ └─────────────────┘ └─────────────────┘ │
└─────────────────────────────────────────────────────────┘
┌────────────────────┼────────────────────┐
▼ ▼ ▼
┌─────────┐ ┌──────────┐ ┌──────────┐
│ Redis │ │PostgreSQL│ │Prometheus│
│ (cache) │ │(database)│ │(metrics) │
└─────────┘ └──────────┘ └──────────┘
# -----------------------------------------------------------------------------
# NOTAS
# -----------------------------------------------------------------------------
notas:
- "Proyecto de infraestructura standalone"
- "Sirve a todos los proyectos via API unificada"
- "Solo Ollama o vLLM necesario, no ambos"
- "Redis/PostgreSQL/Prometheus son opcionales"