174 lines
7.0 KiB
YAML
174 lines
7.0 KiB
YAML
# ===============================================================================
|
|
# DEPENDENCY-GRAPH.yml - Local LLM Agent
|
|
# ===============================================================================
|
|
#
|
|
# Sistema: SIMCO v4.3.0 + NEXUS v4.0
|
|
# Proposito: Grafo de dependencias del proyecto
|
|
# Fecha: 2026-01-24
|
|
#
|
|
# ===============================================================================
|
|
|
|
version: "1.0.0"
|
|
proyecto: "local-llm-agent"
|
|
tipo: "STANDALONE"
|
|
fecha_actualizacion: "2026-01-24"
|
|
|
|
# -----------------------------------------------------------------------------
|
|
# DEPENDENCIAS DE HERENCIA
|
|
# -----------------------------------------------------------------------------
|
|
|
|
herencia:
|
|
parent: null
|
|
tipo: STANDALONE
|
|
razon: "Proyecto de infraestructura independiente"
|
|
|
|
# -----------------------------------------------------------------------------
|
|
# DEPENDENCIAS INTERNAS (entre componentes del proyecto)
|
|
# -----------------------------------------------------------------------------
|
|
|
|
dependencias_internas:
|
|
gateway:
|
|
depende_de:
|
|
- componente: "inference-engine"
|
|
tipo: "runtime"
|
|
protocolo: "HTTP"
|
|
puerto: 3161
|
|
obligatorio: true
|
|
|
|
inference_engine:
|
|
depende_de:
|
|
- componente: "ollama"
|
|
tipo: "backend"
|
|
protocolo: "HTTP"
|
|
puerto: 11434
|
|
obligatorio: false
|
|
nota: "Backend CPU para desarrollo"
|
|
|
|
- componente: "vllm"
|
|
tipo: "backend"
|
|
protocolo: "HTTP"
|
|
puerto: 8000
|
|
obligatorio: false
|
|
nota: "Backend GPU para produccion"
|
|
|
|
# -----------------------------------------------------------------------------
|
|
# DEPENDENCIAS EXTERNAS (servicios externos)
|
|
# -----------------------------------------------------------------------------
|
|
|
|
dependencias_externas:
|
|
runtime:
|
|
- nombre: "Ollama"
|
|
version: ">=0.1.0"
|
|
tipo: "inference_backend"
|
|
puerto: 11434
|
|
obligatorio: false
|
|
descripcion: "Backend CPU para desarrollo"
|
|
|
|
- nombre: "vLLM"
|
|
version: ">=0.4.0"
|
|
tipo: "inference_backend"
|
|
puerto: 8000
|
|
obligatorio: false
|
|
descripcion: "Backend GPU para produccion con Multi-LoRA"
|
|
|
|
opcional:
|
|
- nombre: "Redis"
|
|
version: ">=7.0"
|
|
tipo: "cache"
|
|
puerto: 6379
|
|
db: 9
|
|
obligatorio: false
|
|
descripcion: "Cache para sesiones y rate limiting"
|
|
|
|
- nombre: "PostgreSQL"
|
|
version: ">=16"
|
|
tipo: "database"
|
|
puerto: 5432
|
|
obligatorio: false
|
|
descripcion: "Persistencia de logs y metricas"
|
|
|
|
- nombre: "Prometheus"
|
|
tipo: "monitoring"
|
|
puerto: 9090
|
|
obligatorio: false
|
|
descripcion: "Recoleccion de metricas"
|
|
|
|
- nombre: "Grafana"
|
|
tipo: "dashboard"
|
|
puerto: 3000
|
|
obligatorio: false
|
|
descripcion: "Visualizacion de metricas"
|
|
|
|
gpu:
|
|
- nombre: "NVIDIA CUDA"
|
|
version: ">=12.6"
|
|
obligatorio: false
|
|
descripcion: "Requerido solo para vLLM backend"
|
|
|
|
- nombre: "NVIDIA Container Toolkit"
|
|
obligatorio: false
|
|
descripcion: "Docker GPU support"
|
|
|
|
# -----------------------------------------------------------------------------
|
|
# CONSUMIDORES (proyectos que usan este servicio)
|
|
# -----------------------------------------------------------------------------
|
|
|
|
consumidores:
|
|
- proyecto: "*"
|
|
tipo: "SERVICE"
|
|
via: "API"
|
|
puerto: 3160
|
|
descripcion: "Cualquier proyecto del workspace puede usar el gateway"
|
|
|
|
# -----------------------------------------------------------------------------
|
|
# PROPAGACION
|
|
# -----------------------------------------------------------------------------
|
|
|
|
propagacion:
|
|
recibe_de: []
|
|
propaga_a: []
|
|
nota: "Proyecto standalone - no participa en cadena de herencia"
|
|
|
|
# -----------------------------------------------------------------------------
|
|
# DIAGRAMA
|
|
# -----------------------------------------------------------------------------
|
|
|
|
diagrama: |
|
|
┌─────────────────────────────────────────────────────────┐
|
|
│ CONSUMIDORES (workspace-v2/*) │
|
|
└─────────────────────────┬───────────────────────────────┘
|
|
│ API (3160)
|
|
▼
|
|
┌─────────────────────────────────────────────────────────┐
|
|
│ LOCAL-LLM-AGENT │
|
|
│ ┌───────────────────────────────────────────────────┐ │
|
|
│ │ Gateway (NestJS) :3160 │ │
|
|
│ └───────────────────────┬───────────────────────────┘ │
|
|
│ │ HTTP │
|
|
│ ┌───────────────────────▼───────────────────────────┐ │
|
|
│ │ Inference Engine (FastAPI) :3161 │ │
|
|
│ └──────────┬─────────────────────────┬──────────────┘ │
|
|
│ │ │ │
|
|
│ ┌────────▼────────┐ ┌────────▼────────┐ │
|
|
│ │ Ollama :11434 │ │ vLLM :8000 │ │
|
|
│ │ (CPU) │ │ (GPU) │ │
|
|
│ └─────────────────┘ └─────────────────┘ │
|
|
└─────────────────────────────────────────────────────────┘
|
|
│
|
|
┌────────────────────┼────────────────────┐
|
|
▼ ▼ ▼
|
|
┌─────────┐ ┌──────────┐ ┌──────────┐
|
|
│ Redis │ │PostgreSQL│ │Prometheus│
|
|
│ (cache) │ │(database)│ │(metrics) │
|
|
└─────────┘ └──────────┘ └──────────┘
|
|
|
|
# -----------------------------------------------------------------------------
|
|
# NOTAS
|
|
# -----------------------------------------------------------------------------
|
|
|
|
notas:
|
|
- "Proyecto de infraestructura standalone"
|
|
- "Sirve a todos los proyectos via API unificada"
|
|
- "Solo Ollama o vLLM necesario, no ambos"
|
|
- "Redis/PostgreSQL/Prometheus son opcionales"
|