# =============================================================================== # DEPENDENCY-GRAPH.yml - Local LLM Agent # =============================================================================== # # Sistema: SIMCO v4.3.0 + NEXUS v4.0 # Proposito: Grafo de dependencias del proyecto # Fecha: 2026-01-24 # # =============================================================================== version: "1.0.0" proyecto: "local-llm-agent" tipo: "STANDALONE" fecha_actualizacion: "2026-01-24" # ----------------------------------------------------------------------------- # DEPENDENCIAS DE HERENCIA # ----------------------------------------------------------------------------- herencia: parent: null tipo: STANDALONE razon: "Proyecto de infraestructura independiente" # ----------------------------------------------------------------------------- # DEPENDENCIAS INTERNAS (entre componentes del proyecto) # ----------------------------------------------------------------------------- dependencias_internas: gateway: depende_de: - componente: "inference-engine" tipo: "runtime" protocolo: "HTTP" puerto: 3161 obligatorio: true inference_engine: depende_de: - componente: "ollama" tipo: "backend" protocolo: "HTTP" puerto: 11434 obligatorio: false nota: "Backend CPU para desarrollo" - componente: "vllm" tipo: "backend" protocolo: "HTTP" puerto: 8000 obligatorio: false nota: "Backend GPU para produccion" # ----------------------------------------------------------------------------- # DEPENDENCIAS EXTERNAS (servicios externos) # ----------------------------------------------------------------------------- dependencias_externas: runtime: - nombre: "Ollama" version: ">=0.1.0" tipo: "inference_backend" puerto: 11434 obligatorio: false descripcion: "Backend CPU para desarrollo" - nombre: "vLLM" version: ">=0.4.0" tipo: "inference_backend" puerto: 8000 obligatorio: false descripcion: "Backend GPU para produccion con Multi-LoRA" opcional: - nombre: "Redis" version: ">=7.0" tipo: "cache" puerto: 6379 db: 9 obligatorio: false descripcion: "Cache para sesiones y rate limiting" - nombre: "PostgreSQL" version: ">=16" tipo: "database" puerto: 5432 obligatorio: false descripcion: "Persistencia de logs y metricas" - nombre: "Prometheus" tipo: "monitoring" puerto: 9090 obligatorio: false descripcion: "Recoleccion de metricas" - nombre: "Grafana" tipo: "dashboard" puerto: 3000 obligatorio: false descripcion: "Visualizacion de metricas" gpu: - nombre: "NVIDIA CUDA" version: ">=12.6" obligatorio: false descripcion: "Requerido solo para vLLM backend" - nombre: "NVIDIA Container Toolkit" obligatorio: false descripcion: "Docker GPU support" # ----------------------------------------------------------------------------- # CONSUMIDORES (proyectos que usan este servicio) # ----------------------------------------------------------------------------- consumidores: - proyecto: "*" tipo: "SERVICE" via: "API" puerto: 3160 descripcion: "Cualquier proyecto del workspace puede usar el gateway" # ----------------------------------------------------------------------------- # PROPAGACION # ----------------------------------------------------------------------------- propagacion: recibe_de: [] propaga_a: [] nota: "Proyecto standalone - no participa en cadena de herencia" # ----------------------------------------------------------------------------- # DIAGRAMA # ----------------------------------------------------------------------------- diagrama: | ┌─────────────────────────────────────────────────────────┐ │ CONSUMIDORES (workspace-v2/*) │ └─────────────────────────┬───────────────────────────────┘ │ API (3160) ▼ ┌─────────────────────────────────────────────────────────┐ │ LOCAL-LLM-AGENT │ │ ┌───────────────────────────────────────────────────┐ │ │ │ Gateway (NestJS) :3160 │ │ │ └───────────────────────┬───────────────────────────┘ │ │ │ HTTP │ │ ┌───────────────────────▼───────────────────────────┐ │ │ │ Inference Engine (FastAPI) :3161 │ │ │ └──────────┬─────────────────────────┬──────────────┘ │ │ │ │ │ │ ┌────────▼────────┐ ┌────────▼────────┐ │ │ │ Ollama :11434 │ │ vLLM :8000 │ │ │ │ (CPU) │ │ (GPU) │ │ │ └─────────────────┘ └─────────────────┘ │ └─────────────────────────────────────────────────────────┘ │ ┌────────────────────┼────────────────────┐ ▼ ▼ ▼ ┌─────────┐ ┌──────────┐ ┌──────────┐ │ Redis │ │PostgreSQL│ │Prometheus│ │ (cache) │ │(database)│ │(metrics) │ └─────────┘ └──────────┘ └──────────┘ # ----------------------------------------------------------------------------- # NOTAS # ----------------------------------------------------------------------------- notas: - "Proyecto de infraestructura standalone" - "Sirve a todos los proyectos via API unificada" - "Solo Ollama o vLLM necesario, no ambos" - "Redis/PostgreSQL/Prometheus son opcionales"