# ============================================================================= # _inheritance.yml - Local LLM Agent # ============================================================================= # Sistema: SIMCO v4.3.0 + NEXUS v4.0 # Formato: SIMCO-ESTANDAR-ORCHESTRATION v1.0.0 # Fecha: 2026-01-24 # ============================================================================= # CONSUMER (L2) - Proyecto STANDALONE de infraestructura tipo: CONSUMER version: "1.0.0" proyecto: nombre: "Local LLM Agent" codigo: "local-llm-agent" version: "0.6.0" subtipo: "STANDALONE" categoria: "INFRASTRUCTURE" # ----------------------------------------------------------------------------- # HERENCIA # ----------------------------------------------------------------------------- hereda_de: - "workspace-v2/orchestration/" # CONSUMERS no exportan a otros proyectos exporta_a: [] # ----------------------------------------------------------------------------- # RELACIONES DE SERVICIO # ----------------------------------------------------------------------------- # Este proyecto es infraestructura - sirve a todos via API sirve_a: - proyecto: "*" tipo: "SERVICE" via: "API" descripcion: "Cualquier proyecto puede usar el gateway LLM" # ----------------------------------------------------------------------------- # DEPENDENCIAS # ----------------------------------------------------------------------------- dependencias: runtime: # Al menos uno es requerido - nombre: "ollama" tipo: "external" version: ">=0.1.0" obligatorio: false nota: "Backend CPU para desarrollo" - nombre: "vllm" tipo: "external" version: ">=0.4.0" obligatorio: false nota: "Backend GPU para produccion con Multi-LoRA" opcional: - nombre: "redis" tipo: "external" obligatorio: false nota: "Cache de sesiones, DB 9" - nombre: "postgresql" tipo: "external" obligatorio: false nota: "Metricas, DB: local_llm_dev" - nombre: "prometheus" tipo: "external" obligatorio: false nota: "Stack de monitoring" - nombre: "grafana" tipo: "external" obligatorio: false nota: "Dashboard de metricas" gpu: - nombre: "nvidia-cuda" version: ">=12.6" obligatorio: false nota: "Requerido solo para vLLM backend" - nombre: "nvidia-container-toolkit" obligatorio: false nota: "Docker GPU support" # ----------------------------------------------------------------------------- # PROPAGACION # ----------------------------------------------------------------------------- propagacion: recibe_de: [] propaga_a: [] regla_sincronizacion: | Proyecto STANDALONE de infraestructura. No participa en la cadena de herencia ERP. Recibe directivas generales del workspace. # ----------------------------------------------------------------------------- # NOTAS # ----------------------------------------------------------------------------- notas: - "Proyecto STANDALONE de infraestructura" - "Sirve a todos los proyectos del workspace via API" - "No forma parte de la jerarquia ERP" - "Prioridad P1 segun ROADMAP" - "Phase 3 complete - Production ready" - "GPU setup requiere WSL con NVIDIA drivers"