trading-platform/orchestration/tareas/TASK-2026-01-25-ML-TRAINING-ENHANCEMENT/SUMMARY.md
Adrian Flores Cortes 7bfcbb978e docs: Add OQI-006 DATA-PIPELINE-SPEC.md and ML-TRAINING-ENHANCEMENT task docs
- Added DATA-PIPELINE-SPEC.md for ML signals module
- Added TASK-2026-01-25-ML-TRAINING-ENHANCEMENT documentation

Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
2026-01-25 14:32:37 -06:00

106 lines
2.9 KiB
Markdown

# SUMMARY: Mejora Integral de Modelos ML para Trading
**Task ID:** TASK-2026-01-25-ML-TRAINING-ENHANCEMENT
**Tipo:** analysis + feature
**Prioridad:** P0
**Epic:** OQI-006-ml-signals
---
## RESUMEN EJECUTIVO
Esta tarea define un plan integral para mejorar los modelos de Machine Learning de trading-platform con el objetivo de alcanzar **80% de efectividad mínima** en las operaciones de trading ejecutadas por el LLM.
### Alcance
- **5 estrategias de modelos** con arquitecturas diversificadas
- **Neural Gating Metamodel** para ensemble ponderado dinámico
- **Integración LLM** para decisiones basadas en predicciones
- **Modelos especializados por activo** (6 símbolos)
- **Mecanismos de atención** sobre variación de precio
### Estrategias Diseñadas
| # | Código | Nombre | Arquitectura |
|---|--------|--------|--------------|
| 1 | PVA | Price Variation Attention | Transformer + XGBoost |
| 2 | MRD | Momentum Regime Detection | HMM + LSTM + XGBoost |
| 3 | VBP | Volatility Breakout Predictor | CNN 1D + Attention + XGBoost |
| 4 | MSA | Market Structure Analysis | XGBoost (GNN opcional) |
| 5 | MTS | Multi-Timeframe Synthesis | Hierarchical Attention Network |
### Fases de Ejecución
```
FASE 1: Infraestructura (Data Pipeline + Attention Architecture)
FASE 2: 5 Estrategias (Paralelo)
FASE 3: Integración (Metamodel + LLM)
FASE 4: Validación (Backtesting)
```
### Métricas Objetivo
| Métrica | Objetivo |
|---------|----------|
| Efectividad operaciones | ≥80% |
| Direction accuracy | ≥70% |
| Sharpe Ratio | ≥1.5 |
| Max Drawdown | ≤15% |
### Estimación
- **Subtareas totales:** 54
- **Story Points:** 90 SP
- **GPU Hours:** ~410h
- **Storage adicional:** ~26GB
### Dependencias Principales
1. Migración de datos históricos (5.6GB de WorkspaceOld)
2. GPU 16GB VRAM (disponible)
3. PyTorch ≥2.0, XGBoost, hmmlearn
### Estado Actual
| Fase | Estado |
|------|--------|
| C - Contexto | ✅ Completada |
| A - Análisis | ✅ Completada |
| P - Planeación | ✅ Completada |
| V - Validación | ✅ Aprobada |
| E - Ejecución | ⏳ Pendiente |
| D - Documentación | 🔄 En progreso |
---
## PRÓXIMOS PASOS
1. **Aprobar plan** con usuario
2. **Iniciar FASE 1** (Data Pipeline + Attention Architecture)
3. **Asignar agentes** para ejecución paralela en FASE 2
4. **Monitorear progreso** con métricas definidas
---
## ARCHIVOS DE LA TAREA
```
orchestration/tareas/TASK-2026-01-25-ML-TRAINING-ENHANCEMENT/
├── METADATA.yml # Metadata completa
├── 01-CONTEXTO.md # Fase C
├── 02-ANALISIS.md # Fase A (extenso)
├── 03-PLANEACION.md # Fase P (extenso)
├── 04-VALIDACION.md # Fase V
├── 05-EJECUCION.md # Fase E (template)
├── 06-DOCUMENTACION.md # Fase D
└── SUMMARY.md # Este archivo
```
---
**Creado:** 2026-01-25
**Agente:** ARQUITECTO-ML-AI (Claude Opus 4.5)