### Agregar capa Dropout con comportamiento correcto en entrenamiento y evaluación, incluyendo backward consistente con la máscara aplicada. **Criterios de aceptación:** - Se implementa Dropout(p) con p configurable. - En modo train aplica máscara y escalado inverted dropout. - En modo eval se comporta como identidad. - El backward respeta máscara y escala. - Compatible con CPU y GPU. **Checklist técnica:** - [ ] Implementar clase Dropout como Module. - [ ] Integrar bandera de modo (train/eval) en la jerarquía de módulos. - [ ] Guardar máscara para backward en el nodo de autograd. - [ ] Añadir forward y backward CPU/GPU. - [ ] Exponer capa en bindings Python. - [ ] Documentar uso en ejemplo simple. **Pruebas mínimas:** - [ ] En eval, salida igual a entrada. - [ ] En train, proporción de ceros aproximada a p con tolerancia. - [ ] Gradientes cero donde mask=0 y escalados donde mask=1. - [ ] Paridad CPU/GPU en tensores pequeños.
Agregar capa Dropout con comportamiento correcto en entrenamiento y evaluación, incluyendo backward consistente con la máscara aplicada.
Criterios de aceptación:
Checklist técnica:
Pruebas mínimas: