Skip to content

Implementar Dropout con autograd y soporte train/eval #5

@Gilberto-Galan

Description

@Gilberto-Galan

Agregar capa Dropout con comportamiento correcto en entrenamiento y evaluación, incluyendo backward consistente con la máscara aplicada.

Criterios de aceptación:

  • Se implementa Dropout(p) con p configurable.
  • En modo train aplica máscara y escalado inverted dropout.
  • En modo eval se comporta como identidad.
  • El backward respeta máscara y escala.
  • Compatible con CPU y GPU.

Checklist técnica:

  • Implementar clase Dropout como Module.
  • Integrar bandera de modo (train/eval) en la jerarquía de módulos.
  • Guardar máscara para backward en el nodo de autograd.
  • Añadir forward y backward CPU/GPU.
  • Exponer capa en bindings Python.
  • Documentar uso en ejemplo simple.

Pruebas mínimas:

  • En eval, salida igual a entrada.
  • En train, proporción de ceros aproximada a p con tolerancia.
  • Gradientes cero donde mask=0 y escalados donde mask=1.
  • Paridad CPU/GPU en tensores pequeños.

Metadata

Metadata

Assignees

No one assigned

    Projects

    Status

    Todo

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions