Sesion 7: Modelo Seq2Seq y Mecanismos de Atención
🎯 Objetivo de la Sesión
Construir modelos encoder-decoder para tareas de transformación de secuencias e incorporar mecanismos de atención para mejorar traducción y resumen.
📘 Teoría
- 🖼️ Sesión 7
Construir modelos encoder-decoder para tareas de transformación de secuencias e incorporar mecanismos de atención para mejorar traducción y resumen.