Sesion 7: Modelo Seq2Seq y Mecanismos de Atención

⬅️ Volver al Índice

🎯 Objetivo de la Sesión

Construir modelos encoder-decoder para tareas de transformación de secuencias e incorporar mecanismos de atención para mejorar traducción y resumen.

📘 Teoría

💻 Ejercicios