Acerca de este Curso

211,945 vistas recientes
Certificado para compartir
Obtén un certificado al finalizar
100 % en línea
Comienza de inmediato y aprende a tu propio ritmo.
Fechas límite flexibles
Restablece las fechas límite en función de tus horarios.
Nivel intermedio
Aprox. 27 horas para completar
Inglés (English)

Habilidades que obtendrás

Reformer ModelsNeural Machine TranslationChatterbotT5+BERT ModelsAttention Models
Certificado para compartir
Obtén un certificado al finalizar
100 % en línea
Comienza de inmediato y aprende a tu propio ritmo.
Fechas límite flexibles
Restablece las fechas límite en función de tus horarios.
Nivel intermedio
Aprox. 27 horas para completar
Inglés (English)

ofrecido por

Placeholder

deeplearning.ai

Programa - Qué aprenderás en este curso

Calificación del contenidoThumbs Up78%(1,184 calificaciones)Info
Semana
1

Semana 1

7 horas para completar

Neural Machine Translation

7 horas para completar
9 videos (Total 81 minutos), 9 lecturas, 1 cuestionario
9 videos
Seq2seq4m
Alignment4m
Attention6m
Setup for Machine Translation3m
Training an NMT with Attention6m
Evaluation for Machine Translation8m
Sampling and Decoding9m
Andrew Ng with Oren Etzioni34m
9 lecturas
Connect with your mentors and fellow learners on Slack!10m
Background on seq2seq10m
(Optional): The Real Meaning of Ich Bin ein Berliner10m
Attention10m
Training an NMT with Attention10m
(Optional) What is Teacher Forcing?10m
Evaluation for Machine Translation10m
Content Resource10m
How to Refresh your Workspace10m
Semana
2

Semana 2

6 horas para completar

Text Summarization

6 horas para completar
7 videos (Total 43 minutos), 1 lectura, 1 cuestionario
7 videos
Transformer Applications8m
Dot-Product Attention7m
Causal Attention4m
Multi-head Attention6m
Transformer Decoder5m
Transformer Summarizer4m
1 lectura
Content Resource10m
Semana
3

Semana 3

7 horas para completar

Question Answering

7 horas para completar
10 videos (Total 45 minutos), 1 lectura, 1 cuestionario
10 videos
Transfer Learning in NLP7m
ELMo, GPT, BERT, T57m
Bidirectional Encoder Representations from Transformers (BERT)4m
BERT Objective2m
Fine tuning BERT2m
Transformer: T53m
Multi-Task Training Strategy5m
GLUE Benchmark2m
Question Answering2m
1 lectura
Content Resource10m
Semana
4

Semana 4

7 horas para completar

Chatbot

7 horas para completar
7 videos (Total 62 minutos), 5 lecturas, 1 cuestionario
7 videos
Transformer Complexity3m
LSH Attention4m
Motivation for Reversible Layers: Memory! 2m
Reversible Residual Layers 5m
Reformer2m
Andrew Ng with Quoc Le40m
5 lecturas
Optional AI Storytelling15m
Optional KNN & LSH Review20m
Optional Transformers beyond NLP20m
Acknowledgments10m
References10m

Reseñas

Principales reseñas sobre NATURAL LANGUAGE PROCESSING WITH ATTENTION MODELS

Ver todas las reseñas

Acerca de Programa especializado: Procesamiento de lenguajes naturales

Procesamiento de lenguajes naturales

Preguntas Frecuentes

¿Tienes más preguntas? Visita el Centro de Ayuda al Alumno.