Acerca de este Curso

237,975 vistas recientes
Certificado para compartir
Obtén un certificado al finalizar
100 % en línea
Comienza de inmediato y aprende a tu propio ritmo.
Fechas límite flexibles
Restablece las fechas límite en función de tus horarios.
Nivel intermedio
Aprox. 24 horas para completar
Inglés (English)

Habilidades que obtendrás

Word2vecParts-of-Speech TaggingN-gram Language ModelsAutocorrect
Certificado para compartir
Obtén un certificado al finalizar
100 % en línea
Comienza de inmediato y aprende a tu propio ritmo.
Fechas límite flexibles
Restablece las fechas límite en función de tus horarios.
Nivel intermedio
Aprox. 24 horas para completar
Inglés (English)

ofrecido por

Placeholder

deeplearning.ai

Programa - Qué aprenderás en este curso

Calificación del contenidoThumbs Up92%(2,237 calificaciones)Info
Semana
1

Semana 1

6 horas para completar

Autocorrect

6 horas para completar
9 videos (Total 27 minutos), 2 lecturas, 1 cuestionario
9 videos
Overview1m
Autocorrect2m
Building the model3m
Building the model II2m
Minimum edit distance2m
Minimum edit distance algorithm5m
Minimum edit distance algorithm II3m
Minimum edit distance algorithm III2m
2 lecturas
Connect with your mentors and fellow learners on Slack!10m
How to Refresh your Workspace10m
Semana
2

Semana 2

4 horas para completar

Part of Speech Tagging and Hidden Markov Models

4 horas para completar
11 videos (Total 38 minutos)
11 videos
Markov Chains3m
Markov Chains and POS Tags4m
Hidden Markov Models3m
Calculating Probabilities3m
Populating the Transition Matrix4m
Populating the Emission Matrix2m
The Viterbi Algorithm3m
Viterbi: Initialization2m
Viterbi: Forward Pass2m
Viterbi: Backward Pass5m
Semana
3

Semana 3

7 horas para completar

Autocomplete and Language Models

7 horas para completar
9 videos (Total 50 minutos)
9 videos
N-grams and Probabilities7m
Sequence Probabilities5m
Starting and Ending Sentences8m
The N-gram Language Model6m
Language Model Evaluation6m
Out of Vocabulary Words4m
Smoothing6m
Week Summary1m
Semana
4

Semana 4

7 horas para completar

Word embeddings with neural networks

7 horas para completar
20 videos (Total 65 minutos), 1 lectura, 1 cuestionario
20 videos
Basic Word Representations3m
Word Embeddings3m
How to Create Word Embeddings3m
Word Embedding Methods3m
Continuous Bag-of-Words Model3m
Cleaning and Tokenization4m
Sliding Window of Words in Python3m
Transforming Words into Vectors2m
Architecture of the CBOW Model3m
Architecture of the CBOW Model: Dimensions3m
Architecture of the CBOW Model: Dimensions 22m
Architecture of the CBOW Model: Activation Functions4m
Training a CBOW Model: Cost Function4m
Training a CBOW Model: Forward Propagation3m
Training a CBOW Model: Backpropagation and Gradient Descent4m
Extracting Word Embedding Vectors2m
Evaluating Word Embeddings: Intrinsic Evaluation3m
Evaluating Word Embeddings: Extrinsic Evaluation2m
Conclusion2m
1 lectura
Acknowledgments10m

Reseñas

Principales reseñas sobre NATURAL LANGUAGE PROCESSING WITH PROBABILISTIC MODELS

Ver todas las reseñas

Acerca de Programa especializado: Procesamiento de lenguajes naturales

Procesamiento de lenguajes naturales

Preguntas Frecuentes

¿Tienes más preguntas? Visita el Centro de Ayuda al Alumno.