[MÚSICA] Bienvenido a un nuevo video de nuestro curso de minería de datos. Hoy continuaremos con el algoritmo Apriori. El objetivo de este video es explicar a grandes rasgos cómo funciona el algoritmo mostrando en un ejemplo sencillo las principales interacciones que se desarrollan en él. Recordemos que este algoritmo está sustentado en el principio de monotonicidad para poder deducir la búsqueda de itemsets candidatos. También debemos recordar que lo primero que necesitamos es una base de datos con transacciones desde la cual nos interesa obtener las reglas de asociación. Como lo mencionamos anteriormente el algoritmo primero encuentra los itemsets frecuentes y luego para cada uno de estos itemsets se construye las reglas de asociación candidatas, después veremos que las reglas que sobreviven serán en las que sobrepasen los umbrales de confianza. Volvamos a nuestro ejemplo donde tenemos las cuatro transacciones que se muestran en pantalla, el primer paso es asumir que todos los productos por si sólo son candidato a ser un itemset frecuente. Una vez generados los itemsets de a un ítem tenemos que ver cuáles son los que superan el umbral mínimo, por ejemplo en este caso asumamos que el umbral mínimo es de dos cuartos tenemos que contar entonces para cada itemset cuál es el soporte de cada uno y ver si pasan el umbral. En este caso vemos que la manzana, naranja y pera superan el umbral pero el limón, plátano y leche no lo logran superar you que tienen un soporte de un cuarto. Una vez que selecciona los itemsets de a un ítem que son frecuentes tenemos que generar los itemsets candidatos que contienen dos ítems para ello generamos todas las combinaciones de productos de a dos objetos a partir de los tres elementos que pasaron el umbral, en nuestro ejemplo la manzana, naranja y pera. En este caso vemos que los pares distintos que podemos generar son manzana naranja, manzana pera y naranja pera. Estos tres itemsets de a dos ítems serán candidatos a pasar a la siguiente ronda. Para seleccionar los itemsets de a dos ítems que son frecuentes debemos eliminar los que no superan el umbral mínimo de soporte. Para ello contamos entonces la frecuencia de ocurrencia de cada uno de los itemsets candidatos dentro de las cuatro transacciones. Vemos en este caso que los tres itemsets tienen un soporte de dos cuartos por lo tanto todos son aprobados para pasar a la siguiente ronda. Al igual que en la iteración anterior, tenemos que generar los nuevos itemsets candidatos en este caso los estamos generando a partir de los itemsets frecuentes de dos productos, por lo tanto vamos a tener itemsets candidatos que contienen tres productos. Podemos apreciar entonces que hay un único itemset posible de tres elementos que nace de combinar los itemsets frecuentes de a dos, el itemset manzana naranja y pera. Nuevamente para ver si nuestro itemset candidato puede ser catalogado como itemset frecuente tenemos que calcular su soporte contando dentro de la base de transacciones cuál es su frecuencia relativa, en este caso vemos que el itemset candidato tiene una soporte de dos cuartos, por lo tanto aprueba y es considerado un itemset frecuente. Notar como sólo hay un itemset de tres productos no podemos seguir generando itemsets de a cuatro productos you que no tenemos otro itemset con el cual combinar nuestro nuevo itemset frecuente. Esta es la situación donde el algoritmo Apriori termina la búsqueda de itemsets frecuentes y se detiene. En este video vimos a grandes rasgos cómo funciona el algoritmo Apriori, vimos que es un proceso interactivo donde se van generando los itemsets candidatos para luego ser evaluados y decidir si formarán nuevos candidatos o no en la siguiente etapa. [AUDIO_EN_BLANCO]