[AUDIO_EN_BLANCO] [MÚSICA] Hola a todos y bienvenidos. Mi nombres es Josep Curto y soy profesor de la Universidad Oberta de Cataluña. En este vídeo, vamos a hablar de la visualización en el ámbito de Big Data, es decir, el ámbito de grandes volúmenes de datos. Vamos a dar principalmente dos temas. El primero de ellos es qué retos nos enfrentamos cuando queremos usar las técnicas de visualización en este contexto, del contexto del Big Data, y qué soluciones o qué opciones, qué estrategias tenemos disponibles para poder resolver los retos a los que nos enfrentamos. Pues, empecemos con los retos. Bueno, problemas múltiples, y de múltiples tipos. Y vamos a revisarlos. Vamos a empezar por el primero de ellos. Primero de todo, cuando generamos mayor cantidad de información, puede suceder que estemos generando ruido, ruido que no es relevante y que distorsiona realmente encontrar los patrones más interesantes, los aspectos de información que es más relevante para el usuario final, con lo cual, se minimiza el valor de la visualización. Es un mal punto de entrada, como os podéis imaginar. No es el único. Otro problema bastante relevante es que en esa cantidad de información que presentamos, tenemos una pérdida de información porque a veces la ocultamos, porque no podemos identificar esos patrones, porque, claro, en ese sentido, no solamente es que estés teniendo ruido, es que a lo mejor la ocultas conforme se va generando nueva información. Esto you empieza a ser grave, pero todavía hay más. Resulta que además, cuando estamos generando grandes volúmenes de Big Data, bueno, la frecuencia de datos en esos datos aumenta, aumenta de forma considerable. Por lo tanto, nuestra capacidad de capturar esos detalles sutiles que frecuentemente son relevantes para la toma de decisión se reduce. De hecho, la imagen que acompaña este punto es una imagen que podemos encontrar que hace referencia a una actualización segundos de los flujos de viento en Estados Unidos. Es simplemente una visualización espectacular, y sin embargo, en términos de toma de decisiones muy poco eficientes, muy limitada, ¿por qué? Porque no podemos capturar esas sutilezas que son relevantes para el negocio. Claro, si os fijáis, esto es porque a medida que estamos actualizando Big Data generamos más información o más rápido o de mayores fuentes, pero, sin embargo, no es el único problema habitual con el que nos encontramos, hay un problema que también está vinculado con nosotros mismos, es decir, nuestras limitaciones de recepción física. Recordemos que la cantidad de datos que podemos procesar a través del nervio óptico simplemente es 10 megabytes, con lo cual, la realidad se simplifica a través del nervio óptico y se vuelve a expandir en nuestro cerebro, lo que se traduce en sesgos. Los principios de Gestalt, por ejemplo, revisan y recopilan algunos de nuestros sesgos que tenemos, como por ejemplo, completar patrones aunque no estén completas las figuras. Si esto fuera poco, se une un último gran último reto, que es cuando trabajamos en un contexto de Big Data, la arquitectura que soporta nuestro sistema y la arquitectura de visualización debe ser lo suficientemente potente para reflejar esas actualizaciones de datos, esos cambios, esas actualizaciones, esas frecuencias, esas volumetrías. Por lo tanto, al final, estos problemas que son los más habituales y que pueden existir muchos más, pero que solo hemos enseñado son estos, limitan frecuentemente el uso de las técnicas de visualización dentro del contexto de una organización. Y sin embargo, nos podríamos preguntar ¿tenemos una estrategia para minimizar esos retos? ¿Para poder empezar a trabajar con Big Data, pero desde un punto de vista mucho más visual? Pues, sí. Tenemos diferentes estrategias, y vamos a empezar con aquellas que están más vinculadas con las estrategias de filtrado, es decir, podemos usar un filtrado a nivel inicial, es decir, reduciendo el conjunto de datos que está disponible en nuestro análisis. Podemos hacer una estrategia de ampliar la información a través de links cuando sea necesario. Podemos usar una estrategia de filtrado en el contexto de la imagen para ir reduciendo el foco, la cantidad de información presente, ¿no? O incluso trabajar una técnica muy interesante que es trabajar por capas, de manera que vamos presentando diferentes capas de información y podemos filtrarlas, hacerlas aparecer o desaparecer y reordenarlas en función de nuestro interés. Es decir, esta técnica de remapping, como se conoce, es una técnica habitual dentro del contexto de trabajar con mapas. Por ejemplo, soluciones como CARTO se dedican a presentar diferentes tipos de información en diferentes capas, y en función de lo que quieres analizar, vas a incluir unas u otras. Imagináos que quisiéramos analizar, por ejemplo, qué sucede en un parque en términos de dónde se encuentran las papeleras, dónde se encuentran las fuentes para las personas, dónde se encuentran los suspensores, dónde se encuentran las zonas que son de juego. Si presentáramos todos estos elementos al mismo tiempo, saturaríamos el mapa. Nosotros podríamos ir desseleccionando solamente aquellos que sean relevantes para el análisis de, por ejemplo, de un cierto contexto de negocio. Por ejemplo, definimos cuál sería la ruta óptima para la persona que recoge las basuras de las diferentes localizaciones dentro del parque, y así saber dónde tiene que empezar y dónde tiene de terminar el trayecto. Pero eso podríamos hacerlo haciendo desaparecer la información. Esta es una de las técnicas. Es decir, que consiste en reducir la cantidad de información que presentamos y cambiar las perspectivas de análisis basadas en filtros, en selección, en links o en una reordenación. Otras técnicas vienen you vinculadas al uso de diferentes gráficos, gráficos mucho más potentes, gráficos vinculados a la presentación de múltiples categorías. Uno de ellos, lo que se ve por pantalla, eso es lo que se denomina Treemap, que permite el uso de diferentes categorías por cajas y por porcentajes. Es decir, no es un reflejo fidedigno de la realidad, pero es una interpretación que nos permite comprender mucho mejor de lo que sucede. Hay otros, como basados en círculos, en la transformación a las coordenadas paralelos, el uso de grafos, en flujos o grafos circulares redes. Es decir, el objetivo es quizás no seamos capaces de representar la información de forma fidedigna, pero tenemos métodos alternativos más representativos, más simbólicos, más basados quizás en áreas, en colores, que nos permitan reducir los tamaños, las problemáticas, los sesgos que tenemos vinculados con el ámbito de Big Data y traducirlos. ¿Qué sucede? Bueno, sucede que muchos de estos gráficos se están encontrando de forma habitual, de forma embebida en aquellas soluciones como Stablo, o AirBI, ClixSense, o incluso en aquellas librerías como de JS, ¿no? Con el objetivo de cuando queramos ir a visualizar, representar información you desde el ámbito Big Data, podamos usar este tipo de gráficos que nos permiten tener más versatibilidad. Imagináos al mismo tiempo que combinamos las técnicas de filtrado con estas técnicas, you más gráficos específicos que pudiéramos reducir la cantidad de cajas y usar las técnicas de codificación por colores para ilustrar dónde están los pragmáticas o dónde están los puntos mejores. La combinación de ambas magnifica y potencia que podemos trabajar con gráficos dentro del ámbito de Big Data. En este vídeo, lo que hemos querido ilustrar, es decir, trabajar con visualización el ámbito Big Data supone un reto, y requiere de investigación, requiere de imaginación, y de hecho, debemos confesar de que aún estamos investigando técnicas que mejoren la forma de que representamos conjuntos de Big Data. Afortunadamente, en esta investigación, you hemos dado unos primeros pasos. Hemos dado pasos en técnicas que lo que hacen es filtrar, seleccionar, es decir, reducir el conjunto de datos que estamos presentando para podernos centrar en aquellas cosas que son relevantes. Y al mismo tiempo, también hemos identificado técnicas y gráficos que nos permiten representar mejor contextos, conjuntos complejos en el ámbito de Big Data. Esas técnicas, frecuentemente, son más simbólicas, son más representativas, no son tan realistas en el ámbito de lo que sucede, y sin embargo, combinadas con las anteriores, nos dan muchísima más capacidad de interpretación del dato. Recordáos que al final, si nosotros simplemente intentamos aplicar en el Big Data el dato, caemos en unos sesgos, que no nos va a permitir generar valor. Entonces, la visualización dejará de tener sentido y debemos aplicar otras técnicas para extraer los inside, los conocimientos que contiene un conjunto de Big Data. [MÚSICA] [AUDIO_EN_BLANCO]