Mi nombre es Daniel Ramírez y yo estudio doctorado en ciencias de la ingeniería con el doctor Pedro Ponce como asesor. Él dirige mi tesis y en este caso es este robot, que pretende ser un robot para ayuda a los terapeutas con los niños autistas. Su función principal es que sea un puente de interacción entre el niño y el terapeuta. Y le pueda enseñar al niño ciertas actitudes sociales que en las que ellos tienen problemas. Se ha hecho mucha investigación en cuanto a la forma en la que se tiene que diseñar el robot y se ha llegado a este diseño después de uno anterior que se tenía y you nos permite por ejemplo, llevarlo a campo en un momento dado si es que se quiere hacer el estudio you con un niño en específico. you que cuenta con algunos puntos de seguridad, no se pretende que, se pretende que sea muy seguro y no se pretende que siempre esté en campo. Sin embargo, ahorita el diseño que se tiene you es completamente funcional para implementar algoritmos de inteligencia artificial. Este cuenta con cuatro grados de libertad en cada uno de los brazos y con cuatro mecanismos que lo hacen gesticular de diferentes formas. Vamos a mostrar ahorita cómo es que inició el, el proceso de gesticulación. Y nosotros en este caso nada más controlamos el robot por medio de la computadora. Se hizo una base de datos, de cómo queremos que gesticulara y esto nos permitió generar estas, estos gestos. Por ejemplo, ahora tenemos feliz. Se van haciendo cambios graduales, a un poco más feliz para que denote una gesticulación gradual y no sea completamente dura, por llamarlo de alguna manera. Tenemos también sorprendido. Tenemos otro gesto intermedio, cambiamos a sorprendido. Ahora enojado. Si por ejemplo, tenemos algunas otras como preocupado. Ahora vamos a ver un ejemplo de reconocimiento de voz y es aquí donde el robot you no hace caso a un comando directo de la computadora que nosotros metíamos de forma manual, ahora con mi voz el robot va a llevar a cabo una gesticulación diferente en cada caso. Se pretende que este reconocimiento en un futuro se modifique y que sea sensible a expresiones de el niño como risas, gritos. Y esto le diga al robot qué gesto podría llevar a cabo. Es ahí donde entraría nuestra inteligencia artificial y los algoritmos que vamos a diseñar para que pueda el robot tener un grado de inteligencia que le permita llevar a cabo esta función. Bien. Ahora inicio mi reconocimiento de voz en la computadora. Normal. Feliz. Sorprendido. Normal. Muy feliz. Aburrido. Normal. Muy bien, aquí tenemos you esa función del reconocimiento de voz. Básicamente se implementaron los mismos gestos que anteriormente se mostraron, pero ahora por medio del reconocimiento de mi voz. Cabe mencionar que este reconocimiento sirve para cualquier persona y solamente se tendría que llevar a cabo un entrenamiento de unos 10 minutos, you que utilizamos un reconocimiento que usa la misma computadora. Después de esto, se paso a que el robot sintiera de alguna manera y se le instalaron diversos sensores. Por ejemplo, aquí en el brazo podemos ver en esta zona que tiene uno y aquí está precisamente el cable. En este caso el ejemplo va a demostrar dos sensores instalados, uno en esta zona y otro en esta parte de aquí. El control de este, de esta aplicación se hizo a través de control difuso, que nos permite dependiendo de la presión que se ponga en los sensores en uno o en otro va a cambiar ahora la gesticulación. Lo que simula que el robot siente cuando esto acaba. Bien. Ahora vamos a dirigir el robot un poco más hacia, listo. Muy bien. Yo lo que puedo hacer es tocar este punto, justo aquí y el siente, el empieza a gesticular. Si yo aumento la presión como si pellizcara, él se molesta. También puedo sentirlo de este lado. Si yo lo acaricio con una presión muy leve, él va a sentir y si yo le pego, él cambia su forma en la que nos dice que está sintiendo una agresión. Este tipo de sensores se le van a instalar en diferentes partes. Ahorita solamente se le instalaron dos en lo que es la cara, va a tener dos en las manos y va tener también en el, en el pecho. Si el robot ha pasado por el niño o tocado en las mismas manos o toca al niño, el robot va a poder percibir estos estímulos. Toda esta información es muy importante y nos va a permitir darle un valor extra al robot, you que todo esto lo vamos a poder almacenar y hacer gráficas, llevar estadísticas de cómo va avanzando el niño en cuanto al contacto con el robot. Ahora vamos a pasar, estos brazos como les comenté tienen cuatro grados de libertad. Por el momento no se ha hecho una implementación de control, se está trabajando en ello. Pero si es posible, moverlos. Para que se vea que son completamente funcionales y que sus grados se asemejan a, sus grados de movimiento se asemejan a los de un ser humano. Bien. Se inicializa primero el programa. Y a partir de allí por ejemplo podemos mover lo que es el cuello, hacia la derecha, izquierda. Podemos moverlo hacia arriba, hacia abajo, podemos mover el mismo brazo derecho que suba, baje, el izquierdo lo mismo. A que haga una extensión del brazo hacia afuera o hacia adentro, que mueva el codo hacia arriba o hacia abajo, hacia adentro o hacia afuera el hombro. Y por ejemplo, podemos llegar a hacer que el robot se toque por ejemplo, la nariz. Listo. Básicamente, esas son los grados que tiene de libertad el robot. Los dos brazos funcionan de la misma manera y bueno ese es el diseño que se ha hecho hasta el momento.