Celebran taller de inteligencia artificial en Xalapa
Por Dioreleytte Valis
Xalapa, Veracruz. 8 de diciembre de 2016 (Agencia Informativa Conacyt).- El Centro de Investigación en Inteligencia Artificial (CIIA), recinto que pertenece a la Universidad Veracruzana, celebró el Segundo Taller de Interacción Multimodal, Inteligencia Artificial y Aplicaciones, con el propósito de exponer los avances obtenidos en materia de graficación por computadora, realidad virtual, visión por computadora y robótica.
El evento se logró gracias a la coordinación entre la Universidad Veracruzana (UV) y la Universidad Nacional Autónoma de México (UNAM), que trabajan en temáticas como robótica de servicio, interacción multimodal humano-computadora y reconocimiento de lenguaje de señas mexicano. Los talleres y presentaciones se efectuaron durante los días 1 y 2 de diciembre, teniendo como sede el auditorio principal del CIIA. La ceremonia de inauguración del evento tecnológico estuvo a cargo del maestro Rubén de la Mora Basáñez, director del CIIA, en compañía de la maestra Ana Luisa Solís, investigadora de la Facultad de Ciencias de la UNAM, y el doctor Homero Vladimir Ríos Figueroa, quien es profesor del CIIA.
Durante el Segundo Taller de Interacción Multimodal, Inteligencia Artificial y Aplicaciones, se dieron a conocer los distintos proyectos de ambas entidades académicas, como la interacción multimodal con avatares, detección de microsueño, robótica de servicio, detección de rostros en teléfonos inteligentes, reconocimiento de expresiones dinámicas en el lenguaje de señas mexicano y reconocimiento del alfabeto de señas mexicano con distribuciones de probabilidad.
“Los sistemas multimodales integran dos o más modalidades para realizar la comunicación humano-computadora. Ejemplos de modalidades son la voz, gestos, ademanes, expresiones faciales, movimientos corporales. Esto con el objetivo de que cada vez sea más natural y efectiva la comunicación con las computadoras o dispositivos, tablets, celulares, y de esta manera nos sean más útiles”, detalló el doctor Vladimir Ríos, investigador del CIIA.
Asimismo, el maestro Yahir Hernández Mella presentó los avances de su tesis doctoral A proposal to measure affective states in human computer interaction, que consiste en el análisis de datos obtenidos mediante un sensor de ondas encefalográficas, que mide estados afectivos tales como la frustración.
Referente al tema de robótica de servicio, el doctor Antonio Marín explicó que el objetivo es llevar la robótica al hogar. Su proyecto consiste en el desarrollo de módulos de software que permiten reconocer objetos en un espacio habitacional, para que el robot pueda ubicarlos dentro de su mapa 3D y así responder de mejor manera a sus usuarios. Agregó que esta investigación la desarrolla en colaboración con investigadores del Laboratorio de Análisis y Arquitectura de Sistemas (LAAS) en Toulouse, Francia.
Para finalizar el evento, el investigador Vladimir Ríos expuso su más reciente investigación, que consiste en un método para reconocer el alfabeto de lenguaje de señas mexicano, a partir de nubes de puntos adquiridas mediante el sensor MS-Kinect. Señaló que el propósito es crear un software capaz de permitir la interacción bidireccional que facilite la comunicación de personas con discapacidad auditiva. Sobre la misma línea de investigación, la maestra en inteligencia artificial Obdulia Sosa mostró avances en el reconocimiento de expresiones dinámicas en el lenguaje de señas mexicano, para entender a las personas que usan este lenguaje.
Esta obra cuyo autor es Agencia Informativa Conacyt está bajo una licencia de Reconocimiento 4.0 Internacional de Creative Commons.