Diseñan sistema para el reconocimiento del lenguaje de señas
Boletín de prensa
4463/2017
Xalapa, Veracruz. 9 de enero de 2017 (Agencia Informativa Conacyt).- La Universidad Veracruzana, a través del Centro de Investigación en Inteligencia Artificial (CIIA), desarrolla un sistema que ayudaría a la traducción del lenguaje de señas, utilizado por las personas con discapacidad auditiva. Se trata de un método de reconocimiento de imágenes, que se apoya en un sensor MS-Kinect, para traducir señas a texto.
De acuerdo con el doctor Homero Vladimir Ríos Figueroa, investigador del CIIA, el propósito del proyecto es crear un sistema que ayude en la traducción del lenguaje de señas mexicano, mediante el uso de una cámara o sensor Kinect. A través de estos dispositivos, se obtienen nubes de puntos que son interpretadas por algoritmos de visión por computadora. De esta forma, las señas y gestos pueden ser traducidos a texto o voz.
En entrevista con la Agencia Informativa Conacyt, el investigador indicó que el proyecto contempla la creación de un traductor bidireccional, por lo que la investigadora de la Facultad de Ciencias de la Universidad Nacional Autónoma de México (UNAM), Ana Luisa González, trabaja en la animación de un avatar, capaz de realizar el lenguaje de señas.
“El objetivo es crear un sistema que funcione como un traductor bidireccional, con el reconocimiento de expresiones dinámicas del lenguaje de señas y la función de un avatar que emule el lenguaje de señas mexicano. Este sistema podría integrarse en lugares públicos como bancos u hospitales para facilitar la comunicación de personas con discapacidad auditiva”, explicó el doctor Vladimir Ríos.
DV/AT/FV/4463/2017