General

UV y UNAM desarrollan sistema multimodal de traducción para personas sordas

  • Investigadores de ambas instituciones trabajan en este proyecto desde hace dos años
  • El CIIA realizó el Segundo Taller de Interacción Multimodal, Inteligencia Artificial y Aplicaciones

 

Homero Vladimir Ríos Figueroa, académico del Centro de Investigación en Inteligencia Artificial de la UV

Homero Vladimir Ríos Figueroa, académico del Centro de Investigación en Inteligencia Artificial de la UV

 

Claudia Peralta Vázquez

 

Xalapa, Ver., 05/12/2016.- La Universidad Veracruzana (UV), a través del Centro de Investigación en Inteligencia Artificial (CIIA), y la Universidad Nacional Autónoma de México (UNAM), mediante las facultades de Ciencias e Ingeniería, buscan crear –desde hace dos años– un traductor bidireccional para facilitar a las personas sordas la comunicación e integración a la sociedad.

Esta innovación, que tiene un 40 por ciento de avance, es resultado de un proyecto de movilidad entre ambas instituciones de educación superior, dio a conocer Homero Vladimir Ríos Figueroa, académico del CIIA de la UV.

En el marco del Segundo Taller de Interacción Multimodal, Inteligencia Artificial y Aplicaciones, que tuvo lugar los días 1 y 2 de diciembre en el auditorio del CIIA, y en el cual participaron estudiantes y catedráticos tanto de la UV como de la UNAM, apuntó que este sistema permitirá entender y reconocer la lengua de señas mexicana.

Lo anterior significa que cuando alguien desee comunicarse con una persona sordomuda –a través de una pantalla de computadora o mecanismo móvil como un celular– aparezca una animación que realizará la traducción en ambos sentidos.

El especialista, quien dentro de este evento impartió la ponencia “Reconocimiento del alfabeto de señas mexicano con distribuciones de probabilidad”, resaltó la complejidad de este lenguaje que incluye más de mil palabras, y aparte del alfabeto hay gestos que se hacen con las dos manos y el cuerpo.

Indicó que una vez que este trabajo concluya, la idea es implementarlo en todo el país, a fin de que en kioscos, plazas, hospitales, espacios públicos y centros educativos se fomente la integración de las personas sordomudas y puedan comunicarse libremente.

El objetivo del Taller de Interacción Multimodal es precisamente mostrar los avances en cuanto a sistemas multimodales o medios para comunicarse con las computadoras.

Junto con los robots, añadió, se busca crear sistemas más naturales (además del mouse, teclado o pantallas táctiles) como gestos, reconocimiento facial, de emociones y expresiones corporales, “incluso, existe un casco que detecta ondas cerebrales”.

El profesor de la Maestría en Inteligencia Artificial citó el caso de Brasil, donde ya cuentan con una aplicación en el celular de lenguaje de señas. Mediante la cámara se reconocen ciertos gestos y al momento de escribir un texto se anima un avatar para traducirlo.

En otros países como Estados Unidos, Gran Bretaña y Francia, debido a su alto sistema de financiamiento, también se registran avances significativos.

En el país, la lengua de señas mexicana es la lengua oficial de las personas sordas y está legalmente reconocida como una de las muchas que conforman el rico mosaico plurilingüístico. Además, cuenta con el aval del Consejo Nacional para Prevenir la Discriminación (Conapred) y la Secretaría de Educación Pública (SEP).

Mencionó que al igual que la UV y la UNAM, existen otras universidades que buscan incursionar en este tipo de trabajos, como el Instituto Politécnico Nacional (IPN) y otras instituciones de educación superior del Estado de México. “Nosotros buscamos un sistema que pueda funcionar en condiciones más generales”.

Homero Vladimir Ríos resaltó que en México se trabaja con el software del robot, aunque hay algunas universidades donde desarrollan algunos componentes de hardware, pero muchos de los robots se compran en el extranjero.

El trabajo que se desarrolla en el CIIA es muy importante, toda vez que se enfoca en cómo utilizar los robots en el hogar o en ciertos contextos.

Cabe mencionar que este proyecto se realiza en coordinación con Ana Luisa Solís González-Cosío, profesora de la Facultad de Ciencias de la UNAM, y sus estudiantes. También participan otros investigadores especialistas en sistemas multimodales y en robótica.

Categorías: General

Etiquetas: