Ciencia

Audición robótica, con amplias posibilidades de desarrollo

  • Caleb Rascón, del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas, participó en la 4ª Escuela de Invierno de Robótica de la Universidad Veracruzana

 

Caleb Antonio Rascón

 

David Sandoval Rodríguez

 

12/01/2018, Xalapa, Ver.- La audición robótica ha logrado avances importantes pero debe aspirar a emular la audición humana en cuanto al procesamiento de la información, explicó Caleb Antonio Rascón Estebané, investigador del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS) de la Universidad Nacional Autónoma de México (UNAM).

Así lo planteó en su conferencia “Audición robótica”, que impartió en la 4ª Escuela de Invierno de Robótica (EIR), organizada por el Centro de Investigación en Inteligencia Artificial (CIIA) de la Universidad Veracruzana (UV) y que tuvo como recinto el Casino Xalapeño.

El académico forma parte del Grupo Golem, proyecto que desarrolla robots de servicio para asistir a las personas en su quehacer diario, con una orientación primordial hacia la inteligencia artificial y a la interacción humano-robot.

En la audición robótica, uno de los mayores retos es localizar la fuente de sonido y su clasificación implica una tarea que requiere mayor investigación y desarrollo para poder distinguir entre una fuente de interés, como puede ser una persona o una fuente de distracción como el ruido o la interferencia, comentó.

Al explicar todos los pasos que conlleva una escucha pormenorizada, recalcó que “en este momento no hay una computadora que pueda llevar a cabo todas las tareas, tampoco un sistema de audición robótica que pueda realizarlo y no es porque falte procesamiento en el aspecto algorítmico sino en la audición”.

Explicó la importancia de generar investigación y trabajo en emular la escucha humana ya que al hacer evidente que un robot se dirige o dirige sus micrófonos hacia una persona, ésta responde en la dirección de aquél, lo cual facilita la interacción entre ambos, como ocurre entre dos personas.

“Como humanos esperamos que haya una persona dentro de la carcasa”, bromeó el ponente antes de exponer un video donde prueban al robot Golem como un mesero que debe atender tres solicitudes verbales al mismo tiempo y debe discernir a cuál atender primero. Los resultados ya fueron publicados y muestran que eligió al más próximo, avanzó hacia él pero atendió con un movimiento de su cabeza a otra persona y le respondió que lo atendería después.

Se han realizado experimentos de interacción entre Golem y Justina, otro robot con el cual se trabaja en el IIMAS; no obstante, planteó que cada uno de los proyectos trabaja con plataformas y robots distintos en los que se reflejan también sus diferencias de software, por ello propuso que una de las posibilidades para comunicarse, más allá de los códigos de programación y lenguajes algorítmicos, puede ser el sonido emitido por los robots, es decir, que se comuniquen expresándose con palabras.

“Uno de los grandes problemas que enfrenta la audición robótica es el hecho de que el micrófono esté alejado de la persona que habla, limitando el reconocimiento de la voz, además de sumarse la reverberación de la misma voz e incluso voces de otras personas”, comentó.

“Todos los reconocedores de voz que tenemos en la actualidad asumen que solamente una persona está hablando, pero en la realidad no siempre hablamos con una persona a la vez y lo que queremos llevar a cabo es el reconocimiento de voz y que sea posible trasladar los avances más allá de la línea de robots de servicio.”

Una razón importante para continuar trabajando en esta área radica en que “la escucha humana sigue siendo un misterio para nosotros en muchos aspectos”, se conoce el funcionamiento del oído pero se conoce muy poco de cómo el cerebro humano identifica, localiza y comprende a la persona.

“Sería fenomenal emular la audición de un ser humano y a lo mejor esto abra una pequeña ventana para entender cómo programar, porque se requiere de una enorme cantidad de datos”.

Rascón Estebané dijo que en 2018 esperan reducir el espacio que utilizan los micrófonos en el robot, ya que han trabajado con tres y tienen el propósito de no incluir más en el equipo; esto conlleva solucionar las dificultades que implica para el reconocimiento de voz.

Por otra parte, una estudiante de maestría comenzará como su proyecto de tesis la identificación de los locutores, es decir, que tenga la capacidad de diferenciar entre las voces. Este no es un tema nuevo, sin embargo el enfoque de su propuesta se enfoca en que el robot no tenga que aprender las palabras del nuevo individuo sino que pueda discernir y aplique lo que ha aprendido al reconocimiento de la nueva persona.

Categorías: Ciencia