FILU 2025

IA es herramienta, no sustituto en la toma de decisiones: expertos

  • Genoveva Vargas Solar y Raúl Monroy Borja participaron en la mesa “Inteligencia Artificial para el tratamiento y la seguridad de datos”, 
  • Dentro del Foro Académico “Vivir en tiempos de Inteligencia Artificial: relaciones humanas, medio ambiente y tecnologías” 
  • Ante estudiantes de la Unidad de Economía y Estadística 

 

La Unidad de Economía y Estadística fue sede del Foro Académico “Vivir en tiempos de Inteligencia Artificial: relaciones humanas, medio ambiente y tecnologías”

 

Texto y fotos: David Sandoval Rodríguez 

05/06/2025, Xalapa, Ver.- La Inteligencia Artificial (IA) es una herramienta y no un sustituto en la toma de decisiones, porque sus modelos tienen un gran problema para aprender debido a los sesgos occidentales, masculinos y heteropatriarcales, compartieron expertos en el Aula Magna “Roberto Bravo Garzón” de la Unidad de Economía y Estadística. 

Genoveva Vargas Solar y Raúl Monroy Borja, moderados por Edgard Iván Benítez Guerrero, integrante del núcleo académico básico del Doctorado en Ciencias de la Computación, participaron en la mesa “Inteligencia Artificial para el tratamiento y la seguridad de datos”, como parte del Foro Académico “Vivir en tiempos de Inteligencia Artificial: relaciones humanas, medio ambiente y tecnologías”, de la Feria Internacional del Libro Universitario (FILU) 2025.

 

Genoveva Vargas, investigadora del CNRS, habló sobre los sesgos del lenguaje que inciden en los modelos de IA

 

Vargas Solar, científica senior en el Centro Nacional de Investigación Científica (CNRS, por sus siglas en francés) de Francia, desarrolla su investigación en el Laboratorio de Informática en Imágenes y Sistemas de Información (Liris) del país europeo y es integrante de su Comité de Equidad de Género. 

Expresó que los datos digitalizados que se utilizan para las búsquedas de toma de decisiones proceden de una perspectiva occidental, en inglés, de carácter masculino y heteropatriarcal, provocando “un grave problema de sesgo para aplicar en los modelos de IA”. 

 

Raúl Monroy, académico del ITESM, advirtió que en el lenguaje están las pautas que detecta la IA para determinar sexo o edad

 

Estos datos “lingüísticamente poco diversos” además son incompletos, porque siempre parten de un lugar de enunciación, un sujeto o una entidad, que tiene una perspectiva particular y específica para referir un fenómeno y analizarlo, agregó Monroy Borja, académico del Instituto Tecnológico y de Estudios Superiores de Monterrey (ITESM), campus Estado de México, y ex presidente de la Sociedad Mexicana de Inteligencia Artificial. 

Argumentó que, si bien se realizan grandes esfuerzos para aplicar la IA a la protección de datos personales, los modelos de IA generativa tienen la capacidad de detectar el sexo, la edad y hasta el origen socioeconómico de las personas a partir de sus respuestas o sus frases de búsqueda, conocidas como prompts, dado que es el lenguaje, las palabras y las construcciones gramaticales lo que permite a la IA detectar estas características. 

 

Alumnos y profesores atendieron a la charla en el Aula Magna “Roberto Bravo Garzón”

 

Los ponentes coincidieron en advertir que la IA no es la solución automatizada al proceso de toma de decisiones, al contrario, no todos los procesos se pueden representar de manera cuantitativa, hay algunos que tienen que ser representados de manera cualitativa. 

“Hay problemas que se tienen que entender desde un enfoque cualitativo, como ocurre en las ciencias sociales”, puntualizó Genoveva Vargas.