Desarrollan en el CUCEI robots con inteligencia social

Podrían identificar emociones y estados de ánimo

 

Investigadores del Centro Universitario de Ciencias Exactas e Ingenierías (CUCEI) desarrollan un prototipo de robot que podría identificar emociones y acompañaría a los humanos en su vida cotidiana, o auxiliaría en los cuidados médicos.

 

El reto de los doctores Daniel Zaldívar Navarro y Erik Valdemar Cuevas Jiménez, académicos del Departamento de Electrónica y Computación, es hacer que los prototipos que desarrollan posean lo que los estudiosos llaman “inteligencia social”, es decir, que se comporten de la manera más humana posible, que sean de utilidad para los humanos y aceptados sin causar rechazo o miedo en las personas.

 

“Son robots sensibles a nuestras emociones y que pudieran contribuir a que estemos mejor, que obtengamos un beneficio. Es una máquina que se vuelve mi compañía, que me está proporcionando lo que yo necesito según el momento y mi estado de ánimo”, explica Zaldívar Navarro, uno de los involucrados en el proyecto.

 

Ambos doctores en Inteligencia artificial por la Universidad Libre de Berlín, trabajan desde hace años en diversos prototipos con capacidad para moverse de forma balanceada y han logrado, incluso, crear pequeños robots que juegan futbol sin ningún control remoto y de forma independiente.  

 

Aunque es un proyecto a largo plazo, Zaldívar Navarro y Cuevas Jiménez ya trabajan para lograr que, en menos de un año, los nuevos prototipos, llamados “Marisol” y “El Rostro”, puedan hacer contacto visual y seguir a una persona con la mirada o mover las manos de la forma más similar posible a cómo lo hacen los humanos.

 

“Podemos hacer que esa máquina tome en cuenta esos estímulos mediante la visión artificial, y en una fase posterior detectar las expresiones de las personas y que el robot identifique su significado y pueda dar una respuesta inteligente”, dice Zaldívar Navarro.

 

Por ejemplo, si el robot nota que una persona tiene una expresión de cansancio, podría preguntarle su estado de ánimo y ofrecerle reproducir una de sus canciones favoritas; o identificar si los adultos mayores tienen algún comportamiento o síntoma anormal y verificar su estado de salud mediante sensores táctiles que midan sus signos vitales.

 

El proyecto involucra tanto a estudiantes de licenciatura como de maestría y doctorado, quienes ayudan en la programación y perfeccionamiento de los movimientos de los prototipos.

 

Los académicos advierten que lo ambicioso del proyecto conlleva que los resultados sean palpables a mediano y largo plazos, para lo que requerirán financiamiento de diversas instancias dentro y fuera de la UdeG.

Responsable: 
Unidad de Difusión
Texto: 
Mariana González
Fotógrafo: 
Abraham Aréchiga
Editor: 
Coordinación de Prensa y Comunicaciones