Omitir los comandos de cinta
Saltar al contenido principal
Inicio de sesión
Universidad EAFIT
Carrera 49 # 7 sur -50 Medellín Antioquia Colombia
Carrera 12 # 96-23, oficina 304 Bogotá Cundinamarca Colombia
(57)(4) 2619500 contacto@eafit.edu.co

Las emociones se ven con algoritmos matemáticos

El grupo de investigación en Modelado Matemático desarrolla algoritmos para detectar emociones en señales fisiológicas como la voz y los gestos faciales. Pueden beneficiar a niños, adultos mayores, pacientes hospitalizados,entre otras personas.

El trabajo de los estudiantes involucrados busca agregarle a los proyectos valor con nuevas ideas como llevar el sistema a una aplicación de celular, a un robot u otras formas en las que los profesionales puedan leer los resultados. Foto: Róbinson Henao.

Bibiana Andrea Moná Giraldo
Periodista del Área de Información y Prensa de EAFIT


La felicidad, el enojo, la alegría, la tristeza, la tranquilidad o el miedo… en fin, el sinnúmero de emociones que puede sentir un ser humano es, a veces, imperceptible a los ojos de los demás y, en muchas ocasiones, su interpretación es subjetiva en un primer momento.

Por fortuna, la mayoría de personas se vale del lenguaje hablado como medio de comunicación inmediato y efectivo para expresar lo que siente frente a una situación en particular. Pero, ¿qué pasa con quienes no tienen voz para comunicarse y decirle a otros lo que les sucede?

Estos interrogantes motivaron al grupo de investigación en Modelado Matemático de la Universidad EAFIT que desarrolla algoritmos para detectar emociones en señales fisiológicas y, en los últimos años, ha enfocado sus esfuerzos en crear estrategias que beneficien a las personas menos favorecidas y en condición vulnerable.

Así, niños, adultos mayores, pacientes en rehabilitación de accidentes cerebrovasculares, personas hospitalizadas, entre otros, tendrán la posibilidad de comunicar efectiva y eficientemente sus emociones. De esta manera, los profesionales que trabajen con estos pacientes podrán detectar y diagnosticar, por ejemplo, anomalías, en el caso de maltrato infantil, o patologías, en personas de avanzada edad o con cuadros neurológicos.
​​​

El grupo de investigación en Modelado Matemático de EAFIT desarrolla algoritmos que han

sido validados con bases de datos científicas.

​​​


Para lograrlo, con metodologías y algoritmos el equipo de investigadores ha realizado varios proyectos que han servido de plataforma inicial, entre estos:Detección de emociones en audio, Filtrado adaptativo de señales y Análisis de señales, usando Transformada Wavelet continua y discreta.

Los frutos de estos esfuerzos se evidencian en la producción científica y en la formación investigativa de estudiantes de pregrado en Ingeniería Matemática e Ingeniería Física, y de la maestría en Matemáticas Aplicadas, quienes han participado en estos proyectos.

A esto se suma el trabajo conjunto con otros grupos de investigación nacionales e internacionales como Sistemas Embebidos e Inteligencia Computacional (Sistemic), de la Universidad de Antioquia; Psicología, Educación y Cultura, del Politécnico Grancolombiano; Gabinete de Tecnología Médica, de la Universidad Nacional de San Juan (Argentina), y DeustoTech (España).

“De estos trabajos ya van cerca de seis años, en los que se han unido profesionales que cada vez le aportan mejoras y nuevas soluciones a los desarrollos propuestos”, comenta Lucía Quintero Montoya, profesora e investigadora, y líder de estos proyectos de investigación.


En la voz está la emoción


Al hablar, una persona expresa ideas que están en su cerebro y que se asocian con una emoción específica. El reto de estos investigadores fue desarrollar métodos y algoritmos especializados en voz que permitieran detectar emociones.

Este aporte continuó con la aplicación de esos algoritmos de reconocimiento de emociones en electroencefalogramas para complementar el trabajo anterior. Con esto le apuntan a construir un mapa –con señales electroencefalográficas– de las zonas del cerebro donde ocurren algunos estados emocionales e identificar palabras relacionadas con estos, manifiesta Alejandro Gómez Montoya, joven investigador de Colciencias en el proyecto.
​​​

Crear conocimiento desde la matemática y las ciencias de la computación, con aplicación directa en el entorno, es uno de los aportes del grupo de investigación en Modelado Matemático.

​​​

“El sistema logra detectar de manera exitosa los cambios en la voz de las personas, con condiciones de entrada de audio en las que no haya mucho ruido para que se pueda entender bien”, indica Alejandro, quien además es estudiante de la maestría en Matemáticas Aplicadas de EAFIT.

¿Cómo funciona el sistema? Primero que todo el sistema se programa para identificar patrones específicos asociados a un tipo de emoción. Luego, a la persona se le pone en la cabeza un casco con varios canales de conexión para captar su voz y analizar pequeños fragmentos de esta para determinar, por ejemplo, cómo suena o cuál es el tono. Por último, con esas señales el sistema, a través de electroencefalogramas,muestra la emoción del individuo, explica el investigador Gómez Montoya.

Este sistema se puede aplicar en sesiones de terapia psicológica, en entidades que trabajan con población en alto grado de vulnerabilidad o médicos que quieran, a través de estos sistemas, reconocer patologías.

“Hemos desarrollado algoritmos que han sido validados con bases de datos científicas, lo que nos permite crear conocimiento que es valioso desde la matemática y las ciencias de la computación, y que tienen una aplicación directa en el entorno”, aduce la profesora Quintero Montoya.

Microexpresiones faciales

Según el servicio de información en línea de la Biblioteca Nacional de Medicina de los Estados Unidos, MedlinePlus, un accidente cerebrovascular sucede cuando el flujo de sangre a una parte del cerebro se detiene por unos pocos segundos, lo que conlleva que el cerebro no puede recibir nutrientes y oxígeno. Las células cerebrales pueden morir, lo que causa daño permanente y discapacidades como parálisis o problemas de control del movimiento, dolor u otros relacionados con los sentidos, dificultades para hablar o entender lo que se le dice y alteraciones emocionales.

Quienes sobreviven necesitan volver a aprender las habilidades que perdieron. “A este tipo de personas, así como los niños que no hablan, adultos mayores que perdieron esta capacidad o, incluso, personas que se encuentran en unidades de cuidados intensivos con pérdida de su habla, son a quienes queremos ayudar a través de este proyecto”, asegura Lucía Quintero.

La profesora menciona que a estas personas es posible detectarles sus emociones a través de su gestualidad. Así, los profesionales de la salud, los psicólogos y los familiares sabrían con certeza qué sienten aquellos y si atraviesan estados de tristeza, soledad, felicidad o hambre.

Sin duda, otra forma de comunicación es la que se da a través de la expresión corporal, del lenguaje de señas y de la gestualidad facial. Por eso, esta última se convirtió en otra fuente de investigación para este colectivo de científicos, que a través de las microexpresiones faciales logra detectar emociones. 

Para esto, el grupo se unió con Jaime Castro Martínez, psicólogo de la Universidad Nacional de Colombia, magíster en Educación de la Universidad de los Andes y quien en la actualidad es docente investigador del Politécnico Grancolombiano, quien ya había trabajado en el registro de señales de encefalograma (EEG), en díadas madre-hijo, para estudiar la sincronía en la evocación emocional. Esta información fue útil para la investigación, ya que permitió probar los datos que tenía este psicólogo con los algoritmos que el equipo de trabajo estaba diseñando para el análisis de señales EEG.

“He trabajado durante años en la comprensión del desarrollo humano, principalmente en las áreas del lenguaje, el pensamiento y las emociones. Por eso, mi aporte como psicólogo se orienta a presentar un marco comprensivo de las emociones para su estudio y validar los protocolos de evocación y registro emocional”, puntualiza el investigador. 

Por otra parte, señala el psicólogo Jaime Castro que “reconocer emociones nunca es fácil. Se requieren muchas claves contextuales para entender la emoción propia y ajena. Ahora bien, tener equipos, dispositivos y algoritmos que ayuden a este reconocimiento puede transformar la vida de las personas de diferentes maneras”. Por ejemplo, en terapia psicológica se torna relevante comprender el estado emocional del paciente para proponer una terapia acorde con ese estado.

Más sueños

A las iniciativas de detección de emociones en voz y en expresiones faciales se suma el proyecto Desarrollo de un algoritmo robusto para la eliminación de artefactos en registros de señales EEG, y su participación en un consorcio Erasmus+, que tiene como objeto el ‘Healthy ageing’ (envejecimiento saludable), así como un dispositivo anticaídas para monitorear a los adultos mayores desarrollado por Sistemic.

​​​

Niños, adultos mayores, pacientes en rehabilitación de accidentes cerebrovasculares, personas hospitalizadas, entre otros, tendrán la posibilidad de comunicar efectiva y eficientemente sus emociones.

​​​

“En la actualidad, el grupo de investigación busca unirse a otros científicos para diseñar este dispositivo que facilite la comprensión y el cuidado asertivo de quienes asisten a estas personas de avanzada edad. Ahí está la profesora Natalia López, de la Universidad Nacional de San Juan, en Argentina, quien forma parte del gabinete de tecnología médica; otros docentes de la Universidad Tecnológica Nacional (Argentina), el profesor Jaime Castro, Francisco Vargas de la Universidad de Antioquia y los estudiantes de EAFIT”, expresa Lucía Quintero.

Si hay algo que tienen en común estos proyectos es que todos se prueban en adultos sanos con el fin de mejorar el algoritmo, compararlo con resultados de otras investigaciones en el ámbito internacional y, así, dejarlo listo para ser usado. Además, a través del joven investigador, el objetivo es hacer un protocolo experimental que sea aprobado por el comité de ética de la Universidad. “Una vez el protocolo esté listo soñamos que otras personas nos ayuden sirviendo como sujetos experimentales para avanzar y poner a punto los algoritmos”, acota la docente investigadora.

Por otra parte, “el trabajo de los estudiantes que estamos involucrados busca agregarle a los proyectos valor con nuevas ideas como llevar el sistema a una aplicación de celular, a un robot u otras formas en las que los profesionales puedan leer los resultados”, menciona Alejandro Uribe Valencia, estudiante de séptimo semestre de Ingeniería Física y quien trabaja en el proyecto de detección de emociones en voz, a través de la asignatura Proyecto Avanzado.

Al respecto, la profesora Lucía Quintero concluye que todas las ideas están en marcha por el impulso que les dan estudiantes y quienes tienen que ver con los proyectos, orientados por el grupo de investigación en Modelado Matemático, para llegarle a personas que podrían beneficiarse con estas herramientas para mejorar su calidad de vida.


Alejandro Gómez Montoya, Alejandro Uribe Valencia, Juan Palacio -estudiante del doctorado en Ingeniería matemática de EAFIT- y Lucía Quintero (investigadora principal).


Investigadores

Lucía Quintero Montoya

Ingeniera de control, Universidad Nacional de Colombia; ingeniera electrónica, Universidad San Francisco de Quito (Ecuador), y doctora en Ingeniería de Sistemas de Control, Universidad Nacional de San Juan (Argentina ).En la Universidad EAFIT es docente investigadora de la Escuela de Ciencias, directora del grupo de investigación en Modelado Matemático y coordinadora del doctorado en Ingeniería Matemática. Áreas de interés: sistemas de control, inteligencia artificial, análisis de señales multidimensionales y machine learning.

Jaime Castro Martínez

Psicólogo, Universidad Nacional de Colombia; magíster en Educación, Universidad de los Andes. Es docente investigador del Politécnico Grancolombiano. Áreas de interés: desarrollo humano, educación de la primera infancia, neurociencia afectiva y desarrollo de la conciencia.

Alejandro Gómez Montoya

Ingeniero físico, Universidad EAFIT. Es estudiante de la maestría en Matemáticas Aplicadas de EAFIT y Joven Investigador de Colciencias. Áreas de interés: innovación tecnológica, análisis de señales, reconocimiento de patrones, machine learning y procesamiento de bioseñales.

Alejandro Uribe Valencia

Estudiante de séptimo semestre de Ingeniería Física, Universidad EAFIT. Trabaja en el proyecto como parte de la asignatura Proyecto Avanzado.

Natalia Martina López Celani

Bioingeniera, máster en Ingeniería de Control y doctora en Ingeniería de Sistemas de Control, Universidad Nacional de San Juan (Argentina). Es investigadora del Consejo Nacional de Investigaciones Científicas y Técnicas (Conicet) y del Gabinete de Tecnología Médica (Gateme) en la Universidad Nacional de San Juan. Actualmente trabaja en temas de neurorehabilitación.

Jesús Francisco Vargas Bonilla

Ingeniero electrónico y magíster en Automatización Industrial, Universidad Nacional de Colombia, y doctor en Cibernética y Telecomunicaciones, Universidad de Las Palmas de Gran Canaria (España). Decano de la Facultad de Ingeniería de la Universidad de Antioquia, donde es miembro del grupo Sistemas Embebidos e Inteligencia Computacional (Sistemic).